Vous êtes sur la page 1sur 312

NE

Cours de Mathématiques
MPSI
Lycée Montaigne 2015-16

AIG z

P1
P2
NT
y

x
MO

©Fradin Patrick – http://mpsi.tuxfamily.org


NE
Chapitre 1

Éléments de logique

AIG
Sommaire
I Notions ensemblistes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1) Vocabulaire lié aux ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
II Notions de logique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1) Propositions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2) Connecteurs logiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
3) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
4) Quantificateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
5) Retour sur les ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
III Le raisonnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1) Raisonnement par l’absurde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2) Raisonnement par analyse-synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3) Démontrer une implication . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
NT
4) L’équivalence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
5) La récurrence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

I NOTIONS ENSEMBLISTES

1) Vocabulaire lié aux ensembles


Nous ne définirons pas rigoureusement la notion d’ensemble, celle-ci sera considérée comme intuitive.
Nous nous contenterons de la « définition » suivante :

Définition 1.1
MO

Un ensemble E est une collection d’objets 1 , ceux-ci sont appelés éléments de E. Si x est un élément
de E on écrira x ∈ E (se lit « x appartient à E »), dans le cas contraire on écrira x ∉ E. Si E n’a pas
d’éléments on dira que c’est l’ensemble vide et on le notera ;. Deux ensembles E et F sont dits égaux
si et seulement si ils ont les mêmes éléments, on écrira alors E = F.

ZExemples :
– Les ensembles de nombres : N, Z, D, Q, R, C.
– L’ensemble des fonctions de R dans R : F (R, R).
– Ensembles définis en extension, comme : E = {1, 8, 6, 2} (éléments non ordonnés et devant apparaître
une seule fois dans la liste).
– Ensembles définis en compréhension, comme : E = {2k + 1 | k ∈ Z}.

1. Cependant toute collection d’objets ne constitue pas forcément un ensemble. Par exemple, le paradoxe de Bertrand Russel
a montré que l’ensemble des ensembles ne peut pas exister, sinon, la considération de l’ensemble y = {x | x ∉ x} conduit à une
absurdité.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 1 ©Fradin Patrick – http://mpsi.tuxfamily.org


Notions ensemblistes Chapitre 1 : Éléments de logique

Définition 1.2
Soient A et B deux ensembles :
– L’inclusion : on dit que A est inclus dans B tous les éléments de A sont également éléments de B,

NE
notation : A ⊂ B.
– Ensemble des parties : si A est inclus dans B, on dit que A est une partie de B. L’ensemble des
parties de B est noté P (B), donc écrire « A ⊂ E » revient à écrire « A ∈ P (B) ». Par exemple, l’ensemble
vide et B sont des parties de B, donc ; ∈ P (B) et B ∈ P (B).
– La réunion : on note A ∪ B (se lit « A union B »), l’ensemble que l’on obtient en regroupant les
éléments de A avec ceux de B, par exemple {2k + 1 | k ∈ Z} ∪ {2n | n ∈ Z} = Z.
– L’intersection : on note A ∩ B (se lit « A inter B »), l’ensemble des éléments communs à A et B.
Par exemple N ∩ Z∗ = N∗ . On dit que deux ensembles sont disjoints lorsque leur intersection est
l’ensemble vide.
– La différence : on note A \ B (se lit « A moins B »), l’ensemble des éléments qui sont dans A mais pas
dans B. Par exemple, R+ = R\] − ∞; 0[.

AIG
– Le complémentaire : lorsque A est une partie de B, la différence B \ A est appelé complémentaire
de A dans B, noté CB (A) (ou bien A). Par exemple R \ Q est l’ensemble des irrationnels.
– Le produit cartésien : le produit cartésien de A par B est l’ensemble des couples (x, y) avec x ∈ A et
y ∈ B, on le note A × B, c’est à dire A × B = {(x, y) / x ∈ E, y ∈ F}. On rappelle que (x, y) = (a, b) si et
seulement si x = a et y = b.

B A B

A
NT
A⊂B A 6⊂ B

A B A B
MO

A∪B A∩B

A B B
A

A\B CB (A)

FExercice 1.1 Décrire P (E) lorsque E = {1; 2; 3}.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 2 ©Fradin Patrick – http://mpsi.tuxfamily.org


Notions de logique Chapitre 1 : Éléments de logique

Remarque 1.1 :
– Dire que deux ensembles A et B sont égaux, revient à dire que A est inclus dans B, et B est inclus dans A.
Donc démontrer une égalité entre deux ensembles, peut se faire en montrant une double inclusion.

NE
– Le produit cartésien se généralise à trois ensembles ou plus généralement à n ensembles :

E1 × · · · × En = {(x 1 , . . . , x n ) | x 1 ∈ E1 , . . . , x n ∈ En }

Lorsque tous les ensembles sont égaux au même ensemble E, alors on note E × · · · × E = En

2) Propriétés

Théorème 1.1 (Propriétés de la réunion et de l’intersection)


Soient A, B et C trois ensembles, on a A∪(B∩C) = (A∪B)∩(A∪C). C’est la distributivité de la réunion
sur l’intersection.

AIG
De même, on a A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C). C’est la distributivité de l’intersection sur la réunion.

Preuve : Ceci sera démontré un peu plus loin. 

Théorème 1.2 (Propriétés du complémentaire)


Si A et B sont deux parties d’un ensemble E :
– A ∪ CE (A) = E.
– CE (E) = ;, E \ ; = E.
– E \ (E \ A) = A.
– E \ (A ∪ B) = (E \ A) ∩ (E \ B) (loi de De Morgan 2 ).
– E \ (A ∩ B) = (E \ A) ∪ (E \ B) (2e loi de De Morgan).

Preuve : Ceci sera démontré un peu plus loin. 


NT
II NOTIONS DE LOGIQUE

1) Propositions
Nous nous contenterons de la « définition » suivante :

Définition 1.3 (Proposition)


Une proposition est une phrase (ou assertion) qui a un sens mathématique et qui est soit vraie soit
fausse 3 . On dira qu’une proposition n’a que deux valeurs de vérité : vraie (notée V) et fausse (notée F).
Si P désigne une assertion, on notera non(P) (ou P) sa négation.
MO

ZExemples :
– « 2 est un entier pair » est une proposition vraie.
– « 3 est un entier pair » est une proposition fausse.
– « n est un entier pair » n’est pas une proposition car sa valeur de vérité dépend de la valeur de n, un telle
phrase est appelée prédicat portant sur la variable n à valeurs dans Z, on pourrait noter ce prédicat
P(n) par exemple.
– Si A et B désignent deux ensembles, alors la phrase A ⊂ B est une proposition (tous les éléments de A
sont éléments de B). Sa négation s’écrit A 6⊂ B (un élément de A n’est pas forcément un élément de B).
Si P est une proposition, la valeur de vérité de non(P) se déduit de celle de P conformément à la table de
vérité suivante :
P non(P)
V F
F V
2. DE MORGAN Augustus (1806 – 1871) logicien anglais.
3. Il ne doit pas y avoir d’autre alternative selon le principe du tiers exclu.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 3 ©Fradin Patrick – http://mpsi.tuxfamily.org


Notions de logique Chapitre 1 : Éléments de logique

Par convention :
Dans les raisonnements mathématiques on n’écrit que des propositions vraies. Si P est une proposition,
au lieu d’écrire « P est vraie », on écrit plus simplement « P », et au lieu d’écrire « P est fausse », on écrit plus

NE
simplement « non(P) », c’est à dire la négation.

2) Connecteurs logiques
Ceux-ci permettent de relier deux propositions pour en donner une troisième.

Définition 1.4 (conjonction, disjonction inclusive)


Soient P et Q deux propositions.
On dira que la proposition « P et Q » est vraie lorsque les deux propositions le sont simultanément,
sinon on dira qu’elle fausse.
On dira que la proposition « P ou Q » est vraie lorsqu’au moins une des deux propositions est vraie

AIG
(voire les deux), sinon on dira qu’elle fausse.

P Q P et Q P ou Q
V V V V
V F F V
F V F V
F F F F

Définition 1.5 (implication, équivalence)


Soient P et Q deux propositions.
On dira que la proposition « P =⇒ Q » (lire « P implication Q ») est fausse lorsque P est vraie mais pas
Q.
NT
On dira que la proposition « P ⇐⇒ Q » (lire « P équivalence Q ») est vraie lorsque les deux propositions
ont la même valeur de vérité.

P Q P =⇒ Q P ⇐⇒ Q
V V V V
V F F F
F V V F
F F V V

ZExemples :
– La proposition « (2 est pair) =⇒ (3 est impair) » est vraie.
MO

– La proposition « (2 est impair) =⇒ (3 est pair) » est vraie.


– La proposition « (2 est pair) =⇒ (3 est pair) » est fausse.
– La proposition « (2 est impair) ⇐⇒ (3 est pair) » est vraie.

Définition 1.6 (implique, équivaut)


Soient P et Q deux propositions.
Lorsque la proposition « P =⇒ Q » est vraie on dit « P implique Q » (ou « si P alors Q »).
Lorsque la proposition « P ⇐⇒ Q » est vraie on dit que « P équivaut à Q » (ou « P est équivalent à Q »
ou encore « P si et seulement si Q »).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 4 ©Fradin Patrick – http://mpsi.tuxfamily.org


Notions de logique Chapitre 1 : Éléments de logique

Principe de déduction
Soient P et Q deux propositions, si on sait que P implique Q, et que P est vraie, alors on a forcément Q
vraie d’après la définition de l’implication. C’est le principe de déduction 4 .

NE
3) Propriétés
Maintenant que nous savons ce que sont des propositions équivalentes, nous allons pouvoir établir les
propriétés suivantes :

Théorème 1.3
Soient P et Q deux propositions :
– La proposition « non(non(P)) » est équivalente à « P ».
– La proposition « non(P et Q) » est équivalente à « non(P) ou non(Q) » (1re loi de De Morgan).
– La proposition « non(P ou Q) » est équivalente à « non(P) et non(Q) » (2e loi de De Morgan).

AIG
– L’implication « P =⇒ Q » est équivalente à « (non P) ou Q ».
– La proposition « non(P =⇒ Q) » est équivalente à « P et non(Q) ».
– La proposition « P ⇐⇒ Q » est équivalente à « (P =⇒ Q) et (Q =⇒ P) ».
– La proposition « P ⇐⇒ Q » est équivalente à « non(P) ⇐⇒ non(Q) ».

Preuve : La première propriété est évidente. Les autres se montrent avec une table de vérité (à compléter en exercice) :

P Q non(P et Q) non(P) ou non(Q) non(P ou Q) non(P) et non(Q) P =⇒ Q non(P) ou Q


V V
V F
F V
F F

P Q non(P =⇒ Q) P et non(Q) P ⇐⇒ Q (P =⇒ Q) et (Q =⇒ P) non(P) ⇐⇒ non(Q)


V V
NT
V F
F V
F F

FExercice 1.2 Sans utiliser de table de vérité, redémontrer (en utilisant les autres propriétés) que : « non(P =⇒ Q) » est
équivalente à « P et non(Q) ».

Solution 1.2 « P =⇒ Q » équivaut à « non(P) ou Q », donc « non(P =⇒ Q) » équivaut à « non(non(P) ou Q) », ce qui


équivaut encore à « non(non(P)) et non(Q) » (loi de De Morgan), soit encore à « P et non(Q) ».

Définition 1.7 (réciproque, contraposée)


Soient P et Q deux propositions.
MO

La réciproque de l’implication « P =⇒ Q » est l’implication « Q =⇒ P ».


La contraposée de l’implication « P =⇒ Q » est l’implication « non(Q) =⇒ non(P) ».

Il découle alors du théorème précédent :

Théorème 1.4
Une implication et sa contraposée sont équivalentes.
Deux propositions sont équivalentes si et seulement si les implications dans les deux sens sont vraies.

4. Par contre, si P implique Q, et que P est fausse, alors on ne peut rien dire de Q.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 5 ©Fradin Patrick – http://mpsi.tuxfamily.org


Notions de logique Chapitre 1 : Éléments de logique

Remarque 1.2 – Ce résultat est à connaître car très utilisé dans les raisonnements (raisonnements par contra-
position, raisonnements par double implication).

NE
4) Quantificateurs
Les quantificateurs servent à construire des propositions à partir d’un prédicat P(x), dont la variable x
prend ses valeurs dans un certain ensemble E. On rencontre :
– Le quantificateur universel : « ∀x ∈ E, P(x) » (se lit « pour tout x dans E, P(x) [sous entendu est vraie] »).
Par exemple, la proposition « ∀x ∈ R, x 2 > 0 » se lit « pour tout réel x, le carré de x est positif ou nul », ou
bien encore « le carré de tout réel est positif ».
– Le quantificateur existentiel : « ∃x ∈ E, P(x) » (se lit « il existe au moins un x de E tel que P(x) [sous
entendu est vraie] »). Par exemple, la proposition « ∃x ∈ C, x 2 = −1 », se lit « il existe au moins un nombre
complexe dont le carré vaut −1 ».
Remarque 1.3 :

AIG
– On rencontre aussi parfois la proposition « ∃!x ∈ E, P(x) » (se lit « il existe un unique x de E tel que P(x)
[sous entendu est vraie] »). Par exemple, « ∃!x ∈ R+ , x 2 = 2 ».
– On peut trouver plusieurs quantificateurs dans une même proposition. Par exemple, « ∀y ∈ R+ , ∃!x ∈
R+ , x 2 = y » traduit que tout réel positif est le carré d’un unique réel positif.

Attention !
Les propositions « ∀x ∈ A, ∃y ∈ B, P(x, y) » et « ∃y ∈ B, ∀x ∈ A, P(x, y) », n’ont pas le même sens. En effet, dans la
première le y dépend de x alors que dans la seconde il s’agit du même y pour tous les x.

À retenir : utilisation des quantificateurs


Celle-ci est régie par les règles suivantes :
a) La négation de ∀ est ∃ (et vice - versa).
NT
b) On peut intervertir deux quantificateurs de même nature.
c) On ne peut pas intervertir deux quantificateurs de nature différente.

ZExemples :
– L’assertion « ∀y ∈ R+ , ∃x ∈ R+ , x 2 = y » est vraie, elle traduit que tout réel positif est le carré d’au moins
un réel positif. Mais l’assertion « ∃x ∈ R+ , ∀y ∈ R+ , x 2 = y » traduit que tout réel positif est le carré d’un
même réel, ce qui est évidemment faux. Sa négation est « ∀x ∈ R+ , ∃y ∈ R+ , x 2 6= y ».
¡ ¢ ¡ ¢
– On a toujours l’implication suivante : ∃x ∈ A, ∀y ∈ B, P(x, y) =⇒ ∀y ∈ B, ∃x ∈ A, P(x, y) .
– La négation de « ∀x ∈ A, ∃y ∈ B, P(x, y) » est « ∃x ∈ A, ∀y ∈ B, non(P(x, y)) ».
FExercice 1.3
1/ Traduire dans le langage mathématique : la suite (u n ) est majorée. Écrire la négation. Qu’en est-il de la suite
MO

définie par u n = n 2 ? Justifier.


2/ Traduire dans le langage courant les propositions suivantes :
a) ∃y ∈ R, ∀x ∈ R, x 6 y.
b) ∃y ∈ N, ∀x ∈ N, y 6 x.

Solution 1.3
1/ ∃M ∈ R, ∀n ∈ N, u n 6 M. La négation est ∀M ∈ R, ∃n ∈ N, u n > M. La suite (n 2 ) n’est pas majorée, en effet : soit
M ∈ R, si n ∈ N avec n > M, alors (n + 1)2 > n > M.
2/ Traduction :
a) L’ensemble R a un maximum, cette proposition est fausse, sa négation s’écrit ∀y ∈ R, ∃x ∈ R, x > y.
b) L’ensemble N a un minimum, cette proposition est vraie.

5) Retour sur les ensembles


Soient A et B deux parties d’un ensemble E.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 6 ©Fradin Patrick – http://mpsi.tuxfamily.org


Notions de logique Chapitre 1 : Éléments de logique

Intersection d’ensembles
Si x désigne un élément de E, démontrer que x ∈ A ∩ B, c’est démontrer la proposition « (x ∈ A) et (x ∈ B) ».
On peut donc écrire : A ∩ B = {x ∈ E | x ∈ A et x ∈ B}.

NE
Réunion d’ensembles
Si x désigne un élément de E, démontrer que x ∈ A∪B, c’est démontrer la proposition « (x ∈ A) ou (x ∈ B) ».
On peut donc écrire : A ∪ B = {x ∈ E | x ∈ A ou x ∈ B}.

Complémentaire
Si x désigne un élément de E, démontrer que x ∈ CE (A), c’est démontrer la proposition « (x ∉ A). On peut
donc écrire : CE (A) = {x ∈ E | x ∉ A}.

Différence d’ensembles
Si x désigne un élément de E, démontrer que x ∈ A \ B, c’est démontrer la proposition « (x ∈ A) et (x ∉ B) ».
On peut donc écrire : A \ B = {x ∈ E | x ∈ A et x ∉ B}, il en découle que A \ B = A ∩ CE (B).

AIG
Inclusion d’ensembles
Démontrer que A est inclus dans B, c’est démontrer que les éléments de A sont également des éléments
de B, c’est à dire, pour tout élément x de E, on a : x ∈ A =⇒ x ∈ B. Pour établir ceci, on prend un élément x
quelconque de E, et on démontre la proposition x ∈ A =⇒ x ∈ B.

Égalité d’ensembles
Démontrer que A est égal à B, c’est démontrer la double inclusion : A ⊂ B et B ⊂ A, c’est à dire, pour tout
élément x de E, on a : (x ∈ A =⇒ x ∈ B) et (x ∈ B =⇒ x ∈ A), ce qui équivaut à : x ∈ A ⇐⇒ x ∈ B. Pour établir
ceci, on prend un élément x quelconque de E, et on démontre la proposition x ∈ A ⇐⇒ x ∈ B.

À retenir
Démontrer que A ⊂ B, c’est démontrer : ∀x ∈ E, x ∈ A =⇒ x ∈ B.
Démontrer que A = B, c’est démontrer : ∀x ∈ E, x ∈ A ⇐⇒ x ∈ B.
NT
ZExemples :
– Soient A, B et C trois parties d’un ensemble E, démontrer la distributivité de la réunion sur l’intersection
c’est démontrer :
¡ ¢ ¡ ¢
∀x ∈ E, x ∈ A ∪ (B ∩ C) ⇐⇒ x ∈ [A ∪ B] ∩ [A ∪ C]
On considère un x quelconque dans E, on peut alors montrer l’équivalence avec une table de vérité (à
compléter en exercice) :

x∈A x ∈B x ∈C x ∈ A ∪ (B ∩ C) x ∈ [A ∪ B] ∩ [A ∪ C]
V V V
V V F
MO

V F V
V F F
F V V
F V F
F F V
F F F

– Soient A et B deux parties d’un ensemble E, soit x un élément quelconque de E, alors :

x ∈ CE (A ∪ B) ⇐⇒ non([x ∈ A] ou [x ∈ B])
⇐⇒ [x ∉ A] et [x ∉ B]
⇐⇒ x ∈ CE (A) ∩ CE (B)

Ce qui prouve que CE (A ∪ B) = CE (A) ∩ CE (B).


FExercice 1.4 En s’inspirant des deux exemples ci-dessus, démontrer le théorème 1.1 et le théorème 1.2.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 7 ©Fradin Patrick – http://mpsi.tuxfamily.org


Le raisonnement Chapitre 1 : Éléments de logique

Résoudre une équation


Une équation dans R, d’inconnue x réelle peut toujours se mettre sous la forme f (x) = 0. Résoudre
cette équation dans R c’est déterminer la partie S de R telle que « ∀x ∈ R, f (x) = 0 ⇐⇒ x ∈ S » (S est appelé

NE
l’ensemble des solutions réelles). La définition est la même pour une inéquation dans R.
1
FExercice 1.5 Résoudre dans R l’inéquation x < −1.
Solution 1.5 On écrit :
1 1
< −1 ⇐⇒ + 1 < 0
x x
x +1
⇐⇒ <0
x
⇐⇒ (x + 1)x < 0 et x 6= 0
⇐⇒ x ∈] − 1; 0[

AIG
III LE RAISONNEMENT

1) Raisonnement par l’absurde


Soit P une proposition dont on cherche à démontrer qu’elle est vraie. Raisonner par l’absurde c’est faire
l’hypothèse que P est fausse, autrement dit, on suppose non(P), on cherche alors à obtenir une contradiction,
c’est à dire une proposition Q dont sait qu’elle est fausse, et telle que non(P) =⇒ Q. Si on n’y parvient, cela
veut dire que « Q et non(Q) » est vraie, ce qui est impossible car une telle proposition est toujours fausse :
c’est le principe de non contradiction. La conclusion est que P est vraie.
p
ZExemple : montronsp que 2 est un irrationnel
p par l’absurde :
p
On suppose que 2 ∈ Q, on peut écrire 2 = q avec p et q entiers strictement positifs et premiers entre
eux. En élevant au carré on a 2q 2 = p 2 , ce qui entraîne que p est pair et donc p = 2a avec a entier, d’où
2q 2 = 4a 2 i.e. q 2 = 2a 2 , donc q est pair lui aussi et par conséquent p et q ne sont pas premiers entre eux :
NT
contradiction.

2) Raisonnement par analyse-synthèse


Raisonner par analyse-synthèse lorsque l’on cherche la ou les solutions à un problème, c’est raisonner en
deux étapes qui sont :
– l’analyse : on suppose que l’on a une solution du problème et on cherche à en déduire toutes les
propriétés possibles de cette solution, l’objectif étant d’essayer de l’identifier au mieux,
– la synthèse : elle consiste à déterminer parmi tous les objets mathématiques ayant les propriétés
requises (obtenues lors de l’analyse), ceux qui sont effectivement solutions du problème.
ZExemple : Montrons que toute fonction f : [0; 1] → R est la somme d’une fonction affine et d’une fonction
qui s’annule en 0 et en 1.
MO

• Analyse : supposons qu’il existe une fonction g qui s’annule en 0 et en 1, ainsi que deux réels a et b tels
que ∀x ∈ R, f (x) = g (x) + ax + b. En évaluant en 0 on doit avoir f (0) = b, en évaluant en 1 on doit avoir
f (1) = a + b, d’où a = f (1) − b = f (1) − f (0). Maintenant que a et b sont connus, on en déduit que g est la
fonction x 7→ f (x) − ax − b
• Synthèse : posons b = f (0), a = f (1) − f (0) et g : x 7→ f (x) − ax − b. Il est clair que f (x) = g (x) + ax + b,
d’autre part g (0) = f (0) − b = 0 et g (1) = f (1) − a − b = f (1) − f (1) + f (0) − f (0) = 0. Donc a, b et g sont bien
solution du problème et celle-ci est unique.

3) Démontrer une implication


Par définition, l’implication « P =⇒ Q » est fausse lorsque P est vraie et Q fausse, elle est vraie dans les
autres cas. En particulier, si P est fausse, l’implication est nécessairement vraie quelque soit la valeur de vérité
de Q. Par contre lorsque P est vraie, tout dépend de Q. Nous savons également que l’implication « P =⇒ Q »
est équivalente à sa contraposée « non(Q) =⇒ non(P) », donc démontrer l’une c’est démontrer l’autre.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 8 ©Fradin Patrick – http://mpsi.tuxfamily.org


Le raisonnement Chapitre 1 : Éléments de logique

À retenir : pour démontrer une implication.


• Méthode directe : on suppose que la proposition P est vraie (c’est l’hypothèse), on cherche alors à

NE
établir que nécessairement la proposition Q est vraie elle aussi.
• Par l’absurde : on suppose le contraire de P =⇒ Q, c’est à dire on suppose « P et non(Q) » (i.e. P
est vraie et Q est fausse. On montre alors que ceci conduit à une contradiction, ce qui entraîne que
l’hypothèse faite est fausse et par conséquent P =⇒ Q.
• Par contraposition : on cherche à établir non(Q) =⇒ non(P).

Remarque 1.4 – Pour démontrer « P ou Q » : cette proposition est équivalente à « (non P) =⇒ Q ». Par consé-
quent, démontrer « P ou Q » revient à démontrer « (non P) =⇒ Q ».

4) L’équivalence

AIG
Par définition, l’équivalence « P ⇐⇒ Q » est vraie lorsque P et Q ont même valeur de vérité. Nous savons
qu’elle équivaut à « (P =⇒ Q) et (Q =⇒ P) », donc montrer l’équivalence c’est montrer une implication et
réciproque.

À retenir : pour démontrer une équivalence.


• Par double implication : on établit dans un premier temps que P =⇒ Q, puis dans un deuxième
temps on établit la réciproque, c’est à dire que Q =⇒ P.
• Méthode directe : on suppose que la proposition P est vraie (hypothèse) puis on cherche à établir
que Q est vraie en s’assurant à chaque étape du raisonnement que l’équivalence est conservée 5 .

5) La récurrence
NT
À retenir : rappel du principe de récurrence
Soit P(n) un prédicat portant sur une variable n ∈ N.
Si on a P(0) (initialisation) et si ∀ ∈ N, P(n) =⇒ P(n + 1) (hérédité), alors nécessairement ∀n ∈ N, P(n).

Remarque 1.5 :
– L’initialisation est juste une vérification, mais elle est indispensable.
Par exemple, soit le prédicat P(n) :« n = n + 1 », celui-ci vérifie bien l’hérédité (n = n + 1 =⇒ n + 1 = n + 2),
mais pour tout n, P(n) est fausse.
– Démontrer l’hérédité c’est démontrer une implication. En général on le fait par la méthode directe, on
fait donc l’hypothèse P(n), c’est ce que l’on appelle l’hypothèse de récurrence, et on essaie d’en déduire
P(n + 1).
MO

Théorème 1.5 (variantes)


Soit a ∈ Z et P(n) un prédicat portant sur une variable n ∈ Z.
• Si on a P(a) et si ∀n > a, P(n) =⇒ P(n + 1), alors on peut conclure que ∀n ∈ Z, n > a =⇒ P(n).
• Si on a P(a) et si ∀n 6 a, P(n) =⇒ P(n − 1), alors on peut conclure que ∀n ∈ Z, n 6 a =⇒ P(n)
(récurrence descendante).

5. Cette méthode n’est pas toujours applicable, mais c’est celle que l’on utilise dans la mesure du possible pour résoudre une
équation ou une inéquation.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 9 ©Fradin Patrick – http://mpsi.tuxfamily.org


Le raisonnement Chapitre 1 : Éléments de logique

Preuve : Pour le premier point, on applique le principe de récurrence au prédicat Q(n) = P(n + a) avec n ∈ N. Pour le
deuxième, on applique le principe de récurrence au prédicat Q(n) = P(a − n) avec n ∈ N. 
FExercice 1.6

NE
Pn n(n+1)
1/ Montrer que ∀n ∈ N∗ , k=1
k= 2 .
(2n+1)n(n+1)
∈ N∗ , nk=1 k 2
P
2/ Montrer que ∀n = 6 .
³ ´2
∈ N∗ , nk=1 k 3 = n(n+1)
P
3/ Montrer que ∀n 2 .

Théorème 1.6 (récurrence forte)


Soit P(n) un prédicat portant sur une variable n ∈ N.
Si on a P(0) (initialisation) et si ∀ ∈ N, (P(0) et P(1) et · · · et P(n)) =⇒ P(n + 1) (hérédité), alors nécessai-
rement ∀n ∈ N, P(n).

Preuve : Appliquer la principe de récurrence au prédicat Q(n) = (P(0) et P(1) et · · · et P(n)). 

AIG
À retenir
La récurrence forte est utile lorsque le seul fait que P(n) soit vraie ne suffit pas à en déduire P(n + 1).
L’hypothèse de récurrence peut alors s’écrire : « supposons la propriété vraie jusqu’au rang n ».

FExercice 1.7 Soit (u n ) la suite définie par u 0 = u 1 = 1 et ∀ n ∈ N, u n+2 = u n+1 + u n (suite de Fibonacci), montrer par
récurrence que pour tout n :

un =
p à p !n
5+ 5 1+ 5
10 2
+
p Ã

10 2
p !n
5− 5 1− 5
NT
MO

MPSI3 (2015-16) LYCÉE M ONTAIGNE 10 ©Fradin Patrick – http://mpsi.tuxfamily.org


NE
Chapitre 2

Nombres complexes

AIG
Sommaire
I Écriture algébrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1) L’ensemble des complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2) Partie réelle, partie imaginaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3) Conjugué d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
II Module d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2) Équation du second degré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
III Forme trigonométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1) Le groupe unité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2) Exponentielle d’un imaginaire pur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3) Argument d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4) Racines nes d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
IV Exponentielle complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
NT
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2) Formules d’Euler et de Moivre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
V Représentation géométrique des complexes, applications . . . . . . . . . . . . . . . . . . . . 19
1) Affixe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2) Distances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3) Angles orientés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4) Similitudes directes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

On suppose connu l’ensemble R des réels, les propriétés de ses deux opérations que sont l’addition et la
multiplication, et la notion de valeur absolue d’un réel.

I ÉCRITURE ALGÉBRIQUE
MO

1) L’ensemble des complexes


On admet l’existence d’un ensemble, que l’on notera C, contenant R et tel que :
– C possède une addition et une multiplication, prolongeant celles de R et vérifiant les mêmes proprié-
tés, c’est à dire :
• L’addition est interne (∀z, z 0 ∈ C, z + z 0 ∈ C), commutative (∀z, z 0 ∈ C, z + z 0 = z 0 + z), associative
(∀z, z 0 , z 00 ∈ C, (z + z 0 )+ z 00 = z +(z 0 + z 00 )), 0 est élément neutre (∀z ∈ C, z +0 = 0+ z), chaque complexe
admet un opposé dans C (l’opposé de z ∈ C est noté −z).
• La multiplication est interne (∀z, z 0 ∈ C, zz 0 ∈ C), commutative (∀z, z 0 ∈ C, zz 0 = z 0 z), associative
(∀z, z 0 , z 00 ∈ C, (zz 0 )z 00 = z(z 0 z 00 )), 1 est élément neutre (∀z ∈ C, z × 1 = 1 × z), chaque complexe autre
que 0 admet un inverse dans C (l’inverse de z ∈ C est noté z −1 ou 1z ).
• La multiplication est distributive sur l’addition à gauche et à droite (∀z, z 0 , z 00 ∈ C, z(z 0 +z 00 ) = zz 0 +zz 00 ,
et (z 0 + z 00 )z = z 0 z + z 00 z).
On résume toutes ses propriétés en disant que (C, +, ×) est un corps commutatif.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 11 ©Fradin Patrick – http://mpsi.tuxfamily.org


Module d’un nombre complexe Chapitre 2 : Nombres complexes

– Il existe un complexe, que l’on notera i , qui vérifie i 2 = −1.


– Pour tout complexe z, il existe deux réels a et b uniques tels que z = a + i b.
FExercice 2.1

NE
1/ Montrer que si z ∈ C, alors z × 0 = 0 × z = 0.
2/ Soient z, z 0 ∈ C tels que zz 0 = 0, montrer que z = 0 ou z 0 = 0.

2) Partie réelle, partie imaginaire

Définition 2.1
Soit z ∈ C, on sait qu’il existe un réel a unique et un réel b unique tel que z = a + i b. Le réel a est
appelé partie réelle de z, notée a = Re(z), et b la partie imaginaire de z, notée b = Im(z). L’écriture
z = a + i b est appelée forme algébrique de z. L’ensemble des complexes dont la partie réelle est nulle,
est appelée ensemble des imaginaires purs et noté i R = {z ∈ C | Re(z) = 0} = i y | y ∈ R .
© ª

AIG
À retenir : quelques propriétés

0
a) z = z ⇐⇒
(
Re(z) = Re(z 0 )
Im(z) = Im(z 0 )
b) z ∈ R ⇐⇒ Im(z) = 0.
c) z ∈ i R ⇐⇒ Re(z) = 0.
.

d) Re(z + z 0 ) = Re(z) + Re(z 0 ) et Im(z + z 0 ) = Im(z) + Im(z 0 ).


e) Si α est un réel, alors Re(αz) = αRe(z), et Im(αz) = αIm(z).

FExercice 2.2 Démontrer les propriétés ci-dessus.


NT
3) Conjugué d’un nombre complexe

Définition 2.2
Soit z = x + i y un complexe sous forme algébrique, on appelle conjugué de z, le complexe noté z et
défini par z = x − i y. On a donc Re(z) = Re(z) et Im(z) = −Im(z).

Théorème 2.1 (propriétés de la conjugaison)


Soient z, z 0 ∈ C, on a : i) z + z 0 = z + z 0 ii) zz 0 = zz 0 iii) z = z.
MO

Preuve : Celle-ci est simple et laissée en exercice. 

À retenir
On a : z + z = 2Re(z); z − z = 2i Im(z); z ∈ R ⇐⇒ z = z; z est un imaginaire pur ssi z = −z.

1
FExercice 2.3 Montrer que si z est non nul, alors z = 1z .

II MODULE D’UN NOMBRE COMPLEXE

1) Définition
Soit z = x + i y un complexe sous forme algébrique, on a z × z = x 2 + y 2 et cette quantité est un réel positif.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 12 ©Fradin Patrick – http://mpsi.tuxfamily.org


Module d’un nombre complexe Chapitre 2 : Nombres complexes

Définition 2.3
p
Soit z ∈ C, on appelle module de z, le réel positif noté |z| et défini par : |z| = zz.

NE
À retenir : propriétés du module
a) |z|2 = zz.
b) |z| = 0 ⇐⇒ z = 0.
c) |Re(z)| 6 |z| et |Im(z)| 6 |z|.
d) Si z est réel, alors son module coïncide avec sa valeur absolue.
e) |zz 0 | = |z||z 0 |, en particulier, ∀n ∈ N, |z n | = |z|n (ceci reste valable pour n ∈ Z si z 6= 0).
f ) |z| = |z| et | − z| = |z|.

AIG
z
g) Pour mettre le complexe z 0 sous forme algébrique, il suffit de multiplier en haut et en bas par
z zz 0 Re(zz 0 ) Im(zz 0 )
z0 : z0 = |z 0 |2
= |z 0 |2
+i |z 0 |2
.

Théorème 2.2 (inégalité triangulaire)


Soient z et z 0 deux complexes : ¯|z| − |z 0 |¯ 6 |z + z 0 | 6 |z| + |z 0 |.
¯ ¯

Preuve : Pour l’inégalité de droite :

|z + z 0 |2 = (z + z 0 )(z + z 0 )
= |z|2 + |z 0 |2 + 2Re(zz 0 )
6 |z|2 + |z 0 |2 + 2|Re(zz 0 )|
NT
6 |z|2 + |z 0 |2 + 2|zz 0 | = |z|2 + |z 0 |2 + 2|z||z 0 |
¢2
6 |z| + |z 0 |
¡

d’où le résultat puis que les deux expressions sont des réels positifs.
Pour l’inégalité de gauche, on écrit |z| = |z + z 0 − z 0 | 6 |z + z 0 | + |z 0 | d’où |z| − |z 0 | 6 |z + z 0 |, en inversant les rôles on a
|z | − |z| 6 |z + z 0 |, ce qui entraîne la première inégalité.
0

Remarque 2.1 – En remplaçant z 0 par −z 0 , on a ||z| − |z 0 || 6 |z − z 0 | 6 |z| + |z 0 |.

Théorème 2.3 (cas d’égalité)


Soient z et z 0 deux complexes non nuls, |z + z 0 | = |z| + |z 0 | si et seulement si il existe un réel α stricte-
ment positif tel que z = αz 0 .
MO

Preuve : Si on a z = αz 0 , alors |z + z 0 | = |αz 0 + z 0 | = (1+α)|z 0 | = |z 0 |+α|z 0 | = |z 0 |+|z|. Réciproquement, si |z + z 0 | = |z|+|z 0 |,


alors |z + z 0 |2 = (|z| + |z 0 |)2 , ce qui donne en développant, |z|2 + |z 0 |2 + 2Re(zz 0 ) = |z|2 + |z 0 |2 + 2|z||z 0 |, on en déduit que
zz 0
Re(zz 0 ) = |zz 0 | ce qui prouve que zz 0 est un réel positif. Il suffit alors de prendre α = |z 0 |2
, c’est bien un réel strictement
positif, et on a la relation voulue. 

2) Équation du second degré

Théorème 2.4
Soit a ∈ C, l’équation z 2 = a admet dans C deux solutions opposées (toutes deux nulles lorsque a = 0).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 13 ©Fradin Patrick – http://mpsi.tuxfamily.org


Forme trigonométrique Chapitre 2 : Nombres complexes

Preuve : Soit z 0 une solution, alors l’équation z 2 = a équivaut à z 2 = z 02 , c’est à dire à (z − z 0 )(z + z 0 ) = 0, d’où z = ±z 0 ,
il reste à montrer l’existence d’une solution z 0 . Posons a = u + i v et z = x + i y, l’équation z 2 = a est équivalente à
x 2 − y 2 = u et 2x y = v. On doit avoir également |z|2 = |a|, c’est à dire x 2 + y 2 = |a|, par conséquent on a : x 2 = u+|a| , y2 =

NE
q q 2
|a|−u
2 et 2x y = v. Une solution z 0 = x 0 + i y 0 s’obtient en prenant : x 0 = |a|+u 2 et y 0 = ε |a|−u
2 avec ε = 1 si v > 0 et
ε = −1 si v < 0, car on a 2x 0 y 0 = ε|v| = v. 
ZExemples :
p
– Si a est un réel strictement positif, alors v = 0 et u > 0 d’où |a| = u et donc x 0 = a et y 0 = 0, les deux
p
solutions sont ± a, elles sont réelles.
p
– Si a est un réel strictement négatif, alors v = 0 et u < 0 d’où |a| = −u et donc x 0 = 0 et y 0 = −a, les
p
deux solutions sont ±i −a, ce sont des imaginaires purs.

Théorème 2.5
Soient a, b, c ∈ C avec a 6= 0, l’équation az 2 + bz + c = 0 admet deux solutions complexes qui sont
z 1 = −b+δ −b−δ 2 2
2a et z 2 = 2a avec δ ∈ C tel que δ = ∆ = b − 4ac (discriminant). De plus, lorsque les

AIG
coefficients a, b, c sont réels et que le discriminant b 2 −4ac est strictement négatif, ces deux solutions
sont complexes non réelles et conjuguées.

b 2 b −4ac 2 b
Preuve : L’équation est équivalente à : (z + 2a ) − 4a 2 = 0. Posons Z = z + 2a et ∆ = b 2 −4ac, on sait que ∆ admet deux
δ2 δ
racines carrées dans C, soit δ l’une d’elles (δ2 = ∆), l’équation est équivalente à : Z2 = 4a 2
, on en déduit que Z = ± 2a et
−b±δ
donc z = 2a . Lorsque les trois coefficients sont réels, le discriminant ∆ estplui aussi un réel, s’il est strictement négatif,
p
alors on peut prendre δ = i −∆ et les solutions sont dans ce cas z = −b±i2a −∆ , on voit que celles - ci sont complexes
non réelles et conjuguées. 

À retenir
La somme et le produit des deux solutions z 1 et z 2 de l’équation az 2 + bz + c = 0, sont donnés par les
relations : z 1 + z 2 = S = − ba et z 1 z 2 = P = ac . De plus on a la factorisation :
NT
∀z ∈ C, az 2 + bz + c = a(z − z 1 )(z − z 2 ).

III FORME TRIGONOMÉTRIQUE

1) Le groupe unité

Définition 2.4
On note U l’ensemble des complexes de module 1 : U = {z ∈ C / |z| = 1}, c’est une partie de C∗ .

Il est facile de vérifier que l’ensemble U :


MO

– est stable pour la multiplication : ∀z, z 0 ∈ U, zz 0 ∈ U.


– est stable pour le passage à l’inverse : ∀z ∈ U, z 6= 0 et z −1 ∈ U.
– contient 1.
De plus, la multiplication dans U est associative (car elle l’est dans C), on dit alors que (U, ×) est un
groupe multiplicatif. Comme la multiplication est en plus commutative, on dit que (U, ×) est un groupe
abélien (ou commutatif), ce groupe est parfois appelé groupe unité de C.

Théorème 2.6
Tout complexe de module 1 peut se mettre sous la forme cos(θ) + i sin(θ) avec θ un réel, plus précisé-
ment :
U = {cos(θ) + i sin(θ) / θ ∈ R}.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 14 ©Fradin Patrick – http://mpsi.tuxfamily.org


Forme trigonométrique Chapitre 2 : Nombres complexes

Preuve : Soit z = x + i y un complexe de module 1, on a x 2 + y 2 = 1, donc il existe un réel θ (unique à 2π près) tel que
x = cos(θ) et y = sin(θ), c’est à dire z = cos(θ) + i sin(θ). La réciproque est immédiate. 

NE
2) Exponentielle d’un imaginaire pur
Pour tout réel x, on pose e i x = cos(x) + i sin(x). On a les propriétés suivantes :
– ∀x ∈ R, Re(e i x ) = cos(x) et Im(e i x ) = sin(x).
– ∀x ∈ R, e −i x = cos(−x)
p + i sin(−x) = cos(x) − i sin(x) = e i x .
– ∀x ∈ R, |e i x | = cos(x)2 + sin(x)2 = 1, donc e i x ∈ U.
– ∀z ∈ U, ∃θ ∈ R, e i θ = z.
1


v
M(x + i y = e i θ )
y = sin(θ)

AIG
θ
0
0 →

u x = cos(θ) 1

−−→
θ = (→

u , OM) (mod 2π)
á

(
ix iy cos(x) = cos(y)
– Soit x, y ∈ R, e =e ⇐⇒ ⇐⇒ x = y (2π).
NT
sin(x) = sin(y)

Théorème 2.7
∀x, y ∈ R, e i x e i y = e i (x+y) .

Preuve : e i x e i y = [cos(x) + i sin(x)][cos(y) + i sin(y)] = [cos(x) cos(y) − sin(x) sin(y)] + i [cos(x) sin(y) + sin(x) cos(y)] =
cos(x + y) + i sin(x + y) = e i (x+y) d’après les formule d’addition du sinus et du cosinus. 
Ce théorème permet de retrouver les formules trigonométriques.

À retenir
– cos(x + y) = Re(e i (x+y) ) = Re(e i x e i y ) = cos(x) cos(y) − sin(x) sin(y).
MO

– sin(x + y) = Im(e i (x+y) ) = Im(e i x e i y ) = cos(x) sin(y) + sin(x) cos(y).

x+y x−y
En posant a = et b = on obtient :
2 2
x+y x−y
– cos(x) + cos(y) = cos(a + b) + cos(a − b) = 2 cos(a) cos(b) = 2 cos( 2 ) cos( 2 ).
x+y x−y
– cos(x) − cos(y) = cos(a + b) − cos(a − b) = −2 sin(a) sin(b) = −2 sin( 2 ) sin( 2 ).
x+y x−y
– sin(x) + sin(y) = sin(a + b) + sin(a − b) = 2 sin(a) cos(b) = 2 sin( 2 ) cos( 2 )...etc

3) Argument d’un nombre complexe


Soit z ∈ U, on sait qu’il existe un réel θ (unique à 2π près) tel que z = e i θ . Si maintenant z est un complexe
non nul quelconque alors |z| z
∈ U et donc il existe un réel θ (unique à 2π près) tel que |z| z
= e i θ , c’est à dire
z = |z|e i θ .

MPSI3 (2015-16) LYCÉE M ONTAIGNE 15 ©Fradin Patrick – http://mpsi.tuxfamily.org


Forme trigonométrique Chapitre 2 : Nombres complexes

Définition 2.5
Soit z un complexe non nul, on appelle argument de z tout réel θ tel que z = |z|e i θ , cette égalité

NE
est appelée forme trigonométrique de z. L’ensemble des arguments de z est noté arg(z), on a donc
arg(z)={θ ∈ R/ z = |z|e i θ }, et si θ0 est un argument de z, alors arg(z)={θ0 + 2kπ/ k ∈ Z }.

A(z)
2

1
z
B( |z| )

θ
0

AIG
−1 0 1 2

−1

Définition 2.6
Soit z ∈ C∗ , z possède un unique argument dans l’intervalle ] − π; π], par définition cet argument est
appelé argument principal de z et noté Arg(z).

ZExemples :
– Arg(i ) = π2 , Arg( ) = 2π
3 .
– si x ∈ R∗+ alors Arg(x) = 0 et si x ∈ R∗− alors Arg(x) = π.
NT
Attention !
Si z = r ei θ avec r et θ réels, alors c’est la forme trigonométrique de z lorsque r > 0. Mais lorsque r < 0, la forme
trigonométrique de z est z = −r e i (θ+π) .

À retenir : (factorisation par l’arc moitié)


x+y x−y x−y x−y i x+y x−y
Si z = e i x + e i y , alors z = e i 2 [e i 2 + e −i 2 ] = 2 cos( 2 )e
2 . D’où |z| = 2| cos( 2 )| et Arg(z) =
x+y
2 (π).
x+y x−y x−y x−y i x+y x−y
De même, si z = e i x − e i y , alors z = e i 2 [e i 2 − e −i 2 ] = 2i sin( 2 )e
2 . D’où |z| = 2| sin( 2 )| et
x+y+π
MO

Arg(z) = 2 (π).

Théorème 2.8 (propriétés)


Soient z, z 0 ∈ C∗ avec θ = Arg(z) et θ0 = Arg(z 0 ) :

|z| = |z 0 |
½
0
– z = z ⇐⇒ .
θ = θ0 (2π)
– z ∈ R∗ ⇐⇒ θ = 0 (π).
– z = |z|e −i θ donc Arg(z) = −θ (2π).
– −z = |z|e i (θ+π) donc Arg(−z) = θ + π (2π).
0
– zz 0 = |zz 0 |e i (θ+θ ) donc Arg(zz 0 ) = θ + θ0 (2π).
z |z| i (θ−θ0 )
– z0 = |z 0 | e donc Arg( zz0 ) = θ − θ0 (2π).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 16 ©Fradin Patrick – http://mpsi.tuxfamily.org


Forme trigonométrique Chapitre 2 : Nombres complexes

– ∀n ∈ Z, z n = |z n |e i nθ donc Arg(z n ) = nθ (2π).

Preuve : Celle-ci est simple et laissée en exercice. 

NE
À retenir
Soient a,b deux réels non tous deux nuls et soit x ∈ R, en posantpz = a + i b = |z|e i θ on obtient :
a cos(x) + b sin(x) = Re(ze i x ) = |z| cos(x − θ) = a 2 + b 2 cos(x − θ).

4) Racines nes d’un nombre complexe

Définition 2.7
Soit a, z deux complexes et n ∈ N, z est une racine ne de a lorsque z n = a.

AIG
Résolution de l’équation z n = a

Théorème 2.9
Soit n un entier supérieur ou égal à 2, et a un complexe non nul. L’ensemble des racines nes de a (que
l’on note Rn (a)) est un ensemble fini de cardinal n, et pour tout argument θ de a on a :

Rn (a) =
np

p
n θ+2kπ

θ+2kπ
o
|a|e i n / 0 6 k 6 n − 1 .

Preuve : Posons pour k ∈ J0; n − 1K , z k = n |a|e i n , il est clair que z k est une racine ne de a. Si z k = z k 0 alors θ + 2kπ =
θ + 2k 0 π (2nπ), d’où k − k 0 ∈ nZ, or k et k 0 sont dans l’intervalle J0; n − 1K ce qui entraîne k = k 0 , ceci prouve que a
possède au moins n racines nes : z 0 , · · · , z n−1 .
p
Soit z une racine ne de a, l’égalité z n = a entraîne que |z|n = |a| et nArg(z) = θ (2π), d’où |z| = n |a| et Arg(z) =
NT
θ+2kπ
n , k ∈ Z. Effectuons la division euclidienne de k par n, il existe deux entiers q et r tels que k = nq + r avec
0 6 r 6 n − 1, on a donc Arg(z) = θ+2r n
π
(2π) et par conséquent z = z r , ceci prouve que les seules racines nes de a sont
z 0 , · · · , z n−1 . 
Cas particuliers des racines nes de l’unité :

Définition 2.8
Soit n un entier supérieur ou égal à deux, on note Un l’ensemble des racines nes de l’unité, on a donc :
ª n o
Un = z ∈ U / z n = 1 = e 2i kπ/n / 0 6 k 6 n − 1
©

FExercice 2.4 Montrer que (Un , ×) est un groupe.


MO

M2 1
M1

M3

M0
Mk est le point d’affixe e 2i kπ/n (n = 7).
−1 1

M4

M6
M5 −1

MPSI3 (2015-16) LYCÉE M ONTAIGNE 17 ©Fradin Patrick – http://mpsi.tuxfamily.org


Exponentielle complexe Chapitre 2 : Nombres complexes

À retenir
Soit a un complexe non nul et soit z 0 une racine ne de a. L’équation z n = a équivaut à z n = z 0n , ou

NE
³ ´n
encore zz0 = 1. On est ainsi ramené aux racines nes de l’unité, on en déduit que z = z 0 e i 2kπ/n avec
0 6 k 6 n − 1.

IV EXPONENTIELLE COMPLEXE

1) Définition

Définition 2.9
Soit z = x + i y un nombre complexe, on appelle exponentielle de z le complexe noté exp(z) et défini
par : exp(z) = e x [cos(y) + i sin(y)], c’est à dire exp(z) = e x e i y .

AIG
Remarque 2.2 :
– Si z est réel (ie y = 0), alors l’exponentielle de z correspond à l’exponentielle réelle de z. De même, si z est
imaginaire pur (x = 0), alors exp(z) = exp(i y) = cos(y) + i sin(y).
– exp(0) = 1.
– Re(exp(z)) = e Re(z) cos(Im(z)) et Im(exp(z)) = e Re(z) sin(Im(z)).
– | exp(z)| = e Re(z) et Arg(exp(z)) = Im(z) (2π).
– exp(z) = exp(z).

Théorème 2.10 (propriété fondamentale)


La fonction exp : C → C∗ est 2i π-périodique, vérifie :
∀z, z 0 ∈ C, exp(z + z 0 ) = exp(z) × exp(z 0 ).
NT
Et tout complexe non nul a peut se mettre sous la forme a = exp(z).

Preuve : Il est clair d’après la définition que exp(z) ne peut pas être nul, donc exp(z) ∈ C∗ . Posons z = x + i y, exp(z +
2i π) = e x [cos(y + 2π) + i sin(y + 2π)] = exp(z). Soit a un complexe non nul, l’équation exp(z) = a équivaut à |a| = e x et
Arg(a) = y (mod 2π) (résolution trigonométrique), donc les complexes z = ln(|a|)+i (y +2kπ) (où k parcourt Z) sont les
antécédents de a, en particulier les solutions de l’équation exp(z) = 1 sont les complexes z = 2i kπ, k ∈ Z. Soit z 0 = x 0 +i y 0
0 0
un autre complexe, exp(z +z 0 ) = e x+x [cos(y + y 0 )+i sin(y + y 0 )], et exp(z) exp(z 0 ) = e x+x [cos(y) cos(y 0 )−sin(y) sin(y 0 )] =
x+x 0 0 0
e [cos(y + y ) + i sin(y + y )]. On peut déduire de cette propriété le calcul suivant :

exp(z)
exp(z) = exp(z 0 ) ⇐⇒ =1
exp(z 0 )
⇐⇒ exp(z) exp(−z 0 ) = 1
MO

⇐⇒ exp(z − z 0 ) = 1
⇐⇒ ∃k ∈ Z, z = z 0 + 2i kπ.


Remarque 2.3 – La propriété fondamentale de l’exponentielle complexe : exp(z + z 0 ) = exp(z) exp(z 0 ), est la
même que celle de l’exponentielle réelle. On convient alors de noter exp(z) = e z . La propriété fondamentale
devient :
0 0
e z+z = e z × e z

1
Il découle également de cette relation que : e −z = .
ez
FExercice 2.5 Résoudre e z = 1 + i .
p
Solution 2.5 On écrit z = x + i y avec x, y réels, et 1 + i = 2e i π/4 . Résolution trigonométrique : l’équation équivaut
p
alors à e x = 2 et y = π4 + 2kπ avec k ∈ Z, l’ensemble des solutions est donc 21 ln(2) + i ( π4 + 2kπ) / k ∈ Z .
© ª

MPSI3 (2015-16) LYCÉE M ONTAIGNE 18 ©Fradin Patrick – http://mpsi.tuxfamily.org


Représentation géométrique des complexes, applications Chapitre 2 : Nombres complexes

2) Formules d’Euler et de Moivre


Formule de Moivre 1 : ∀n ∈ Z, ∀z ∈ C, e nz = [e z ]n . En particulier pour z = i x avec x réel, on a e i nx =

NE
[cos(x) + i sin(x)]n . On en déduit que :

cos(nx) = Re([cos(x) + i sin(x)]n ) et sin(nx) = Im([cos(x) + i sin(x)]n ).


À l’aide du binôme de Newton ces formules permettent d’exprimer cos(nx) et sin(nx) sous forme d’un
polynôme en cos(x) et sin(x).
ZExemples :
– cos(4x) = Re([cos(x) + i sin(x)]4 ) = cos(x)4 − 6 cos(x)2 sin(x)2 + sin(x)4 . En remplaçant sin(x)2 par 1 −
cos(x)2 , on pourrait obtenir cos(4x) en fonction de cos(x) uniquement.
– sin(4x) = Im([cos(x) + i sin(x)]4 ) = 4 cos(x)3 sin(x) − 4 cos(x) sin(x)3 .
ix −i x ix −i x
Formules d’Euler 2 : ∀x ∈ R : cos(x) = e +e
2 et sin(x) = e −e
2i .
Ces formules permettent la linéarisation de cos(x)p sin(x)q .

AIG
ZExemples :
(e i x +e −i x )3 i 3x i 2x −i x i x −i 2x
+e −i 3x cos(3x)+3 cos(x)
– cos(x)3 = 8 = e +3e e +3e 8
e
= 4 .
(e i x −e −i x )3 i 3x i 2x −i x
+3e i x e −i 2x −e −i 3x 3 sin(x)−sin(3x)
– sin(x)3 = −8i = e −3e e −8i = 4 .

V REPRÉSENTATION GÉOMÉTRIQUE DES COMPLEXES, APPLICATIONS

Le plan complexe est un plan P muni d’un repère orthonormé direct R = (O, →

u ,→

v ).

1) Affixe
Chaque point M du plan complexe est repéré par ses coordonnées : une abscisse x et une ordonnée y,
c’est à dire par le couple de réels (x, y). Autant dire que M est repéré par le complexe z = x +i y. Par définition,
ce complexe est l’affixe du point M.
NT
M(x, y)
y



v

O →

u x

Réciproquement, tout complexe z est l’affixe d’un point M du plan que l’on appelle image de z. Les axes
(O, →

u ) et (O, →

v ) sont appelés respectivement axes des réels et axe des imaginaires.
Par exemple, l’image de z est le symétrique de l’image de z par la réflexion d’axe (O, → −
u ).
MO

De la même façon, chaque vecteur du plan a des coordonnées dans la base (→ −


u ,→

v ). Si −
→ a pour coordon-
w

→ →
− →
− −→
nées (x, y), cela signifie que w = x u + y v , là encore le vecteur w peut être représenté par le complexe x +i y,
ce complexe est appelé affixe du vecteur − →. Réciproquement, tout complexe z est l’affixe d’un vecteur du
w
−−→
plan. On remarquera que l’affixe d’un point M n’est autre que l’affixe du vecteur OM .
∗) L’affixe de la somme de deux vecteurs est la somme des affixes. Si α ∈ R et si − → est le vecteur d’affixe z,
w
alors l’affixe du vecteur α− → est αz.
w
−−−→
∗) Soit M d’affixe z et M0 d’affixe z 0 , l’affixe du vecteur MM0 est z 0 − z.
1. MOIVRE Abraham DE (1667 – 1754) : mathématicien français, il s’expatria à Londres à l’age de dix-huit ans.
2. EULER Léonhard (1707 – 1783) : grand mathématicien suisse.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 19 ©Fradin Patrick – http://mpsi.tuxfamily.org


Représentation géométrique des complexes, applications Chapitre 2 : Nombres complexes

2) Distances
Le module d’un complexe z représente dans le plan complexe la distance de l’origine O au point M

NE
−−→
d’affixe z, c’est à dire |z| = OM = kOM k.
Si −
→ est un vecteur d’affixe z, alors la norme de −
w w→ est k−
→k = |z|.
w
−−−→
Soit M d’affixe z et M0 d’affixe z 0 , la distance de M à M0 est MM0 = kMM0 k = |z 0 − z|.

Définition 2.10
Soit a ∈ C et R > 0, on définit dans le plan complexe :
– le disque fermé de centre a et de rayon R : {M ∈ P / |z − a| 6 R}.
– le disque ouvert de centre a et de rayon R : {M ∈ P / |z − a| < R}.
– le cercle de centre a et de rayon R : {M ∈ P / |z − a| = R}.

ZExemples :

AIG
– La représentation géométrique du groupe unité U = {z ∈ C / |z| = 1} est le cercle de centre O et de rayon
1 : le cercle trigonométrique.
– Les points d’affixe les racines nes de l’unité (n > 2) sont les sommets d’un polygone régulier inscrit
dans le cercle unité. La longueur du coté est 2 sin( nπ ), et la longueur du centre au milieu d’un coté
(l’apothème) est cos( nπ ).

3) Angles orientés
Soit z un complexe non nul et M le point du plan d’affixe z, l’argument principal de z est une mesure de
−−→ −−→
l’angle orienté (→

u , OM ), ce que l’on écrit (→

u , OM ) = Arg(z) (2π).

x + i y = r e i θ avec
p
r = x 2 + y 2 = OM
NT
M(x, y)
y
M

− r=O
v θ

O →

u x

Soient −→ et −
w

w 0 deux vecteurs non nuls d’affixes respectifs z et z 0 . Désignons par M et M0 les points
→ et −
d’affixes respectifs z et z 0 , l’angle orienté entre les deux vecteurs −
w

w 0 est :
MO

→, −
(−
w
→ −−→ −−−→
w 0 ) = (OM , OM0 )
−−→ − −−−→
= (OM , → u ) + (→

u , OM0 )
−−→ −−−→
= −(→−
u , OM ) + (→−u , OM0 )
= −Arg(z) + Arg(z 0 ) (2π)
z0
= Arg( ) (2π)
z
−−→
Conséquence : Soient A, B et C trois points distincts d’affixes respectifs a, b et c. L’affixe du vecteur AB est
−−→ −−→ −−→
b − a et celui du vecteur AC est c − a, par conséquent l’angle (AB , AC ) est donné par :

−−→ −−→ c −a
(AB , AC ) = Arg( ) (2π).
b−a

AC
¯ c−a ¯
Et on a le rapport des distances AB = ¯ b−a ¯.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 20 ©Fradin Patrick – http://mpsi.tuxfamily.org


Représentation géométrique des complexes, applications Chapitre 2 : Nombres complexes

−−→ −−→
Les trois points A, B et C sont alignés si et seulement si (AB , AC ) = 0 (mod π) ce qui équivaut donc à
c−a
b−a ∈ R.
−−→ −−→ −−→ −−→
Les vecteurs AB et AC sont orthogonaux si et seulement si (AB , AC ) = π2 (mod π) ce qui équivaut donc

NE
c−a
à b−a ∈ i R.

4) Similitudes directes
Soient a, b ∈ C avec a 6= 0, on note S a,b : P → P l’application qui au point d’affixe z faire correspondre le
point d’affixe z 0 = az +b, c’est la similitude directe de paramètres a et b. On vérifie en appliquant la définition,
les propriétés suivantes :
– S a,b est une bijection et sa réciproque est aussi une similitude directe, plus précisément S −1 a,b
= S 1 , −b .
a a
– La composée de deux similitudes directes est une similitude directe, plus précisément, S c,d ◦ S a,b =
S ac,cb+d avec c 6= 0.
– Soient A(z A ), B(z B ), C(z C ) et D(z D ) quatre points avec A 6= B et C 6= D, alors il existe une unique

AIG
similitude
( directe S a,b qui transforme A en C et B en D, celle-ci se détermine en résolvant le système
az A + b = z C
pour déterminer a et b.
az B + b = z D
– Lorsque a = 1, la similitude S 1,b est la translation de vecteur → −
u d’affixe b.

Étude lorsque a 6= 1
b
– Il existe un unique point fixe Ω(z 0 ) avec z 0 = 1−a , on a alors pour tout z : az + b = a(z − z0) + z 0 . Ce
point est appelé centre de la similitude.
0
– Soit M(z) un point différent du centre Ω, et soit M0 (z 0 ) son image par S a,b , alors : zz−z−z 0
0
= a, on en
¯ 0 ¯ −−→ −−−→
déduit que : ¯ zz−z
¯ −z0 ¯
¯ = |a|, c’est à dire ΩM0 = |a|ΩM, et (ΩM , ΩM0 ) = Arg(a) (mod 2π), ce qui permet
0
une construction géométrique de M0 partant de M :

M0
NT
ΩM0 = |a|ΩM

θ = Arg(a)

−−−→ −−→
– Cas particulier où Arg(a) = 0 : on a alors z 0 = |a|(z − z 0 ) + z 0 d’où ΩM0 = |a|ΩM , on dit que la simili-
tude est l’homothétie de centre Ω et de rapport |a|, on la note h (Ω,|a|) .
MO

−−−→ −−→
– Cas particulier où |a| = 1 : on a alors z 0 = e i θ (z − z 0 ) + z 0 d’où ΩM0 = ΩM et ΩM0 , ΩM = Arg(a), on dit
que la similitude est la rotation de centre Ω et d’angle Arg(a), on la note r (Ω,Arg(a)) .
– Dans le cas général, on vérifie par le calcul que S a,b et la composée commutative :

S a,b = h (Ω,|a|) ◦ r (Ω,Arg(a)) = r (Ω,Arg(a)) ◦ h (Ω,|a|)

On dit que S a,b est la similitude de centre Ω, de rapport |a| et d’angle Arg(a) . On remarquera que la
1
bijection réciproque est la similitude de centre Ω, de rapport |a| et d’angle −Arg(a).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 21 ©Fradin Patrick – http://mpsi.tuxfamily.org


NE
Chapitre 3

Calculs algébriques

AIG
Sommaire
I Sommes et produits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2) Changement d’indice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4) Sommes doubles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
II Binôme de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1) Factorielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2) Coefficients binomiaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3) Formule du binôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
III Systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2) Interprétation géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3) Méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
NT
I SOMMES ET PRODUITS

On se place dans C. Les sommes et les produits dont on va parler ne contiennent qu’un nombre fini de
termes.

1) Définition

Définition 3.1 (somme et produit sur une partie finie)


Soit A une partie finie de C, la somme des éléments de A est notée
P
a et le produit des éléments de
a∈A
MO

Q
A est noté a. Par convention, lorsque A est vide, la somme est nulle et le produit vaut 1.
a∈A

Remarque 3.1 – Ces opérations étant commutatives dans C, l’ordre n’a pas d’importance. Comme elles sont
également associatives, il est inutile de préciser un parenthèsage pour la somme ou le produit.
ZExemple : La somme et le produit des racines n es de l’unité se notent ω et ω.
P Q
ω∈Un ω∈Un

Définition 3.2 (somme et produit d’une famille finie)


Soit (a k )k∈I une famille de complexes indexée par un ensemble fini I. La somme des éléments de la
P Q
famille est notée a k et le produit des éléments de la famille est noté a k . Par convention, lorsque
k∈I k∈I
I est vide, la somme est nulle et le produit vaut 1.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 22 ©Fradin Patrick – http://mpsi.tuxfamily.org


Sommes et produits Chapitre 3 : Calculs algébriques

ZExemple : La famille des racines n es de l’unité est (e 2i kπ/n )k∈J0;n−1K , on peut donc écrire la somme et le
e 2i kπ/n et e 2i kπ/n .
P Q
produit ainsi :
k∈J0;n−1K k∈J0;n−1K

NE
Définition 3.3 (lorsque I est un intervalle d’entiers)
Soit (a k )k∈I une famille de complexes indexée par un intervalle d’entiers Jn 0 ; n 1 K. La somme des
n
P1 Qn1
éléments de la famille est notée a k et le produit des éléments de la famille est noté a k . Par
k=n 0 k=n 0
convention, lorsque n 0 > n 1 , la somme est nulle et le produit vaut 1 (car dans ce cas l’intervalle
Jn 0 ; n 1 K est vide).

ZExemple : La famille des racines n es de l’unité est (e 2i kπ/n )k∈J0;n−1K , on peut donc écrire la somme et le
n−1 n−1
e 2i kπ/n et e 2i kπ/n .
P Q
produit ainsi :

AIG
k=0 k=0

Attention !
n
P1
Dans la notation a k , il est implicite que l’indice k augmente de 1 lorsqu’on passe d’un terme au suivant
k=n 0
15
P
(idem pour le produit). Par exemple, la somme des entiers impairs de 1 à 15 ne s’écrit pas k (qui correspond à la
k=1
7
P
somme de tous les entiers de 1 à 15), mais 2k + 1.
k=0

Remarque 3.2 :
– Le terme a k est appelé terme général de la somme (ou produit), la valeur n 0 est appelée valeur initiale de
l’indice et n 1 la valeur finale.
– Dans les formules donnant la somme ou le produit, l’indice est une variable dite muette, on peut lui
NT
donner le nom que l’on veut, le résultat ne dépend pas de l’indice.

Cas particuliers
n
P1 n1
– Lorsque le terme général est une constante α, alors a k = αn1 −n0 +1 si
Q
a k = (n 1 − n 0 + 1)α et
k=n 0 k=n 0
n0 6 n1 .
– Sommes et produits télescopiques, soit (a k )k∈Jp;q+1K une famille de complexes, alors :
q q
P Q a k+1 a q+1
(a k+1 − a k ) = a q+1 − a p et si aucun terme ne s’annule, alors ak = a p .
k=p k=p
– Somme de termes consécutifs d’une suite u géométrique de raison q ∈ C :
( u p −q×un
n si q 6= 1
MO

1−q
X
uk =
k=p n −p +1 sinon

p−q×d
On retiendra la formule S = 1−q où p désigne le premier terme de la somme et d le dernier.
– Somme de termes consécutifs d’une suite u arithmétique de raison r ∈ C :
n
X (n − p + 1)(u p + u n )
uk =
k=p 2

n(p+d )
On retiendra la formule S = 2 où p désigne le premier terme de la somme, d le dernier et n le
nombre de termes.
FExercice 3.1 Démontrer les deux formules ci-dessus.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 23 ©Fradin Patrick – http://mpsi.tuxfamily.org


Sommes et produits Chapitre 3 : Calculs algébriques

2) Changement d’indice
Formulation générale

NE
Soit (a k )k∈I une famille finie de complexes indexée par I non vide, supposons qu’il existe une bijection
f : J → I (où J désigne un autre ensemble), par composition on a ainsi une autre famille, indexée par J, et qui
est (a f (k 0 ) )k 0 ∈J . La fonction f étant bijective les deux familles comportent exactement les mêmes termes à
l’ordre près, par conséquent la somme des termes des deux familles est la même, et le produit aussi :
X X Y Y
ak = a f (k 0 ) et ak = a f (k 0 )
k∈I k 0 ∈J k∈I k 0 ∈J

On dit qu’on a fait le changement d’indice k = f (k 0 ) avec k 0 ∈ J.

Attention !
Si f n’est pas bijective, il n’y a aucune raison que les deux familles aient la même somme et le même produit.

AIG
Cas particuliers
Lorsque l’ensemble des indices est un intervalle d’entiers, les changements qui reviennent le plus souvent
n
P1
dans les sommes a k (ou produits) sont (avec n 0 6 n 1 ) :
k=n 0
– des translations de l’indice : k = k 0 + p (ou k 0 = k − p), ce qui donne :
n1
X nX
1 −p
ak = a k 0 +p
k=n 0 k 0 =n 0 −p

car f : Jn 0 − p; n 1 − p K → Jn 0 ; n 1 K définie par f (k 0 ) = k 0 + p est bien une bijection.


– des symétries : k = p − k 0 (ou k 0 = p − k) , ce qui donne :
n1
X p−n
X0
NT
ak = a p−k 0
k=n 0 k 0 =p−n 1

car f : Jp − n 1 ; p − n 0 K → Jn 0 ; n 1 K définie par f (k 0 ) = p − k 0 est bien une bijection.


FExercice 3.2 Résoudre dans C l’équation (1 − z)2n = (1 + z)2n et calculer le produit des solutions non nulles.


ei
¡ 1+z ¢2n 1+z
= ei
n −1
Solution 3.2 L’équation équivaut à = 1, ou encore n avec k ∈ J0; 2n − 1K, ce qui donne z = ou
1−z 1−z i kπ
e n +1
encore z = i tan( kπ
2n ) avec k
∈ J0; n − 1K ∪ Jn + 1; 2n − 1K.
n−1 2n−1
i tan( kπ i tan( kπ
Q Q
Le produit des solutions non nulles est P = 2n ) × 2n ), en posant q = k − n dans le deuxième
k=1 k=n+1
n−1 n−1
i tan( kπ − i qπ , d’où P = i n−1 × (−1)n−1 × i n−1
Q Q
produit, on obtient P = 2n ) × = 1.
k=1 q=1 tan( 2n )
MO

3) Propriétés

Théorème 3.1
Soient α, a 1 , a 2 , . . . , a n , b 1 , . . . , b n , c 1 , . . . , c m des nombres complexes, p 6 q 6 n des entiers, on a :
- pour la somme :
q n n n n n n n
α × ak = α ×
P P P P P P P P
ak + ak = ak ; ak ; (a k + b k ) = ak + bk
k=p k=q+1 k=p k=p k=p k=p k=p k=p
- pour
à le produit
! Ã : ! Ã ! Ã !
q n n n n n n n
n−p+1
α × ak = α
Q Q Q Q Q Q Q Q
ak × ak = ak ; × ak ; (a k × b k ) = ak × bk
k=p k=q+1 k=p k=p k=p k=p k=p k=p

MPSI3 (2015-16) LYCÉE M ONTAIGNE 24 ©Fradin Patrick – http://mpsi.tuxfamily.org


Sommes et produits Chapitre 3 : Calculs algébriques

Preuve : Celle-ci est simple et laissée en exercice. 

NE
4) Sommes doubles
Sur un rectangle
Soit (a k,l )(k,l )∈Jp;q K×Jn;m K une famille indexée par Jp; q K × Jn; m K où p 6 q et n 6 m sont des entiers. La
P P
somme de la famille est appelée somme double et notée a k,l = a k,l .
(k,l )∈Jp;q K×Jn;m K p 6k 6q
n 6l 6m
Disposons ces nombres dans un tableau en indexant les lignes de p et q, et les colonnes de n à m :

a p,n a p,n+1 ··· a p,m


a p+1,n a p+1,n+1 ··· a p+1,m
.. .. .. ..
. . . .
a q,n a q,n+1 ··· a q,m

AIG
m
P
La somme des nombres figurant sur la ligne k est S k = a k,n + a k,n+1 + · · · + a k,m =
a k,l . Si maintenant
l =n
q q m
µ ¶
P P P
nous faisons le total des sommes sur chaque ligne, nous obtenons S p + · · · + S q = Sk = a k,l , or ce
k=p k=p l =n
total représente la somme des nombres de la famille (car l’addition est commutative et associative), d’où :
à !
X q
X m
X
a k,l = a k,l
p 6k 6q k=p l =n
n 6l 6m

q
P
De même, la somme des nombres figurant sur la colonne l est Cl = a p,l + a p+1,l + · · · + a q,l = a k,l . Si
k=p
Pm
maintenant nous faisons le total des sommes sur chaque colonne, nous obtenons Cn + · · · + Cm = Cl =
NT
à ! l =n
m
P q
P
a k,l , or ce total représente la somme des nombres de la famille (car l’addition est commutative et
l =n k=p
associative), d’où finalement :
à ! à !
X q
X m
X m
X q
X
a k,l = a k,l = a k,l
p 6k 6q k=p l =n l =n k=p
n 6l 6m

À retenir : produit de deux sommes simples


Soit (a k )k∈Jp;q K et (b l )l ∈Jn;m K deux familles alors :
MO

q q
¶ Ã q !µ
m m m
µ ¶ µ ¶
P P P P P P P
ak bl = ak bl = ak bl = ak bl
p 6k 6 q k=p l =n k=p l =n k=p l =n
n 6l 6m

Sur un triangle
Soit (a k,l )(k,l )∈A une famille indexée par A = {(k, l ) | 1 6 k 6 l 6 n} où n est un entier. La somme de la
P P
famille est notée a k,l = a k,l .
(k,l )∈A 1 6k 6l 6n
Disposons ces nombres dans un tableau en indexant les lignes de 1 à n :

a 1,1 a 1,2 ··· a 1,n


a 2,2 ··· a 2,2
.. ..
. .
a n,n

MPSI3 (2015-16) LYCÉE M ONTAIGNE 25 ©Fradin Patrick – http://mpsi.tuxfamily.org


Binôme de Newton Chapitre 3 : Calculs algébriques

n
P
La somme des nombres figurant sur la ligne k est S k = a k,k + a k,k+1 + · · · + a k,n =
a k,l . Si maintenant
l =k
n n n
µ ¶

NE
P P P
nous faisons le total des sommes sur chaque ligne, nous obtenons S 1 + · · · + S n = Sk = a k,l , or ce
k=1 k=1 l =k
total représente la somme des nombres de la famille (car l’addition est commutative et associative), d’où :
à !
X n
X n
X
a k,l = a k,l
16k 6l 6n k=1 l =k

l
P
De même, la somme des nombres figurant sur la colonne l est Cl = a 1,l + a 2,l + · · · + a l ,l = a k,l . Si
k=1
Pn
maintenant nous faisons le total des sommes sur chaque colonne, nous obtenons C1 + · · · + Cn = Cl =
l =1
n l
µ ¶
P P
a k,l , or ce total représente la somme des nombres de la famille (car l’addition est commutative et
l =1 k=1

AIG
associative), d’où finalement :
à ! à !
X n
X n
X n
X l
X
a k,l = a k,l = a k,l
16k 6l 6n k=1 l =k l =1 k=1

II BINÔME DE NEWTON

1) Factorielle

Définition 3.4
n
Soit n ∈ N∗ , on pose n! =
Q
k = 1 × 2 × · · · × n. Par convention, on pose 0! = 1.
k=1
NT
ZExemple : 1! = 1, 2! = 2, 3! = 6, 4! = 24, ...

À retenir
∀n ∈ N, (n + 1)! = (n + 1) × n!

n
FExercice 3.3 Montrer que ∀ n ∈ N∗ , (n + 1)! = 1 +
P
k(k!).
k=1

2) Coefficients binomiaux
MO

Définition 3.5
¡n ¢ n!
Soient n, p deux entiers positifs tels que p 6 n, on pose p = p!(n−p)! (lire p parmi n).

¡n ¢ ¡n ¢ ¡n ¢ n(n−1)
ZExemple : 0 = 1; 1 =n; 2 = 2 .
En simplifiant dans la formule n! avec (n − p)!, il reste :

À retenir : formule pour le calcul pratique


¡n ¢ n(n−1)···(n−p+1)
Si 1 6 p 6 n alors p = p! .

¡x ¢ x(x−1)···(x−p+1)
Cette formule pratique permet d’étendre la définition à tout réel x (et p ∈ N) en posant : p = p!
¡x ¢
et 0 = 1.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 26 ©Fradin Patrick – http://mpsi.tuxfamily.org


Binôme de Newton Chapitre 3 : Calculs algébriques

Attention !
La fonction factorielle telle que nous l’avons définie, ne s’applique qu’à des entiers positifs.

NE
Théorème 3.2 (propriétés)
Soient 0 6 p 6 n :
n
¡ ¢ ¡ n ¢
- p = n−p (symétrie).
- n+1
¡ ¢ n+1 ¡n ¢
= .
¡np+1 ¢ p¡n+1¢
¢ ¡ np+1
- p + p+1 = p+1 (relation de Pascal).

Preuve :¡La
¢ première formule découle directement
¡n+1¢ de la définition.
n+1 n n+1 n! (n+1)!
p+1 p = p+1 (n−p)!p! = (n+1−(p+1))!(p+1)! = p+1 .
¡n ¢ ¡ n ¢ n!(p+1)+n!(n−p)
n! n! (n+1)!
= n+1
¡ ¢
p + p+1 = (n−p)!p! + (n−p−1)!(p+1)! = (n−p)(p+1)! = (n−p)!(p+1)! p+1 . 

AIG
Triangle de Pascal
La relation de Pascal permet de calculer les coefficients binomiaux de proche en proche dans un tableau :

n\p 0 1 2 3 4 5 6 7 8
0 1
1 1 1
2 1 2 1
3 1 3 3 1
4 1 4 6+ 4 1
=
5 1 5 10 10 5 1
6 1 6 15 20 15 6 1
7 1 7 21 35 35 21 7 1
8 1 8 28 56 70 56 28 8 1
NT
3) Formule du binôme

Théorème 3.3
n ¡ ¢ n ¡ ¢
n n
Soient a, b ∈ C et n ∈ N, alors : (a + b)n = a k b n−k = a n−k b k .
P P
k k
k=0 k=0

Preuve : Par récurrence sur n : au rang 0 la formule donne 1 ce qui correspond bien à (a + b)0 . Si la formule est
démontrée au rang n, alors :

(a + b)n+1 = (a + b)(a + b)n = a(a + b)n + b(a + b)n


à ! à !
n n n n
k+1 n−k
a k b n+1−k
X X
= a b +
MO

k=0 k k=0 k
à ! à !
n+1 n n n
p n+1−p
a k b n+1−k (changement d’indice p = k + 1 dans la première somme)
X X
= a b +
p=1 p − 1 k=0 k
à ! à !
n+1 n n n
k n+1−k
a k b n+1−k
X X
= a b +
k=1 k − 1 k=0 k
"Ã ! Ã !#
n n n
n+1 n+1
a k b n+1−k (on regroupe les sommes sur J1; n K)
X
=a +b + +
k=1 k −1 k
à !
n n +1
n+1 n+1
a k b n+1−k (relation de Pascal)
X
=a +b +
k=1 k
à !
n+1
X n + 1 k n+1−k
= a b (formule au rang n + 1)
k=0 k

La formule est donc établie pour tout n ∈ N. 

MPSI3 (2015-16) LYCÉE M ONTAIGNE 27 ©Fradin Patrick – http://mpsi.tuxfamily.org


Systèmes linéaires Chapitre 3 : Calculs algébriques

NE
ZExemples :
n ¡ ¢
n
= (1 + 1)n = 2n .
P
– k
k=0
n ¡n ¢ n ¡n−1¢
= n2n−1 .
P P
– Si n > 1, k k = n k−1
k=1 k=1
n ¡ ¢ p
n
cos(k π3 ) = Re([1 + e i π/3 ]n ) = 3n cos(n π6 ).
P
– k
k=0

III SYSTÈMES LINÉAIRES

1) Définition

AIG
Définition 3.6
Un système (S) linéaire à n équations et p inconnues est un système d’équations de la forme :

 a 1,1 x 1 + a 1,2 x 2 + · · · + a 1,p x p
 = b1
.. ..
(S) . .


a n,1 x 1 + a n,2 x 2 + · · · + a n,p x p = bn

où x 1 , . . . , x p sont des nombres inconnus, b 1 , . . . , b n sont des nombres donnés (appelés seconds
membres) et la famille de nombres (a i , j )(i , j )∈J1;n K×J1;p K est donnée (ce sont les coefficients, on dit
qu’ils forment la matrice du système).
Résoudre (S) c’est trouver tous les p-uplets de nombres (x 1 , . . . , x p ) vérifiant (S). Deux systèmes sont
dits équivalents si et seulement si ils ont les mêmes solutions.

Codage
Les différentes équations d’un système linéaire sont notées du haut vers le bas L1 , L2 , . . . , Ln :
NT

 a 1,1 x 1 + a 1,2 x 2 + · · · + a 1,p x p = b 1 (L1 )

.. ..
(S) . .


a n,1 x 1 + a n,2 x 2 + · · · + a n,p x p = b n (Ln )
Les différentes colonnes du système sont notées de gauche à droite C1 , C2 , . . . , Cp .

2) Interprétation géométrique
Lorsque p = 2 : si les coefficients a i ,1 et a 1,2 ne sont pas nuls simultanément, alors l’équation a i ,1 x 1 +
a i ,2 x 2 = b i peut être interprétée comme l’équation d’une droite Di dans un plan muni d’un repère (O, → −
ı ,→− ),
les solutions étant les coordonnées des points M(x 1 , x 2 ) de la droite Di . Résoudre (S) revient alors à chercher
un point commun à plusieurs droites, c’est à dire D1 ∩ · · · ∩ Dn . Dans le cas où n = 2, il y a trois cas possibles :
– Soit D1 et D2 sont sécantes et alors le système a une unique solution.
– Soit D1 et D2 sont confondus et alors les solutions du système sont les coordonnées des points de D1 .
MO

– Soit D1 et D2 sont strictement parallèles et alors il n’y a pas de solutions au système.


Lorsque p = 3 : si les coefficients a i ,1 , a 1,2 et a i ,3 ne sont pas nuls simultanément, alors l’équation
a i ,1 x 1 + a i ,2 x 2 + a i ,3 x 3 = b i peut être interprétée comme l’équation d’un plan P i dans un plan muni d’un
repère (O, → −
ı ,→ − , →

k ), les solutions étant les coordonnées des points M(x , x , x ) du plan P . Résoudre (S)
1 2 3 i
revient alors à chercher un point commun à plusieurs plan c’est à dire P 1 ∩ · · · ∩ P n . Dans le cas où n = 2, il y
a trois cas possibles :
– Soit P 1 et P 2 sont confondus et alors les solutions du système sont les coordonnées des points de P 1 .
– Soit P 1 et P 2 sont strictement parallèles et alors il n’y a pas de solutions au système.
– Soit P 1 et P 2 se coupent suivant une droite D1,2 . S’il y a une troisième équation, il s’agit ensuite
d’étudier l’intersection D1,2 ∩ P 3 , il y a plusieurs cas :
• Soit la droite coupe le plan en un point I et ses coordonnées forment l’unique solution du système.
• Soit la droite est incluse dans le plan et l’intersection est la droite.
• Soit la droite est strictement parallèle au plan et il n’y a pas de solution.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 28 ©Fradin Patrick – http://mpsi.tuxfamily.org


Systèmes linéaires Chapitre 3 : Calculs algébriques

3) Méthode du pivot de Gauss


Systèmes triangulaires

NE
Un système linéaire (S) est dit triangulaire lorsque les coefficients situés sous la diagonale (les coefficients
a i , j avec i > j ) sont nuls. Lorsque s’un système triangulaire a ses coefficients diagonaux non nuls, on le
résout par substitutions remontantes. Exemple :
  
 x + 2y − z + t = 1
  x + 2y − z + t = 1
  x + 2y − z + t = 1

y − z + 2t = 0 ⇐⇒ y − z + 2t = 0 ⇐⇒ y = z − 2t = 1 − 3t

 
 

z +t =1 z = 1−t z = 1−t

 x = 1 − 2y + z − t = 4t

⇐⇒ y = 1 − 3t . L’ensemble des solutions est donc {(4t , 1 − 3t , 1 − t , t ) | t ∈ R}


z = 1−t

AIG
Sur cet exemple, on voit que l’inconnue t peut-être quelconque et que les autres s’écrivent en fonction de t .
On dit que t est une inconnue auxiliaire et que x, y, z sont les inconnues principales.

Opérations élémentaires
Les opérations élémentaires de la méthode de Gauss sont :
– L’échange de deux équations Li et L j avec i 6= j , notée Li ↔ L j , elle transforme le système en un
système équivalent car le connecteur « et » est commutatif.
– L’échange de deux colonnes Ci et C j avec i 6= j , notée Ci ↔ C j , elle transforme le système en un
système équivalent car l’addition est commutative.
– Multiplier une ligne Li par un nombre α non nul, notée Li ← αLi , elle transforme le système en un
système équivalent car la nouvelle équation Li est équivalente à l’ancienne puisque α 6= 0.
– Ajouter à une ligne Li un multiple d’une autre ligne L j (i 6= j ), elle notée Li ← Li + λL j , elle transforme
le système en un système équivalent car l’opération Li ← Li − λL j nous permet de revenir à l’ancien
système.
NT
À retenir
La méthode du pivot de Gauss consiste à transformer, avec des opérations élémentaires, le système
linéaire initial (S) en un système équivalent triangulaire dont les coefficients diagonaux sont non nuls.

La méthode est une succession d’étapes, voici le descriptif de l’étape k, celle-ci se déroule en trois temps :
1. On choisit un coefficient non nul dans les lignes Lk à Ln et les colonnes Ck à Cp . Ce coefficient sera
appelé le pivot de l’étape k (noté p k ), pour les calculs à la main on essaie de choisir si possible un
coefficient égal à 1 ou −1.
2. On amène le pivot p k à sa place, c’est à dire ligne Lk et colonne Ck , il peut être nécessaire pour cela
MO

d’échanger deux lignes et/ou deux colonnes.


3. On « élimine » les coefficients situés sous le pivot dans les lignes Lk+1 à Ln avec des opérations du type
Li ← Li + λLk , c’est à dire qu’à chaque ligne (sous celle du pivot) on ajoute un certain nombre de fois la
ligne du pivot pour faire disparaître le coefficient qui est dans la colonne du pivot, ceci est possible en
a
faisant Li ← Li − pi k,k Lk si a i ,k est le coefficient de la ligne i et colonne k.
À l’issue de l’étape k on obtient un système de la forme :


 p 1 x1 + a 1,2 x 2 + ··· ··· ··· +a 1,p x p = b1
p 2 x2 + ··· ··· ··· +a 2,p x p = b2




.. .. ..


.



 . .
p k xk + ··· · · · +a k,p x p = bk ,



 a k+1,k+1 x k+1 + · · · +a k+1,p x p = b k+1
.. .. ..



. . .




a n,k+1 x k+1 + · · · +a n,p x p = bn

MPSI3 (2015-16) LYCÉE M ONTAIGNE 29 ©Fradin Patrick – http://mpsi.tuxfamily.org


Systèmes linéaires Chapitre 3 : Calculs algébriques

La méthode s’arrête à l’issue de l’étape k lorsqu’on est arrivé à la dernière ligne, ou bien lorsqu’il n’est
plus possible de trouver un pivot parce que tous les coefficients des lignes Lk+1 à Ln et des colonnes Ck+1 à
Cp sont nuls. On peut alors procéder aux substitutions remontantes.

NE
Exemple
 :

 2x 1 + 3x 2 − 3x 3 + 4x 4 + 2x 5 = 1

3x 1 + 6x 2 − 2x 3 + 5x 4 + 9x 5 = 0

(S)
 7x 1 + 18x 2 − 2x 3 + 7x 4 + 7x 5 = 2


2x 1 + 4x 2 − 2x 3 + 3x 4 + x 5 = −1

Étape1 :

 2x 1 + 3x 2 − 3x 3 + 4x 4 + 2x 5 = 1

3x 2 + 5x 3 − 2x 4 + 12x 5 = −3 L2 ← 2L2 − 3L1

⇐⇒


 15x 2 + 17x 3 − 14x 4 = −3 L3 ← 2L3 − 7L1
x 2 + x 3 − x 4 − x 5 = −2 L4 ← L4 − L1

Étape 2 (L 2 ↔ L 4 ) :

AIG


 2x 1 + 3x 2 − 3x 3 + 4x 4 + 2x 5 = 1

x 2 + x 3 − x 4 − x 5 = −2 L2 ← L4

⇐⇒


 15x 2 + 17x 3 − 14x 4 = −3
3x 2 + 5x 3 − 2x 4 + 12x 5 = −3 L4 ← L2


 2x 1 + 3x 2 − 3x 3 + 4x 4 + 2x 5 = 1


x 2 + x 3 − x 4 − x 5 = −2

⇐⇒


 2x 3 + x 4 + 15x 5 = 27 L3 ← L3 − 15L2
2x 3 + x 4 + 15x 5 = 3 L4 ← L4 − 3L2

Étape3 :


 2x 1 + 3x 2 − 3x 3 + 4x 4 + 2x 5 = 1
x 2 + x 3 − x 4 − x 5 = −2




⇐⇒ 2x 3 + x 4 + 15x 5 = 27

0 = −24 L4 ← L4 − L3



NT



On voit donc que le système n’a pas de solution.
 (1 − λ)x − y + z = 0


FExercice 3.4 Résoudre en fonction du paramètre λ le système −x + (1 − λ)y − z = 0 .

x − y + (1 − λ)z = 0

MO

MPSI3 (2015-16) LYCÉE M ONTAIGNE 30 ©Fradin Patrick – http://mpsi.tuxfamily.org


NE
Chapitre 4

Fonctions usuelles

Sommaire

AIG
I Fonctions logarithme et exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1) Logarithme népérien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2) La fonction exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
II Fonctions puissances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1) Puissance quelconque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2) Croissance comparée de ces fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
III Fonctions circulaires - Inversions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1) Fonctions circulaires : rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2) Inversion des fonctions circulaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
IV Fonctions hyperboliques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2) Trigonométrie hyperbolique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
NT
I FONCTIONS LOGARITHME ET EXPONENTIELLE

1) Logarithme népérien
1
La fonction x 7→ x est continue sur ]0; +∞[, elle admet une unique primitive qui s’annule en 1.

Définition 4.1
L’unique primitive de la fonction x 7→ x1 sur ]0; +∞[ qui s’annule en 1 est appelée logarithme népérien
Rx
et notée ln. On a donc ∀x > 0, ln(x) = 1 dtt .

1
MO

Cette fonction est donc dérivable sur I =]0; +∞[ et ln0 (x) = , elle est donc strictement croissante sur I.
x
Soit y > 0, la fonction f : x 7→ ln(x y) et dérivable sur I et f 0 (x) = y x1y = x1 , on en déduit que f (x) = ln(x) + c
où c est une constante, on a ln(y) = f (1) = ln(1) + c = c, par conséquent on obtient :

Théorème 4.1 (Propriété fondamentale du logarithme)


∀x, y > 0, ln(x y) = ln(x) + ln(y).

Conséquences :
u0
– Si u est une fonction dérivable qui ne s’annule pas, alors [ln(|u|)]0 = u.
– ∀x, y ∈ R∗ , ln(|x y|) = ln(|x|) + ln(|y|).
– ∀x, y ∈ R∗ , ln(| xy |) = ln(|x|) − ln(|y|).
– ∀n ∈ Z∗ , ∀x ∈ R∗ , ln(|x n |) = n ln(|x|).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 31 ©Fradin Patrick – http://mpsi.tuxfamily.org


Fonctions logarithme et exponentielle Chapitre 4 : Fonctions usuelles

Théorème 4.2 (Limites du logarithme népérien)


ln(x) ln(x)
lim ln(x) = +∞; lim+ ln(x) = −∞; lim = 0; lim+ x ln(x) = 0; lim = 1.

NE
x→+∞ x→0 x→+∞ x x→0 x→1 x − 1

Preuve : ∀n ∈ N, ln(2n ) = n ln(2) or ln(2) > 0, donc la suite (ln(2n )) tend vers +∞ ce qui prouve que la fonction ln n’est
pas majorée, par conséquent elle tend +∞.
En posant X = x1 on a lim X = +∞ donc lim ln(x) = lim − ln(X) = −∞.
x→0+ x→0+ X→+∞
lim ln(x) 0
= ln (1) = 1.
x→1 x−1
p Rx dt p
Pour t > 1 on a t 6 t et donc pour x > 1 on a 0 6 ln(x) 6 1 p = 2[ x − 1], le théorème des gendarmes entraîne
t
ln(x)
lim x = 0. 
x→+∞
Courbe représentative :

AIG
1
C ln
x 0 1 +∞ 0
ln0 + + 0 1 2 3 4
+∞
−1
ln 0
−∞
−2

−3
NT
Théorème 4.3 (Inégalité de convexité)
∀x > 0, ln(x) 6 x − 1.

Preuve : Il suffit d’étudier la fonction f : x 7→ ln(x) − x + 1. 

2) La fonction exponentielle
La fonction ln est strictement croissante sur I =]0; +∞[, elle définit donc une bijection de I sur J = Im(ln),
comme elle est continue on a Im(ln) =] lim ln; lim ln[= R.
0 +∞
MO

Définition 4.2
La réciproque est appelée fonction exponentielle et notée exp, elle est définie par :

exp : R → ]0; +∞[ .


x 7→ exp(x) = y tel que y > 0 et ln(y) = x

Propriétés :
– La fonction exp est strictement croissante sur R et continue, de plus exp(0) = 1.
– La fonction ln est dérivable sur ]0; +∞[ et sa dérivée ne s’annule pas, donc la fonction exp est dérivable
1
sur R et exp0 (x) = 0 = exp(x) .
ln (exp(x))
– Dans un repère orthonormé, la courbe de la fonction exp et celle de la fonction ln sont symétriques
par rapport à la première bissectrice.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 32 ©Fradin Patrick – http://mpsi.tuxfamily.org


Fonctions puissances Chapitre 4 : Fonctions usuelles

4 C exp

NE
3

1 C ln

0
−4 −3 −2 −1 0 1 2 3 4
−1

−2

AIG
−3

−4
Soient x, y ∈ R, notons X = exp(x) et Y = exp(y) alors X et Y sont dans ]0; +∞[ on peut donc écrire
ln(XY) = ln(X) + ln(Y) ce qui donne x + y = ln(XY), par conséquent exp(x + y) = XY = exp(x) exp(y), on peut
donc énoncer :

Théorème 4.4 (Propriété fondamentale de l’exponentielle)


∀x, y ∈ R, exp(x + y) = exp(x) exp(y).
1
Il en découle en particulier que exp(−x) = exp(x) .

Notation : On déduit de ce théorème que pour tout entier n ∈ Z et pour tout réel x on a exp(nx) = [exp(x)]n .
En particulier on a pour x = 1, exp(n) = [exp(1)]n . On pose alors e = exp(1) , d’où exp(n) = e n . Si p et q sont
NT
p
deux entiers premiers entre eux avec q 6= 0 et si r = q , alors exp(qr ) = exp(r )q = e p , comme exp(r ) > 0 on
p
peut écrire exp(r ) = e p = e r [cf fonctions puissances]. On convient alors d’écrire pour tout réel x :
q

exp(x) = e x .

Les propriétés s’écrivent alors :


– e x+y = e x × e y .
– e 0 = 1, e −x = e1x , ∀n ∈ Z, e nx = [e x ]n .
– Si u désigne une fonction dérivable alors [e u ]0 = u 0 × eu .
– ∀x ∈ R, e x > x + 1.
Preuve : Soit X = e x , on sait que ln(X) 6 X − 1 ce qui donne l’inégalité. 
MO

Théorème 4.5 (Limites de la fonction exponentielle)


ex ex − 1
lim e x = 0, lim e x = +∞, lim = +∞, lim = 1.
x→−∞ x→+∞ x→+∞ x x→0 x

Preuve : La fonction exp est continue et strictement croissante sur R donc Im(exp) =] lim exp; lim exp[=]0; +∞[. Soit
−∞ +∞
ex X e x −1
X = e x alors lim = lim = +∞. lim = exp0 (0) = 1. 
x→+∞ x X→+∞ ln(X) x→0 x

Remarque 4.1 – Il en découle que lim xe−x = 0.


x→+∞

II FONCTIONS PUISSANCES

Les puissances entières sont supposées connues.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 33 ©Fradin Patrick – http://mpsi.tuxfamily.org


Fonctions puissances Chapitre 4 : Fonctions usuelles

1) Puissance quelconque

Définition 4.3

NE
Si α est un réel et si x > 0 alors on pose x α = e α ln(x) .

Cela définit une fonction f α continue et dérivable sur ]0; +∞[ avec la formule : [x α ]0 = αx α−1 .
Il en découle que si u est une fonction dérivable à valeurs strictement positives, alors la fonction u α est
dérivable et :
¡ α ¢0
u = α × u 0 × u α−1

si α > 0
½
0
On a lim f α (x) = . Dans le premier cas on pose 0α = 0, dans le second cas il y a une
x→0 +∞ si α < 0
asymptote verticale.
si α > 1
½
x α −0 (α−1) ln(x) 0
Lorsque α > 0 : x = e −→ , lorsque α > 1 on a une tangente horizontale

AIG
x→0 +∞ si 0 < α < 1
et lorsque α < 1 on a une tangente verticale.

α<0

4 α>1 α=1

2
0<α<1

1
NT
0
−1 0 1 2 3 4

−1

Cas particuliers (avec x > 0) :


¢n
a) Lorsque α = n ∈ Z, on retrouve bien les puissances entières car exp(n ln(x)) = exp(ln(x)) = x n .
¡

b) Lorsque α = n1 avec n ∈ N∗ : soit y = x α , on a y n = exp( nn ln(x)) = x, comme y est positif, on dit que y
p
est la racine n e de x. Notation pour x > 0 : x 1/n = n x.
p p
c) Lorsque α = q∈ Q avec p ∈ Z et q ∈ N∗ : soit y = x α , on a y q = exp(q q ln(x)) = x p , comme y est positif,
p
MO

y est la racine q e de x p . Autrement dit, pour x > 0, x p/q = x p .


q

Théorème 4.6 (Propriétés)


Avec x, y > 0 et α, β ∈ R :
– ln(x α ) = α ln(x).

– x α × x β = x α+β , et donc x −α = 1
x α , et x β = x α−β .
– (x α )β = x αβ .
– (x y)α = x α × y α .
1
– Pour α non nul, y = x α ⇐⇒ x = y α .

Preuve : Celle-ci est simple et laissée en exercice. 


FExercice 4.1
1/ Soient u et v deux fonctions dérivables avec u > 0, calculer la dérivée de la fonction x 7→ u(x)v(x) .
¢x
2/ Calculer lim 1 + x1 .
¡
x→+∞

MPSI3 (2015-16) LYCÉE M ONTAIGNE 34 ©Fradin Patrick – http://mpsi.tuxfamily.org


Fonctions circulaires - Inversions Chapitre 4 : Fonctions usuelles

Remarque 4.2 – Pour les réels x strictement positifs, on peut définir les puissances complexes à l’aide de
l’exponentielle complexe en posant x z = e z ln(x) .

NE
2) Croissance comparée de ces fonctions

Définition 4.4
Soit f et g deux fonctions qui ne s’annulent pas au voisinage d’un point a, on dit que f et négligeable
f (x) ¡ ¢
devant g au voisinage de a lorsque : lim g (x) = 0. Notation : f (x) = o g (x) .
x→a a

Comparaison des puissances : si α < β alors x α est négligeable devant x β au voisinage de +∞ et x β est
négligeable devant x α au voisinage de 0 :

³ ´ xα xβ
x α = o x β et x β = o+ x α c’est à dire

AIG
¡ ¢
lim = 0 et lim+ =0
+∞ 0 x→+∞ xβ x→0 xα
Comparaison des puissances et des logarithmes : si α et β sont des réels strictement positifs, alors [ln(x)]α
est négligeable devant x β au voisinage de +∞ et | ln(x)|α est négligeable devant x1β au voisinage de 0 :

[ln(x)]α
µ ¶
³ ´ 1
[ln(x)]α = o x β et | ln(x)|α = o+ β c’est à dire lim = 0 et lim+ x β | ln(x)|α = 0
+∞ 0 x x→+∞ xβ x→0

ln(u) α
µα ¶ ³ ´α ³ ´α β
[ln(x)]α β α ln(u)
Preuve : xβ
= u = β u avec u = x α , ce qui donne la première limite. La deuxième en découle avec
le changement de variable u = x1 . 
α
Comparaison des puissances et des exponentielles : si α est un réel et si β > 0, alors x est négligeable
devant e βx au voisinage de +∞, c’est à dire :
NT
³ ´
x α = o e βx c’est à dire lim x α e −βx = 0 .
+∞ x→+∞

[ln(u)]α
Preuve : Lorsque α 6 0 il n’y a rien à démontrer. Lorsque α > 0, u = e x −→ +∞ et on a x α e −βx = uβ
−→ 0. 
x→+∞ u→+∞

FExercice 4.2 Comparer x α et e au voisinage de +∞.

III FONCTIONS CIRCULAIRES - INVERSIONS

1) Fonctions circulaires : rappels


Le plan P est muni d’un repère orthonormé direct (O, → −
u ,→

v ). Soit x un réel, et M(x) le point du cercle

− −−→
trigonométrique tel que ( u , OM ) = x (mod 2π) alors les coordonnées de M(x) sont (cos(x), sin(x)), lorsque
x ∈ R \ π2 + kπ | k ∈ Z , on pose tan(x) = cos(x)
sin(x)
© ª
MO

M tan(x)
sin(x)

O A
cos(x)

MPSI3 (2015-16) LYCÉE M ONTAIGNE 35 ©Fradin Patrick – http://mpsi.tuxfamily.org


Fonctions circulaires - Inversions Chapitre 4 : Fonctions usuelles

_
Remarque 4.3 – Le réel x représente également la longueur de l’arc de cercle AM avec A(1, 0), le cercle étant
orienté dans le sens direct.

NE
Quelques propriétés :
– ∀x ∈ R, cos2 (x) + sin2 (x) = 1.
– Les fonctions sinus et cosinus sont 2π-périodiques définies continues dérivables sur R, à valeurs dans
[−1; 1], et on a sin0 = cos et cos0 = − sin.
– La fonction tangente est π-périodique, définie continue dérivable sur R \ { π2 + kπ | k ∈ Z} et on a
tan0 (x) = 1 + tan2 (x) = cos12 (x) .
– Les fonctions sinus et tangente sont impaires alors que la fonction cosinus est paire.

À retenir
Si u est une fonction dérivable alors sin(u) et cos(u) sont dérivables avec les formules :
[sin(u)]0 = u 0 cos(u) et [cos(u)]0 = −u 0 sin(u)
Si de plus la fonction cos(u)) ne s’annule pas, alors la fonction tan(u) est dérivable et :

AIG
0
[tan(u)]0 = u 0 (1 + tan2 (u)) = cosu2 (u)

5
1
4
C sin
0 3
−π − π2 0 π π
2 2

−1 1
0 C tan

− π2 0 π
2
1 −1
C cos
−2
0
NT
π −3
−π − π2 0 π
2
−4
−1
−5

– On a les relations sin(π + x) = − sin(x) et cos(π + x) = − cos(x).


π π π π
x 0 6 4 3 2
p p
1 2 3
sin(x) 0 2 2 2 1
– On a les valeurs remarquables : p p ,
3 2 1
cos(x) 1 2 2 2 0
p
tan(x) 0 p1 1 3
3
comme sin(π − x) = sin(x) et cos(π − x) = − cos(x), on peut compléter le tableau avec les valeurs
MO

2π 3π 5π
3 , 4 , 6 et π, la parité permet ensuite d’avoir un tableau de −π à π.
– Formules d’addition : ∀x, y ∈ R on a :
• cos(x + y) = cos(x) cos(y) − sin(x) sin(y). En particulier, cos(2x) = 2 cos2 (x) − 1 = 1 − 2 sin2 (x).
• sin(x + y) = sin(x) cos(y) + cos(x) sin(y). En particilier, sin(2x) = 2 sin(x) cos(x).
tan(x)+tan(y) 2 tan(x)
• tan(x + y) = 1−tan(x) tan(y) . En particulier, tan(2x) = 1−tan 2 (x) .

2u 1 − u2
• En posant u = tan( x2 ), on a sin(x) = et cos(x) = .
1 + u2 1 + u2
FExercice 4.3
x2
1/ Montrer que ∀x ∈ R, | sin(x)| 6 |x|, 0 6 1 − cos(x) 6 2 .
2/ Montrer que ∀x ∈] − π2 ; π2 [, | tan(x)| > |x|.

Solution 4.3
1/ Il suffit de le démontrer pour x positif en étudiant la fonction x 7→ x −sin(x), puis on intègre de 0 à x ce qui donne
la deuxième inégalité.
2/ On étudie x 7→ x − tan(x).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 36 ©Fradin Patrick – http://mpsi.tuxfamily.org


Fonctions circulaires - Inversions Chapitre 4 : Fonctions usuelles

Extension
e i z +e −i z e i z −e −i z
On peut prolonger les fonctions sinus et cosinus à C en posant cos(z) = 2 et sin(z) = 2i .

NE
2) Inversion des fonctions circulaires
La fonction arcsin : la fonction sin est strictement croissante sur I = [− π2 ; π2 ], elle définit une bijection de I
sur J = [sin(− π2 ); sin( π2 )] = [−1; 1]. La bijection réciproque est notée arcsin [arcsinus], elle est définie par :
arcsin : [−1; 1] → [− π2 ; π2 ] .
y ∈ [− π2 ; π2 ]
½
x 7→ arcsin(x) = y tel que
sin(y) = x
ZExemple : arcsin(0) = 0, arcsin( 21 ) = π6 , . . .
Cette fonction est strictement croissante et continue sur [−1; 1], elle est dérivable sur ] − 1; 1[ mais pas en
−1 ni en 1 [tangente verticale en ces points], on a la formule suivante :

AIG
1 1
∀x ∈] − 1; 1[, arcsin0 (x) = =p .
cos(arcsin(x)) 1 − x2

À retenir
Si u est une fonction dérivable à valeurs dans ] − 1; 1[ alors la fonction arcsin(u) est dérivable et :
0
[arcsin(u)]0 = p u 2
1−u

C arcsin
π
2

1 C sin
NT
x −1 0 +1
+ π2 − π2 −1
arcsin 0 1 π
2
− π2

−1

− π2

Propriétés :
– ∀x ∈ [−1; 1], sin(arcsin(x)) = x.
– ∀x ∈ [− π2 ; π2 ], arcsin(sin(x)) = x.
MO

– ∀x ∈ [−1; 1], arcsin(−x) = − arcsin(x)


p [fonction impaire].
– ∀x ∈ [−1; 1], cos(arcsin(x)) = 1 − x 2 .
– ∀x ∈ [−π; π], arcsin(cos(x)) = π2 − |x|.

Attention !
La fonction f : x 7→ arcsin(sin(x)) n’est pas l’identité, elle est 2π- périodique et impaire, il suffit donc l’étudier
sur [0; π], mais elle vérifie f (π − x) = f (x), la droite x = π2 est donc un axe de symétrie et l’étude se réduit à [0; π2 ],
intervalle sur lequel f (x) = x.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 37 ©Fradin Patrick – http://mpsi.tuxfamily.org


Fonctions circulaires - Inversions Chapitre 4 : Fonctions usuelles

La fonction arccos : la fonction f : [0; π] → [−1; 1] définie par f (x) = cos(x), est continue et strictement
décroissante, elle définit donc une bijection de [0; π] sur [−1; 1]. Par définition, la bijection réciproque est
appelée fonction arccosinus et notée arccos, elle est définie par :

NE
arccos : [−1; 1] → [0; π] .
y ∈ [0; π]
½
x 7→ arccos(x) = y tel que
cos(y) = x

ZExemple : arccos(1) = 0, arccos(0) = π2 , arccos(− 12 ) = 2π


3 , ...
Cette fonction est strictement décroissante et continue sur [−1; 1], elle est dérivable sur ] − 1; 1[ mais pas
en −1 ni en 1 [tangente verticale en ces points], on a la formule suivante :
−1 −1
∀x ∈] − 1; 1[, arccos0 (x) = =p .
sin(arccos(x)) 1 − x2

AIG
À retenir
Si u est une fonction dérivable à valeurs dans ] − 1; 1[ alors la focntion arccos(u) est dérivable et :
0
[arccos(u)]0 = p−u 2
1−u

C arccos
π

x −1 0 +1 π
2
π
π 1
arccos 2
0 π
2 π
NT
−1 1

−1
C cos

Propriétés :
– ∀x ∈ [−1; 1], cos(arccos(x)) = x.
– ∀x ∈ [0; π], arccos(cos(x)) = x.p
– ∀x ∈ [−1; 1], sin(arccos(x)) = 1 − x 2 .
– ∀x ∈ [−1; 1], arccos(x) + arcsin(x) = π2 .
– ∀x ∈ [−1; 1], arccos(−x) = π − arccos(x).

Attention !
MO

La fonction f : x 7→ arccos(cos(x)) n’est pas l’identité, elle est 2π- périodique et paire, il suffit donc l’étudier sur
[0; π] intervalle sur lequel f (x) = x.

La fonction arctan : la fonction f :]− π2 ; π2 [→ R définie par f (x) = tan(x), est continue et strictement croissante,
elle définit donc une bijection de ] − π2 ; π2 [ sur R. Par définition, la bijection réciproque est appelée fonction
arctangente et notée arctan, elle est définie par :
arctan : R → ] − π2 ; π2 [ .
y ∈] − π2 ; π2 [
½
x 7→ arctan(x) = y tel que
tan(y) = x
p
ZExemple : arctan(0) = 0, arctan(1) = π4 , arctan( 3) = π3 , . . .
Cette fonction est strictement croissante, continue et dérivable sur R et on a la formule suivante :
1 1
∀x ∈ R, arctan0 (x) = = .
1 + tan2 (arctan(x)) 1 + x2

MPSI3 (2015-16) LYCÉE M ONTAIGNE 38 ©Fradin Patrick – http://mpsi.tuxfamily.org


Fonctions hyperboliques Chapitre 4 : Fonctions usuelles

À retenir
Si u désigne un fonction dérivable, alors la fonction arctan(u) est dérivable et :

NE
u0
[arctan(u)]0 = 1+u 2

C tan

π
2

x −∞ 0 +∞
π C arctan
2
arctan 0 − π2 π
2
− π2

AIG
− π2

Propriétés :
– ∀x ∈ R, tan(arctan(x)) = x.
– ∀x ∈] − π2 ; π2 [, arctan(tan(x)) = x.
– ∀x ∈ R, arctan(−x) = − arctan(x).
– ∀x ∈ R∗+ , arctan(x) + arctan( x1 ) = π2 .
³ ´
– ∀x ∈ R, arctan(x) = arcsin p x 2 .
1+x
– ∀x ∈ R, arctan(x) = Arg(1 + i x).
NT
IV FONCTIONS HYPERBOLIQUES

1) Définition

Définition 4.5
e x +e −x e x −e −x
Pour x ∈ R, on pose ch(x) = 2 [cosinus hyperbolique], sh(x) = 2 [sinus hyperbolique] et
sh(x) x −x
e −e
th(x) = ch(x) = e x +e −x [tangente hyperbolique].

Le cosinus hyperbolique : la fonction ch est paire, définie continue dérivable sur R et ch0 (x) = sh(x), on en
déduit le tableau de variation et la courbe :
MO

4
C ch
x −∞ 0 +∞ 3
+∞ +∞
ch 2
1
1

0
−3 −2 −1 0 1 2

Quelques propriétés :
– ∀x ∈ R, ch(x) > 1.
– lim ch(x)
x = +∞ et lim
ch(x)
x = 12 .
x→+∞ x→+∞ e

MPSI3 (2015-16) LYCÉE M ONTAIGNE 39 ©Fradin Patrick – http://mpsi.tuxfamily.org


Fonctions hyperboliques Chapitre 4 : Fonctions usuelles

Le sinus hyperbolique : la fonction sh est impaire, définie continue dérivable sur R et sh0 (x) = ch(x), on en
déduit le tableau de variation et la courbe :

NE
5
4
3 C sh
2
x −∞ 0 +∞
1
+∞ 0
sh 0 −3 −2 −1 0 1 2
−1
−∞
−2
−3
−4
−5

AIG
−6
Quelques propriétés :
– ∀x ∈ R, ch(x) > 1.
– lim ch(x)
x = +∞ et lim
ch(x)
x = 12 .
x→+∞ x→+∞ e
x
– ∀x ∈ R, ch(x) + sh(x) = e et ch(x) − sh(x) = e −x .
– ∀x > 0, x < sh(x) < ch(x).
– lim sh(x)
x = +∞ et lim
sh(x) 1
ex = 2 .
x→+∞ x→+∞
La tangente hyperbolique : la fonction th est impaire, définie continue dérivable sur R et

ch2 (x) − sh2 (x) 1


th0 (x) = 2
= 1 − th2 (x) = 2
ch (x) ch (x)
d’où les variations et la courbe :
NT
1

C th
x −∞ 0 +∞
+1
th 0 −3 −2 −1 0 1 2
−1

−1
MO

Quelques propriétés :
– ∀x ∈ R, −1 < th(x) < 1.
– ∀x > 0, th(x) < x.

2) Trigonométrie hyperbolique
– ∀x ∈ R, ch2 (x) − sh2 (x) = 1.
– Formules d’addition : ∀x, y ∈ R on a :
• ch(x + y) = ch(x)ch(y) + sh(x)sh(y).
• sh(x + y) = sh(x)ch(y) + ch(x)sh(y).
th(x)+th(y)
• th(x + y) = 1+th(x)th(y) .
ch(2x) = 2ch2 (x) − 1 = 1 + 2sh2 (x)
En particulier : sh(2x) = 2sh(x)ch(x) .
th(2x) = 2th(x)
2
1+th (x)

MPSI3 (2015-16) LYCÉE M ONTAIGNE 40 ©Fradin Patrick – http://mpsi.tuxfamily.org


Fonctions hyperboliques Chapitre 4 : Fonctions usuelles

x+y x−y
– Transformations de somme en produit : ∀x, y ∈ R, en posant p = 2 et q = 2 , on a x = p + q et
y = p − q, on obtient :
x+y x−y
• ch(x) + ch(y) = 2ch( 2 )ch( 2 ).

NE
x+y x−y
• ch(x) − ch(y) = 2sh( 2 )sh( 2 ).
x+y x−y
• sh(x) + sh(y) = 2sh( 2 )ch( 2 ).
sh(x+y)
• th(x) + th(y) = ch(x)ch(y) .
z −z
Remarque 4.4 – Il est possible d’étendre ces fonctions aux complexes, en posant pour z ∈ C, ch(z) = e +e
2 et
e z −e −z
sh(z) = 2 . On peut déduire des formules d’Euler que pour tout réel x, cos(x) = ch(i x) et i sin(x) = sh(i x).

AIG
NT
MO

MPSI3 (2015-16) LYCÉE M ONTAIGNE 41 ©Fradin Patrick – http://mpsi.tuxfamily.org


NE
Chapitre 5

Généralités sur les fonctions

Sommaire

AIG
I Rappels et compléments sur les fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
1) Vocabulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2) Opérations sur les fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3) Plan d’étude d’une fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
II Fonctions à valeurs complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2) Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3) Dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
III Primitives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
1) Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2) Primitives usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3) Calculs d’intégrales et de primitives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4) Primitives de certaines fractions rationnelles . . . . . . . . . . . . . . . . . . . . . . . . 50
NT
Dans ce chapitre, les fonctions considérées sont définies sur un intervalle non trivial de R.

I RAPPELS ET COMPLÉMENTS SUR LES FONCTIONS

Rappels :
a) Deux fonctions sont égales lorsqu’elles ont le même ensemble de départ, le même ensemble d’arrivée,
et le même graphe.
b) Si f : I → R est une fonction, on appelle « image de f », l’ensemble noté f (I) et défini par :

f (I) = {y ∈ R / ∃ x ∈ I, f (x) = y},


MO

c’est l’ensemble des images par f des éléments de I.

1) Vocabulaire
– Représentation graphique : soit P un plan muni d’un répère (O, → −ı ,→
− ), la représentation graphique de
f est l’ensemble C f = M(x, f (x)) | x ∈ I . On dit que y = f (x) est une équation de la courbe représen-
© ª

tative de f car M(x; y) ∈ C f ⇐⇒ y = f (x).


– Sens de variation : soit f : I → R une fonction, on dit que f est :
• constante sur I lorsque : ∀ x, y ∈ I, f (x) = f (y).
• croissante sur I lorsque : ∀ x, y ∈ I, x 6 y =⇒ f (x) 6 f (y).
• strictement croissante sur I lorsque : ∀ x, y ∈ I, x < y =⇒ f (x) < f (y).
• décroissante sur I lorsque : ∀ x, y ∈ I, x 6 y =⇒ f (x) > f (y).
• strictement décroissante sur I lorsque : ∀ x, y ∈ I, x < y =⇒ f (x) > f (y).
• monotone sur I lorsque : f est ou bien croissante ou bien décroissante.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 42 ©Fradin Patrick – http://mpsi.tuxfamily.org


Rappels et compléments sur les fonctions Chapitre 5 : Généralités sur les fonctions

• strictement monotone sur I lorsque : f est ou bien strictement croissante ou bien strictement
décroissante.
FExercice 5.1 Étudier le sens de variation de la composée de deux fonctions monotones, puis de la somme, puis du

NE
produit.
– Bornée : soit f : I → R une fonction, on dit que f est :
• majorée sur I lorsqu’il existe un réel M tel que ∀ x ∈ I, f (x) 6 M. Si c’est le cas, la courbe de f est sous
la droite y = M.
• minorée sur I lorsqu’il existe un réel m tel que ∀ x ∈ I, f (x) > m. Si c’est le cas, la courbe de f est
au-dessus la droite y = m.
• bornée sur I lorsque f est à la fois minorée et majorée, ce qui équivaut à : | f | est majorée.
– Parité : soit f : I → R une fonction, on dit que f est :
• paire lorsque : ∀ x ∈ I, −x ∈ I et f (−x) = f (x). Dans ce cas la courbe représentative de f admet l’axe
des ordonnées comme axe de symétrie.
Plus généralement, si ∀ x ∈ I, 2a − x ∈ I et f (2a − x) = f (x), alors la courbe de f admet la droite

AIG
d’équation x = a comme axe de symétrie.
• impaire lorsque : ∀ x ∈ I, −x ∈ I et f (−x) = − f (x). Si c’est le cas, alors la courbe de f admet un centre
de symétrie, l’origine du repère.
Plus généralement, si ∀ x ∈ I, 2a − x ∈ I et f (2a − x) = 2b − f (x), alors la courbe de f admet le point
A(a, b) comme centre de symétrie.
– Périodicité : soit f : I → R une fonction et soit a ∈ R∗ , on dit que a est une période de f lorsque :
∀ x ∈ I, x ± a ∈ I et f (x + a) = f (x). Si c’est le cas, le courbe de f est invariante par les translations


de vecteurs na i où n ∈ Z. Si f est périodique, on appelle période fondamentale de f la plus petite
période strictement positive si elle existe.
FExercice 5.2 Soit f : I → R une fonction périodique, on note
G f = T ∈ R | ∀x ∈ I, x + T ∈ I, x − T ∈ I, f (x + T) = f (x)
© ª

Montrer que (G f , +) est un groupe (appelé groupe des périodes de f ). Lorsque f admet une période fondamen-
tale a, montrer que G f = aZ.
– Extremum global : on dit que f : I → R admet un :
NT
• maximum global en x 0 ∈ I lorsque : ∀ x ∈ I, f (x) 6 f (x 0 ). Si c’est le cas, on pose f (x 0 ) = max f (x).
x∈I
• minimum global en x 0 ∈ I lorsque : ∀ x ∈ I, f (x) > f (x 0 ). Si c’est le cas, on pose f (x 0 ) = min f (x).
x∈I

Attention !
Une fonction même bornée n’a pas forcément de maximun ou de minimum. Par exemple, la fonction
arctan a pour ensemble image Im(arctan) =] − π2 ; π2 [, la fonction est donc bornée mais n’a ni maximum, ni
minimum.

2) Opérations sur les fonctions


L’ensemble des fonctions de I vers R est noté F (I, R).
MO

Définition 5.1
Soient f , g ∈ F (I, R) et soit λ ∈ R, on pose :
– f + g la fonction de I vers R définie par : ∀ x ∈ I, ( f + g )(x) = f (x) + g (x).
– f × g la fonction de I vers R définie par : ∀ x ∈ I, ( f × g )(x) = f (x)g (x).
– λ. f la fonction de I vers R définie par : ∀ x ∈ I, (λ. f )(x) = λ f (x).

Propriétés
a) Pour l’addition :
– elle est commutative, associative,
– elle admet un élément neutre : la fonction nulle (notée 0),
– toute fonction f de I vers R admet un opposé qui est la fonction − f : x 7→ − f (x),

donc (F (I, R), +) est un groupe abélien.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 43 ©Fradin Patrick – http://mpsi.tuxfamily.org


Rappels et compléments sur les fonctions Chapitre 5 : Généralités sur les fonctions

b) Pour le produit par un réel : si f , g ∈ F (I, R) et α, β ∈ R :


– 1. f = f ,
– (α + β). f = α. f + β. f ,

NE
– α.( f + g ) = α. f + α.g ,
– α.(β. f ) = (αβ). f ,

donc (F (I, R), +, .) est un R - espace vectoriel.

c) Pour la multiplication :
– elle associative, commutative,
– elle possède un élément neutre, la fonction constante qui à x donne 1 (notée 1),
– elle est distributive sur l’addition,
– seules les fonctions f qui ne s’annulent jamais ont un inverse (la fonction 1f ).

donc (F (I, R), +, ×) n’est pas un corps, mais seulement un anneau commutatif, celui - ci n’est pas
intègre, par exemple χQ × (1 − χQ ) = 0.

AIG
Définition 5.2 (fonctions max et min)
Soient f , g : I → R deux fonctions, on pose max( f , g ) et min( f , g ) les fonctions de I vers R définies
par : ∀ x ∈ I, max( f , g )(x) = max( f (x), g (x)) et min( f , g )(x) = min( f (x), g (x)). En particulier on pose
f + = max( f , 0) et f − = max(− f , 0), on a alors f + − f − = f et f + + f − = | f |.

FExercice 5.3 Montrer que sup( f , g ) =

elle est définie par :


2
f +g +| f −g |
et que inf( f , g ) = 2
f +g −| f −g |
.
Rappelons pour terminer ce paragraphe, qu’il existe une relation d’ordre dans F (I, R) (ordre fonctionnel),

f 6 g ⇐⇒ ∀ x ∈ I, f (x) 6 g (x)
c’est une relation d’ordre partiel.
NT
3) Plan d’étude d’une fonction
Ensemble de définition, ensemble d’étude

– D f est l’ensemble des réels de l’ensemble de départ ayant une image par f .
– Si D f est symétrique par rapport à un réel a, il se peut que la courbe de f présente une symétrie :
• un axe d’équation x = a lorsque ∀ x ∈ D f , f (2a − x) = f (x).
• un centre de symétrie de coordonnées (a, b) lorsque ∀ x ∈ D f , f (2a − x) = 2b − f (x).
Dans les deux cas, on peut restreindre l’étude à D f ∩ [a; +∞[.
– S’il existe un réel T > 0 tel que : ∀ x ∈ D f , x ± T ∈ D f , f (x + T) = f (x), alors f est T-périodique. On peut
restreindre l’étude à un intervalle de longueur une période : D f ∩ [a; a + T[ (a peut être quelconque),
on complète ensuite la courbe avec les translations de vecteurs nT→ −ı , n ∈ Z.
MO

Prolongements éventuels aux bords

Il se peut que f admette un prolongement par continuité aux bornes (finies) de D f . C’est un calcul de
limite, si celle-ci existe dans R, alors il y a un prolongement. Si celle-ci est infinie, alors il y a une asymptote
verticale.
S’il y a un prolongement, on étudie la fonction prolongée, ce qui change l’ensemble de définition.

Continuité, dérivabilité

– On cherche à appliquer les théorèmes généraux, pour cela il faut regarder comment est faite la fonction
(somme, produit, composée...).
– Il reste parfois des points où ces théorèmes ne s’appliquent pas, on étudie alors la continuité en
revenant à la définition (calcul de limite). S’il y a continuité, alors on étudie s’il y a dérivabilité en ce
même point, il y a plusieurs méthodes : le théorème sur la limite de la dérivée, ou la définition (limite
du taux d’accroissement).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 44 ©Fradin Patrick – http://mpsi.tuxfamily.org


Fonctions à valeurs complexes Chapitre 5 : Généralités sur les fonctions

Sens de variation

On rappelle que le théorème qui donne le sens de variation en fonction du signe de la dérivée, n’est

NE
valable que sur un intervalle.
– On peut parfois éviter l’étude du signe de la dérivée : sens de variation d’une somme, d’une composée,
p
d’un produit... Par exemple, les fonctions ln(u), u, e u ont le même sens de variation que u.
– Lorsqu’on ne peut pas faire autrement, on étudie le signe de la dérivée (sur un intervalle).
– Les résultats sont consignés dans le tableau des variations, où doivent figurer :
• l’ensemble d’étude,
• les valeurs particulières qui sont intervenues dans l’étude de la continuité, la dérivabilité et l’étude
du signe de la dérivée,
• le signe de la dérivée (si on est passé par là),
• les limites aux bornes de l’ensemble d’étude.

Étude des branches infinies

AIG
C f désigne la courbe de f dans un repère orthogonal.

– Si x 0 est un réel de D f ou une borne et si f a une limite infinie en x 0 , alors on dit que C f admet une
asymptote verticale d’équation x = x 0 .
– Si ∞ est une borne de D f , et si lim f = ` ∈ R, alors on dit que C f admet une asymptote horizontale

d’équation y = `.
f (x)
– Si ∞ est une borne de D f , et si lim f = ∞, alors on étudie le rapport x :

f (x)
• Si lim x = ∞ : on dit que C f admet une branche parabolique dans la direction de l’axe Oy, exemple :

x
f (x) = e en +∞.
f (x)
• Si lim x = 0 : on dit que C f admet une branche parabolique dans la direction de l’axe Ox, exemple :

f (x) = ln(x) en +∞.
f (x)
• Si x n’a pas de limite en ∞, alors on ne dit rien, exemple : f (x) = x(2 + sin(x)) en +∞.
NT
f (x)
• Si lim x = a ∈ R∗ : alors on étudie la différence f (x) − ax :

∗ Si lim f (x) − ax = b ∈ R : alors on dit que C f admet une asymptote d’équation y = ax + b, ce qui

équivaut à lim f (x) − ax − b = 0. La position courbe-asymptote se détermine en étudiant le signe

2
de l’expression f (x) − ax − b, exemple : f (x) = x x+2
+x+1
en +∞.
∗ Si lim f (x)−ax = ∞ : alors on dit que C f admet une branche parabolique dans la direction y = ax,

exemple : f (x) = x + ln(x) en +∞.
∗ Si f (x)−ax n’a pas de limite en ∞ : alors on dit que C f admet une branche infinie dans la direction
asymptotique y = ax, exemple : f (x) = x + sin(x) en +∞.

Définition 5.3
Si f et g sont deux fonctions définies au voisinage de ∞, on dit que C f et C g sont asymptotes en ∞
MO

lorsque lim f (x) − g (x) = 0.


x→∞

Représentation graphique

– On commence par placer : les asymptotes, les tangentes remarquables, les points particuliers (anguleux,
de rebroussement, d’intersection avec les axes...),
– On donne ensuite l’allure de la courbe d’après le tableau de variation. Il est parfois nécessaire d’étudier
la position de la courbe par rapport à certaines tangentes ou asymptotes.

II FONCTIONS À VALEURS COMPLEXES

1) Définition
Soit I un intervalle de R, et f : I → C une fonction à valeurs complexes.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 45 ©Fradin Patrick – http://mpsi.tuxfamily.org


Fonctions à valeurs complexes Chapitre 5 : Généralités sur les fonctions

Pour t ∈ I, on pose u(t ) = Re( f (t )) et v(t ) = Im( f (t )), on définit ainsi deux fonctions u et v à valeurs
réelles telles que ∀ t ∈ I, f (t ) = u(t ) + i v(t ).

NE
Définition 5.4
La fonction u est appelée partie réelle de f et la fonction v est appelée partie imaginaire de f .

ZExemple : Soit f définie sur R par f (t ) = e i t , on a Re( f ) = cos et Im( f ) = sin.

2) Continuité

Définition 5.5
- Une fonction u : I → R est continue en t 0 ∈ I, lorsque lim f (t ) = f (t 0 ).
t →t 0

AIG
- Soit f : I → C une fonction, soit u sa partie réelle et v sa partie imaginaire, on dit que f est continue
en t 0 ∈ I lorsque les fonctions u et v sont continues en t 0 .
- On dit que f est continue sur I si elle est continue en tout point de I et l’ensemble des fonctions
continues sur I est noté C 0 (I, C).

Les résultats suivants seront établis dans le chapitre sur la continuité :

À retenir
- Les fonctions usuelles vues jusque là sont continues sur leur ensemble de définition.
- La somme, le produit et la composée de deux fonctions continues sont continues. Si f est continue
et ne s’annule pas alors 1f est continue (théorèmes généraux de la continuité).
- Si f est continue sur l’intervalle I et à valeurs réelles, alors l’ensemble f (I) est un intervalle de R
(théorème des valeurs intermédiaires).
NT
- Si f est continue sur un segment [a; b] et à valeurs réelles, alors f a un maximum et un minimum.
- Si f : I → R est continue en a ∈ I alors pour toute suite (u n ) d’éléments de I, si u n → a alors f (u n ) →
f (a).

3) Dérivation

Définition 5.6
- Une fonction u : I → R est dérivable en t 0 ∈ I, lorsque le taux d’accroissement u(tt)−u(t −t 0
0)
admet une
0
limite finie en t 0 . Si c’est le cas, cette limite est notée u (t 0 ) et appelée nombre dérivé de u en t 0 .
- Soit f : I → C une fonction, soit u sa partie réelle et v sa partie imaginaire, on dit que f est dérivable en
MO

t 0 lorsque les fonctions u et v sont dérivables en t 0 . Si c’est le cas, alors on pose f 0 (t 0 ) = u 0 (t 0 )+i v 0 (t 0 ).
¢0 ¢0
On remarquera que si f est dérivable sur I, alors Re( f 0 ) = Re( f ) et Im( f 0 ) = Im( f ) .
¡ ¡

Attention !
Les fonctions usuelles ne sont pas toutes dérivables sur leur ensemble de définition, il y a les exceptions :
- arcsin et arccos ne sont pas dérivables en −1 ni en 1.
- La valeur absolue n’est pas dérivable en 0.
- Les fonctions t 7→ t α avec α ∈]0; 1[ ne sont pas dérivables en 0.

Les résultats suivants seront établis dans le chapitre sur la dérivation :

MPSI3 (2015-16) LYCÉE M ONTAIGNE 46 ©Fradin Patrick – http://mpsi.tuxfamily.org


Primitives Chapitre 5 : Généralités sur les fonctions

À retenir
- Si f est dérivable en t 0 alors f est continue en t 0 (réciproque fausse).

NE
- Une fonction dérivable f sur un intervalle I est constante si et seulement si sa dérivée est nulle sur I.
- Si f est dérivable sur un intervalle I et f 0 > 0 (respectivement f 0 6 0 alors f est croissante sur I
(respectivement décroissante), et si de plus f 0 ne s’annule pas, alors la monotonie de f est stricte.
- La somme, le produit et la composée de deux fonctions dérivables sont dérivables. Si f est dérivable
et ne s’annule pas alors 1f est dérivable (théorèmes généraux de la continuité).
- Formules de dérivation pour les opérations algébriques (λ ∈ C) : ³ ´ 0 −g 0
1
( f + g )0 = f 0 + g 0 ; (λ f )0 = λ f 0 ; ( f g )0 = f 0 g + f g 0 ; g = g2
- Dérivation d’une composée : ( f ◦ g )0 = g 0 × f 0 ◦ g (ou encore [ f (g )]0 = g 0 × f (g )). 0

1 −i
t est dérivable sur R et f (t ) = (1+i t )2 .
0
ZExemple : La fonction f définie par f (t ) = 1+i

AIG
Remarque 5.1 :
– On remarquera que les formules de dérivation sont les mêmes pour les fonctions à valeurs complexes que
pour les fonctions à valeurs réelles.
f 0 f 0g −f g 0
³ ´
f
– Si f et g sont dérivables et que g ne s’annule pas, alors g est dérivable et g = g2
.

Théorème 5.1
Soit f : I 7→ C une fonction dérivable, alors la fonction t → e f (t ) est dérivable sur I (exponentielle
complexe de f (t )) et : ³ ´ 0
e f (t ) = f 0 (t )e f (t )

Preuve : On pose f (t ) = a(t ) + i b(t ) sous forme algébrique. e f (t ) = e a(t ) × [cos(b(t )) + i sin(b(t ))], la partie réelle est
donc g (t ) = e a(t ) cos(b(t )) et sa partie imaginaire est h(t ) = e a(t ) sin(b(t )). Ces fonctions sont dérivables sur I, donc e f
est dérivable sur I et sa dérivée est g 0 (t ) + i h 0 (t ), il suffit alors de comparer g 0 (t ) + i h 0 (t ) avec f 0 (t )e f (t ) pour constater
NT
l’égalité. 

III PRIMITIVES

1) Généralités

Définition 5.7
Soit F, f : I → C deux fonctions, on dit que F est une primitive de f sur I lorsque F est dérivable sur I et
F0 = f .

1 t
FExercice 5.4 Calculer une primitive de f (t ) = 1+i t et de g (t ) = e cos(t ).
MO

Théorème 5.2
Si F et G sont deux primitives de la fonction f sur l’intervalle I, alors il existe une constante α ∈ C telle
que : ∀ t ∈ I, F(t ) = G(t ) + α.

Preuve : On a F0 = G0 = f , d’où (F − G)0 = 0 la fonction nulle, donc Re(F − G)0 = Im(F − G)0 = 0 sur I, ce qui entraîne
que les fonctions Re(F − G) et Im(F − G) sont constantes sur l’intervalle I. Il existe donc a et b deux réels tels que
∀ t ∈ I, Re(F(t ) − G(t )) = a et Im(F(t ) − G(t )) = b, on en déduit que ∀ t ∈ I, F(t ) = G(t ) + α avec α = a + i b. 
Remarque 5.2 :
– Si f admet des primitives sur l’intervalle I, si t 0 ∈ I et a ∈ C, alors il existe une unique primitive F de f sur
I telle que F(t 0 ) = a.
– Si U désigne une primitive sur I de la fonction u : I → R et V une primitive de v : I → R, avec u et v
continues, alors la fonction U + i V est une primitive de la fonction complexe u + i v.
Le théorème clé que nous établirons dans le chapitre sur l’intégration dit la chose suivante :

MPSI3 (2015-16) LYCÉE M ONTAIGNE 47 ©Fradin Patrick – http://mpsi.tuxfamily.org


Primitives Chapitre 5 : Généralités sur les fonctions

À retenir
Toute fonction f : I → C continue sur un intervalle I, admet des primitives sur cet intervalle. Plus

NE
précisément, si x 0 ∈ I et λ ∈ C, alors l’unique primitive F de f sur I qui vérifie F(x 0 ) = λ est la fonction
Rx
F : I → C définie par F(x) = λ + x0 f (t ) d t .

2) Primitives usuelles

Fonction Primitive
α+1
u0uα u
α+1 si α 6= −1, ln(|u|) sinon

u0e u eu

u 0 cos(u) sin(u)

AIG
u 0 sin(u) − cos(u)
0
u
u 0 (1 + t an 2 (u)) = cos2 (u)
tan(u)

u 0 ch(u) sh(u)

u 0 sh(u) ch(u)
u0
u 0 (1 − t h 2 (u)) = th(u)
ch2 (u)

u 0 tan(u) − ln(| cos(u)|)

u 0 tan(u)2 tan(u) − u
0
u
1+u 2
arctan(u)
0
pu arcsin(u)
NT
1−u 2 q¯
u0
ln( ¯ 1+u ¯)
¯
1−u 2 1−u

3) Calculs d’intégrales et de primitives


On rappelle les propriétés, soient f , g : I → C continues sur l’intervalle I, et a, b ∈ I :
Z a Z b Z a
a) f (t ) d t = − f (t ) d t et f (t ) d t = 0.
b a a
Z a Z b Z b
b) [α f (t ) + βg (t )] d t = α f (t ) d t + β g (t ) d t , c’est la linéarité de l’intégrale. On en déduit en
b a a Rb Rb Rb
particulier que si f = u + i v (forme algébrique de f ), alors a f (t ) d t = a u(t ) d t + i a v(t ) d t .
Z b
MO

c) Si 0 6 f sur [a; b] (avec a 6 b), alors 0 6 f (t ) d t , c’est la positivité de l’intégrale. On en déduit que
Z b a Z b
si f 6 g sur [a; b] (avec a 6 b) alors f (t ) d t 6 g (t ) d t .
a a
Z b Z c Z b
d) Si a, b, c sont dans I, alors f (t ) d t = f (t ) d t + f (t ) d t , c’est la relation de Chasles pour
a a c
l’intégrale.
b b
¯Z ¯ Z
¯ ¯
e) Si a 6 b : ¯¯ f (t ) d t ¯¯ 6 | f (t )| d t , c’est la majoration en module de l’intégrale.
a a
Il découle du théorème fondamental, que si F est une primitive de f sur l’intervalle I, alors pour tous
réels x et a de I, on a : Z x
F(x) = F(a) + f (t ) d t
a
Z x
En particulier la fonction x 7→ f (t ) d t est l’unique primitive de f sur I qui s’annule pour x = a. Ainsi,
a
calculer une intégrale peut permettre de trouver des primitives.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 48 ©Fradin Patrick – http://mpsi.tuxfamily.org


Primitives Chapitre 5 : Généralités sur les fonctions

En évaluant en x = b on obtient :
Z b

NE
f (t ) d t = F(b) − F(a) = [F(t )]ba
a

Les deux outils fondamentaux pour le calcul d’intégrales, sont : le théorème de l’intégration par parties et
le théorème du changement de variable dont voici les énoncés :

Théorème 5.3 (IPP)


Si f et g sont dérivables sur I (à valeurs complexes) avec leur dérivée continue, alors on a la formule
Z b Z b
¤b
f 0 (t )g (t ) d t = f (t )g (t ) a − f (t )g 0 (t ) d t .
£
d’intégration par parties (IPP) :
a a

Preuve : Celle-ci est simple et laissée en exercice. 

AIG
Théorème 5.4 (changement de variable)
Soit f : I → C une fonction continue, u : [a; b] → I une fonction dérivable à dérivée continue, on a :
Z b Z u(b)
f (u(t ))u 0 (t ) d t = f (x)d x
a u(a)

Z b
Preuve : Soit F une primitive de f sur I, alors F ◦ u est une primitive de u 0 f (u) et donc f (u(t ))u 0 (t ) d t = [F(u)]ba =
Z u(b) a

F(u(b)) − F(u(a)) = f (x) d x. 


u(a)

Dans la pratique on rédige ainsi : posons x = u(t ) alors dd xt = u 0 (t ) d’où d x = u 0 (t )d t et f (u(t )) = f (x).
Pour les bornes : lorsque t = a on a x = u(a) et pour t = b on a x = u(b), puis on remplace dans l’intégrale, ce
Z b Z u(b)
0
qui donne : f (u(t ))u (t ) d t = f (x)d x.
NT
a u(a)
ZExemples : Z 1p
– Calculer 1 − x 2 d x. On pose x = sin(t ) avec t ∈ [0; π2 ], alors d x = cos(t )d t , pour t = 0 on a x = 0 et
0
π
pour t = 2 on a x = 1, d’où :
Z 1p Z π/2 q
2
1−x dx = 1 − sin2 (t ) cos(t ) d t
0 0
Z π/2
= cos2 (t ) d t
0
Z π/2
1 + cos(2t )
= dt
0 2
t sin(2t ) π/2
MO

· ¸
= +
2 4 0
π
=
4
Z x
– Calculer une primitive de la fonction ln sur ]0; +∞[. Une primitive est (par exemple) x 7→ ln(t ) d t
1
pour x > 0, cette intégrale se calcule par parties en posant f 0 (t ) = 1 et g (t ) = ln(t ) :
Z x Z x
ln(t ) d t = [t ln(t )]1x − 1dt
1 1
= x ln(x) − (x − 1) = x ln(x) − x − 1

donc une primitive de la fonction ln sur ]0; +∞[ est la fonction x 7→ x ln(x) − x (on peut évidemment
ajouter n’importe quelle constante).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 49 ©Fradin Patrick – http://mpsi.tuxfamily.org


Primitives Chapitre 5 : Généralités sur les fonctions

4) Primitives de certaines fractions rationnelles


1
n avec a ∈ R et n ∈ N .

– Fractions du type f (x) = (x−a)

NE
Sur l’intervalle I =] − ∞; a[ (ou ]a; +∞[), f est continue et admet donc des primitives. Si n = 1 alors une
−1
primitive est F(x) = ln(|x − a|) et si n > 2, une primitive est F(x) = (n−1)(x−a) n−1 .
αx+β
– Fractions du type f (x) = (x−a)(x−b) avec α, β, a et b des réels tels que a 6= b .

À retenir
αx+β c d
Il existe c et d réels tels que (x−a)(x−b) = x−a + x−b , ce qui nous ramène au cas précédent.

En effet : en réduisant au(même dénominateur, on a au numérateur (c + d )x − (bc + ad ), il suffit donc


c +d = α c +d = α
(
de choisir c et d tels que ce qui équivaut à et on voit que ce système
bc + ad = −β (b − a)d = β + bα

AIG
a une unique solution puisque a 6= b.
– Fractions du type f (x) = x 2ax+b
+px+q
avec a, b, p q des réels tels que p 2 − 4q < 0. Le dénominateur n’a pas
de racine réelle, f est donc définie sur R. La méthode est la suivante :

À retenir
• on fait apparaître la dérivée du trinôme x 2 + px + q au numérateur et on compense les x en
multipliant par un facteur adéquat, puis on compense les constantes en ajoutant ce qu’il faut,
ce qui donne :
ax + b a 2x + p ap 1
= + (b − ) .
x 2 + px + q 2 x 2 + px + q 2 x 2 + px + q
0
La première de ces deux fractions est facile à intégrer puisqu’elle est du type uu .
• Pour la deuxième fraction : on met le trinôme x 2 + px + q sous forme canonique afin de mettre
u0
la fraction sous la forme : α 1+u 2 où α est une constante et u est une fonction de x, cette fonction
NT
s’intègre en α arctan(u).

x−2
Par exemple, soit f (x) = x 2 −x+1
:

x −2 1 2x − 1 3 1
f (x) = = −
x2 − x + 1 2 x2 − x + 1 2 x2 − x + 1
et : p
1 1 2 2/ 3
= =p ³ .
x 2 − x + 1 (x − 12 )2 + 34
´2
3 2x−1
p +1
3
1
p
On en déduit qu’une primitive de f sur R est F : x 7→ 2
2 ln(x − x + 1) − 3 arctan( 2x−1
p ).
MO

MPSI3 (2015-16) LYCÉE M ONTAIGNE 50 ©Fradin Patrick – http://mpsi.tuxfamily.org


NE
Chapitre 6

Équations différentielles

AIG
Sommaire
I Équations différentielles linéaires du premier ordre . . . . . . . . . . . . . . . . . . . . . . . 51
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2) Étude de l’équation homogène . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3) Étude de l’équation avec second membre . . . . . . . . . . . . . . . . . . . . . . . . . . 53
II Équations différentielles linéaires du second ordre . . . . . . . . . . . . . . . . . . . . . . . . 54
1) Étude de l’équation homogène . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2) Étude de l’équation avec second membre . . . . . . . . . . . . . . . . . . . . . . . . . . 55
III Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
1) Équations à variables séparées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2) Équation de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3) Méthode d’Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
NT
Dans ce chapitre, la lettre K désigne l’ensemble R ou bien l’ensemble C (K = R ou K = C), et les fonctions
considérées sont définies sur un intervalle I de R.

I ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES DU PREMIER ORDRE

Une équation différentielle est une équation dont l’inconnue est une fonction y : I → K intervenant sous
forme dérivée (première ou supérieure). On rencontre ce genre d’équations en mécanique (lois de Newton),
en électricité (circuits RLC), ... etc.

1) Définitions

Définition 6.1
MO

Une équation différentielle scalaire linéaire d’ordre 1 est une équation différentielle de la forme :

(E) : ∀t ∈ I, a(t )y 0 (t ) + b(t )y(t ) = c(t ), notée plus simplement : a(t )y 0 + b(t )y = c(t )

où a, b, c : I → K sont trois fonctions définies continues sur un intervalle I de R et y : I → K une


fonction dérivable inconnue. On suppose de plus que la fonction a n’est pas la fonction nulle. On
appelle équation homogène associée à (E) l’équation différentielle :

(H) : ∀t ∈ I, a(t )y 0 + b(t )y = 0.

La fonction c est souvent appelée second membre de l’équation (E).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 51 ©Fradin Patrick – http://mpsi.tuxfamily.org


Équations différentielles linéaires du premier ordre Chapitre 6 : Équations différentielles

Dans la pratique on a souvent en plus une condition sur la fonction inconnue y du type : y(t 0 ) = α où t 0
et α sont des données. Cette condition est appelée condition initiale, et on appelle problème de Cauchy 1 le
système :

NE
(
∀t ∈ I, a(t )y 0 + b(t )y = c(t )
.
y(t 0 ) = α

ZExemple : L’équation différentielle : y 0 − y = 0 avec y(0) = 1 est utilisée en terminale pour introduire l’expo-
nentielle.

2) Étude de l’équation homogène

Théorème 6.1
Soit S I (H) l’ensemble des solutions sur I de l’équation homogène (H), alors on a les propriétés :
– 0 ∈ S I (H) (la fonction nulle est dans S I (H)).

AIG
– ∀ f , g ∈ S I (H), f + g ∈ S I (H).
– ∀ α ∈ K, ∀ f ∈ S I (H), α f ∈ S I (H).

Preuve : Celle-ci est simple et laissée en exercice. 

Résolution de (H)
On se place sur un intervalle I où la fonction a ne s’annule pas, on a alors ∀ t ∈ I, y 0 = − ba y. Soit F une
primitive de la fonction − ba sur I, on a alors :

d ¡ −F ¢
y ∈ S I (H) ⇐⇒ y 0 = F0 y ⇐⇒ y 0 e −F − F0 e −F y = 0 ⇐⇒ ye = 0 ⇐⇒ ∃ λ ∈ K, ∀ t ∈ I, y(t ) = λe F(t ) .
dt
On peut donc énoncer :
NT
Théorème 6.2
Lorsque la fonction a ne s’annule pas sur l’intervalle I alors les solutions de (H) sont les fonctions :

y : t 7→ λe F(t ) ,

où F désigne une primitive de la fonction − ba sur I, et λ un élément quelconque de K.

À retenir
Si la fonction a ne s’annule pas sur I :
- Le problème de Cauchy pour l’équation (H) a une unique solution. Car la condition initiale détermine
complètement la constante λ.
MO

- L’unique solution sur I qui s’annule en un point donné est la fonction nulle. Par conséquent toutes
les autres solutions ne s’annulent jamais sur I, lorsque K = R elles ont toutes un signe constant (car
elles sont continues).

ZExemples :
– y 0 + ωy = 0 où ω ∈ K est une constante : les solutions sont les fonctions définies sur R par y(t ) = λe −ωt
avec λ ∈ K quelconque.
– t y 0 = y sur R : on se place d’abord sur I =]0; +∞[, sur cet intervalle on a y 0 = 1t y d’où y(t ) = αt (α ∈ K
quelconque). Puis on se place sur J =]−∞; 0[, sur cet intervalle on a encore y 0 = 1t y d’où y(t ) = λ|t | = βt
(β = −λ ∈ K quelconque). Soit maintenant y une solution sur R, alors y est en particulier solution
sur I donc il existe α tel que ∀ t > 0, y(t ) = αt , de même y est solution sur J, donc il existe β tel que
∀t < 0, y(t ) = βt , mais y doit être dérivable en 0, ce qui entraîne α = β, finalement ∀t ∈ R, y(t ) = αt . On
vérifie pour terminer que cette fonction est bien solution.

1. CAUCHY Augustin-Louis (1789 – 1857) : un des plus grands mathématiciens français.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 52 ©Fradin Patrick – http://mpsi.tuxfamily.org


Équations différentielles linéaires du premier ordre Chapitre 6 : Équations différentielles

3) Étude de l’équation avec second membre


On revient au cas général : (E) : a(t )y 0 + b(t )y = c(t ).

NE
Théorème 6.3 (structure des solutions)
Si l’ensemble des solutions de (E) n’est pas vide, et si y 1 est une solution de (E), alors les solutions
de (E) sont les fonctions s’écrivant comme somme de y 1 avec une solution de (H), c’est à dire les
fonctions de la forme : y : t 7→ y 1 (t ) + y H (t ) avec y H solution quelconque de (H).

Preuve : Soit y une solution de (E), posons f = y − y 1 , alors a f 0 + b f = a y 0 − a y 10 + b y − b y 1 = c − c = 0 donc f ∈ S I (H).


Réciproquement, soit f ∈ S I (H) et soit y = y 1 + f , alors a y 0 + b y = a y 10 + a f + b y 1 + b f = 0 + c = c, donc y ∈ S I (E). 
Pour déterminer toutes les solutions de (E) on est donc ramené à résoudre l’équation homogène puis à
trouver une solution particulière de (E).

AIG
Recherche d’une solution particulière : on se place de nouveau sur un intervalle I où la fonction a ne
s’annule pas et on applique la méthode de la variation de la constante :
Soit F une primitive de − ba sur I, on cherche une solution particulière sous la forme y = λe F où λ est une
fonction dérivable sur I. La fonction y est solution de (E) si et seulement si a[λ0 e F + λF0 e F ] + bλe F = c, ce qui
équivaut à aλ0 e F + λ[aF0 e F + be F ] = c ou encore λ0 = ac e −F , car e F est solution de (H). Donc λ doit être une
primitive de la fonction ac e −F , celle-ci est continue sur l’intervalle I, elle admet donc des primitives sur cet I,
ce qui prouve l’existence de λ. Une solution de (E) est donc :
Z t c(s) −F(s)
Z t b(s)
F
y 1 = λe avec λ(t ) = e d s et F(t ) = − d s,
t0 a(s) t0 a(s)

et les solutions de (E) sont les fonctions :

y = y 1 + αe F avec α ∈ K quelconque [et y(t 0 ) = α].


NT
À retenir
Lorsque la fonction a ne s’annule pas sur l’intervalle I, le problème de Cauchy a une unique solution.

ZExemples :
– t y 0 + y = sin(t ) sur R : sur l’intervalle I =]0; +∞[ les solutions de (H) sont les fonctions y = λt avec λ ∈ K
quelconque. On cherche une solution particulière de la forme y = λt avec λ dérivable sur I ce qui donne
λ0 = sin(t ), une solution particulière est donc y 1 = − cos(t )
t , et les solutions de (E) sur I sont les fonctions
y = λ−cos(t
t
)
avec λ ∈ K quelconque. On se place ensuite sur l’intervalle J =] − ∞; 0[ où le raisonnement
est le même. On vérifie ensuite que la seule solution sur R est la fonction :
MO

1 − cos(t ) 1
y : t 7→ avec y(0) = 0 et y 0 (0) = .
t 2

– cos(t )y 0 −sin(t )y = t 2 sur I =]− π2 ; π2 [ : les solutions de l’équation homogène sont les fonctions y = λ
cos(t )
λ
avec λ ∈ K quelconque. On cherche une solution particulière sous la forme y = cos(t ) avec λ dérivable
2 t3
sur I, ce qui donne λ = t . On peut donc prendre comme solution particulière y 1 =
0
3 cos(t ) , et les
solutions de (E) sont les fonctions :

λ+ t3
y : t 7→ avec λ ∈ K.
3 cos(t )

MPSI3 (2015-16) LYCÉE M ONTAIGNE 53 ©Fradin Patrick – http://mpsi.tuxfamily.org


Équations différentielles linéaires du second ordre Chapitre 6 : Équations différentielles

Remarque 6.1 – Résoudre de telles équations différentielles revient donc à calculer des intégrales, d’où les
expressions que l’on rencontre parfois comme : « intégrer une équation différentielle », ou « solution intégrale
d’une équation différentielle ».

NE
II ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES DU SECOND ORDRE

On s’intéressera uniquement au cas où les coefficients sont des constantes, c’est à dire aux équations
différentielles de la forme : a y 00 + b y 0 + c y = f où a, b, c ∈ K, a 6= 0, et f : I → K une fonction continue (second
membre). L’équation homogène associée est (H) : a y 00 + b y0 + c y = 0.
a y 00 + b y 0 + c y = f


Pour de telles équations, le problème de Cauchy est : y(t 0 ) = α , où t 0 , α et β sont des don-

 y 0 (t ) = β

0
nées.

AIG
1) Étude de l’équation homogène

Théorème 6.4
Soit S I (H) l’ensemble des solutions sur I de l’équation homogène (H), alors on a les propriétés :
– 0 ∈ S I (H) (fonction nulle).
– ∀ f , g ∈ S I (H), f + g ∈ S I (H).
– ∀ α ∈ K, ∀ f ∈ S I (H), α f ∈ S I (H).

Preuve : Celle-ci est simple et laissée en exercice. 

Résolution de (H)
On cherche les solutions de la forme y = e λt avec λ ∈ K, on obtient alors y ∈ S R (H) ⇐⇒ aλ2 + bλ + c = 0, λ
doit donc être solution de l’équation ax 2 + bx + c = 0, que l’on appelle équation caractéristique de (H). Il
NT
faut donc distinguer plusieurs cas :
– K=C:
• Si ∆ = b 2 − 4ac 6= 0 : il y a deux solutions distinctes à l’équation caractéristique : λ1 et λ2 . On
y
pose φ1 (t ) = e λ1 t . Soit y deux fois dérivable, posons z = φ , on a alors y = zφ1 , en remplaçant dans
1
l’équation on obtient que y est solution de (H) si et seulement si az 00 +(2aλ1 +b)z 0 +(aλ21 +bλ1 +c)z =
0, c’est à dire az 00 + (2aλ1 + b)z 0 = 0 car λ1 est racine de l’équation caractéristique. En posant Z = z 0
on a une équation différentielle linéaire homogène en Z, dont les solutions sont Z(t ) = z 0 (t ) =
γe −(2λ1 +b/a)t = γe (λ2 −λ1 )t , ce qui équivaut à z(t ) = βe (λ2 −λ1 )t + α, et donc y(t ) = αe λ1 t + βe λ2 t avec
α, β ∈ C des constantes quelconques.
• Si ∆ = b 2 −4ac = 0 : alors il y a une solution double à l’équation caractéristique : λ. Posons φ1 (t ) = e λt
y
et z = φ1 i.e. y = zφ1 . Le calcul précédent montre que y ∈ S(H) ⇐⇒ z 00 = 0 c’est à dire il existe α, β ∈ C
tels que z(t ) = βt + α, ce qui donne y(t ) = (α + βt )e λt .
MO

– K = R (a, b, c ∈ R, avec a 6= 0) : la démarche est la même, on cherche les solutions de l’équation


caractéristique, d’où la discussion :
• Si ∆ > 0 : deux racines distinctes λ1 et λ2 , comme dans le cas complexe, on montre que les solutions
de H sont les fonctions y : t 7→ αe λ1 t + βe λ2 t avec α, β ∈ R.
• Si ∆ = 0 : une racine double λ, comme dans le cas complexe, on montre que les solutions de H sont
les fonctions y : t 7→ (α + βt )e λt avec α, β ∈ R.
• Si ∆ < 0 : deux racines complexes non réelles conjuguées λ = r + i ω et λ. Les solutions complexes
de (H) sont les fonctions y(t ) = αe λt + βe λt avec α, β ∈ C, une telle solution est réelle ssi y(t ) = y(t ) =
αe λt + βe λt , ce qui équivaut à α = β. Les solutions réelles sont donc les fonctions y(t ) = αe λt + αe λt =
2Re(αe λt ) = e r t [u cos(ωt ) + v sin(ωt )], avec u = Re(α)/2 et v = −Im(α)/2 réels quelconques (car α est
un complexe quelconque). On a encore que les solutions de (H) sont les fonctions y = uφ1 + vφ2
avec u, v ∈ R et φ1 (t ) = e r t cos(ωt ) et φ2 (t ) = e r t sin(ωt ).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 54 ©Fradin Patrick – http://mpsi.tuxfamily.org


Équations différentielles linéaires du second ordre Chapitre 6 : Équations différentielles

À retenir : solutions de l’équation homogène


Soit x 2 + ax + b = 0 l’équation caractéristique et ∆ = b 2 − 4ac son discriminant :

NE
– Si K = C (a, b et c sont complexes avec a 6= 0) :
• Si ∆ 6= 0, l’équation caractéristique à deux solutions distinctes : λ1 et λ2 . Les solutions sont les
fonctions : t 7→ αe λ1 t + βe λ2 t avec α, β ∈ C.
• Si ∆ = 0, l’équation caractéristique à une solution double : λ1 = λ2 . Les solutions sont les fonc-
tions : t 7→ (α + βt )e λ1 t avec α, β ∈ C.
– Si K = R (a, b et c sont réels avec a 6= 0) :
• Si ∆ > 0, l’équation caractéristique à deux solutions distinctes : λ1 et λ2 . Les solutions sont les
fonctions : t 7→ αe λ1 t + βe λ2 t avec α, β ∈ R.
• Si ∆ = 0, l’équation caractéristique à une solution double : λ1 = λ2 . Les solutions sont les fonc-
tions : t 7→ (α + βt )e λ1 t avec α, β ∈ R.
• Si ∆ < 0, l’équation caractéristique possède deux solutions complexes non réelles et conjuguées :
λ et λ, en posant λ = r + i ω (forme algébrique), les solutions sont les fonctions :

AIG
t 7→ (α cos(ωt ) + β sin(ωt ))e r t = A cos(ωt + ϕ)e r t avec α, β, A, ϕ ∈ R

Théorème 6.5
Soient a, b, c ∈ R avec a 6= 0, les solutions réelles de l’équation a y 00 +b y 0 +c y = 0 sont les parties réelles
des solutions complexes.

Preuve : Celle-ci est simple et laissée en exercice. 

2) Étude de l’équation avec second membre


NT
Théorème 6.6 (structure des solutions)
Si f : I → K est une fonction continue, alors l’équation (E) : a y 00 + b y 0 + c y = f admet des solutions
sur I. Si y 1 est une solution de (E), alors les solutions de (E) sont les fonctions définies sur I par
y : t 7→ y 1 (t ) + y H (t ) avec y H solution quelconque de (H). De plus, le problème de Cauchy a une
unique solution.

Preuve : L’existence dans le cas général d’une solution particulière est admise. Soit y 1 une solution de (E), soit g ∈ S I (H),
il est facile de vérifier que y 1 + g est solution de (E), réciproquement, si g est solution de (E), il est facile de vérifier
que g − y 1 est solution de (H). Les solutions au problème de Cauchy sont les fonctions de la forme y = y 1 + αφ1 + βφ2
vérifiant y(t 0 ) = c 1 et y 0 (t 0 ) = c 2 . Ce qui donne le système :
(
αφ1 (t 0 ) + βφ2 (t 0 ) = c 1 − y 1 (t 0 )
.
MO

αφ01 (t 0 ) + βφ02 (t 0 ) = c 2 − y 10 (t 0 )

Lorsque φ1 (t ) = e λ1 t et φ2 (t ) = e λ2 t avec λ1 et λ2 les racines distinctes de l’équation caractéristique, le déterminant du


système est D = (λ2 − λ1 )e (λ1 +λ2 )t0 6= 0. Lorsque les deux racines sont confondues, alors φ1 (t ) = e λt et φ2 (t ) = t φ1 (t ),
dans ce cas, le déterminant du système est D = e 2λt0 6= 0, dans les deux cas, le système a une unique solution. 
Remarque 6.2 – Dans le cas réel avec ∆ < 0, l’unique solution complexe au problème de Cauchy est une
solution réelle.
Dans la suite on s’intéressera seulement au cas où le second membre est de la forme f (t ) = P(t )e λt où P
est une fonction polynomiale à coefficients dans K, et λ ∈ K.

Théorème 6.7
L’équation a y 00 + b y 0 + c y = P(t )e λt admet une solution particulière de la forme y(t ) = Q(t )e λt où Q
est une fonction polynomiale.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 55 ©Fradin Patrick – http://mpsi.tuxfamily.org


Compléments Chapitre 6 : Équations différentielles

Preuve : On pose y(t ) = Q(t )e λt , y est solution si et seulement si aQ00 (t ) + (2aλ + b)Q0 (t ) + (aλ2 + bλ + c)Q(t ) = P(t ),
d’où la discussion :
– Si λ n’est pas racine de l’équation caractéristique : on cherche un polynôme Q de même degré que P, par la

NE
méthode des coefficients indéterminés et identification ce qui donne un système, on admet à ce stade qu’il y a
toujours au moins une solution à ce système.
– Si λ est solution de l’équation caractéristique et 2aλ + b 6= 0 : on cherche Q0 de même degré que P par la méthode
des coefficients indéterminés et identification, puis on prend une primitive.
– Si λ est solution de l’équation caractéristique et 2aλ+b = 0 (i.e. λ est racine double de l’équation caractéristique) :
on a aQ00 = P d’où Q00 = a1 P, on en déduit Q’ (en prenant une primitive) puis Q (en reprenant une primitive).


Théorème 6.8
• Lorsque le second membre est de la forme f (t ) = ni=1 Pi (t )e λi t , on cherche une solution particulière
P

y i à l’équation a y 00 + b y 0 + c y = Pi (t )e λi t pour i allant de 1 à n, la fonction y = y 1 + · · · + y n est une


solution particulière de a y 00 + b y 0 + c y = f , c’est le principe de superposition.

AIG
• Si a, b, c sont réels et si y 0 est solution de a y 00 + b y 0 + c y = f (t ) alors Re(y 0 ) est solution de a y 00 +
b y 0 + c y = Re( f ) et Im(y 0 ) est solution de a y 00 + b y 0 + c y = Im( f )

Preuve : Celle-ci est simple et laissée en exercice. 


ZExemples :
– y 00 + ω2 y = t 2 + 1 avec ω ∈ R∗ , ici λ = 0, cherchons une solution particulière de la forme y 1 = Q
(polynôme), on obtient en remplaçant : Q00 + ω2 Q = t 2 + 1, on cherche donc Q sous la forme Q(t ) =
at 2 +bt +c, ce qui donne par identification : a = ω12 , b = 0, et c = ωω−2
2
4 . Les solutions réelles de l’équation

homogène sont les fonctions y(t ) = α cos(ωt ) + β sin(ωt ), (α, β ∈ R), et les solutions de l’équation sont
donc les fonctions : y(t ) = ωt 2 + ωω−2
2 2
4 + α cos(ωt ) + β sin(ωt ).

– y − 4y + 4y = 3(1 + sin(t ) + e ) sur R : l’équation caractéristique est x 2 − 4x + 4 = 0 = (x − 2)2 , il y


00 0 2t

a une solution double 2, les solutions de l’équation homogène sont les fonctions y(t ) = (α + βt )e 2t .
Cherchons une solution particulière en prenant comme second membre :
NT
– f 1 (t ) = 3 : il y a une solution particulière constante y 1 (t ) = 34 .
– f 2 (t ) = 3e 2t : on chercher une solution particulière de la forme y = Q(t )e 2t , ce qui donne Q00 (t ) = 3 et
donc on peut prendre y 2 (t ) = 32 t 2 e 2t .
– f 3 (t ) = 3 sin(t ) : on prend en fait f 3 (t ) = 3e i t puis on prendra la partie imaginaire d’une solution
particulière. On cherche y sous la forme y(t ) = Q(t )e i t ce qui donne Q00 (t )+(2i −4)Q0 (t )+(3−4i )Q(t ) = 3,
3
d’où Q(t ) = 3−4i = 3 3+4i 3+4i i t 9 12
25 . Une solution particulière est donc y 3 (t ) = Im(3 25 e ) = 25 sin(t ) + 25 cos(t ).
Les solutions sont donc les fonctions :
3 9 12 3
y(t ) = + sin(t ) + cos(t ) + (α + βt + t 2 )e 2t .
4 25 25 2

III COMPLÉMENTS
MO

1) Équations à variables séparées

Définition 6.2
Une équation différentielle à variables séparées est une équation de la forme : y 0 b(y) = a(t ) où a, b
sont deux fonctions continues données.

À retenir : méthode de résolution


Si a est continue sur un intervalle I et b sur un intervalle J, on peut considérer une primitive A de
a sur I et une primitive B de b sur J, dans ce cas l’équation équivaut à : ddt [B(y)] = A0 (t ), et donc
B(y) = A(t ) + λ où λ désigne une constante. On regarde ensuite si la fonction B est localement ou
globalement bijective, auquel cas on pourra écrire y(t ) = B−1 (A(t ) + λ).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 56 ©Fradin Patrick – http://mpsi.tuxfamily.org


Compléments Chapitre 6 : Équations différentielles

ZExemple : t 3 y 0 + y 3 = 0 avec y(1) = −1, y ne doit pas être constamment nulle, si une telle solution existe, il doit
exister un intervalle I sur lequel y ne s’annule pas, un tel intervalle ne peut pas contenir 0 et sur I l’équation
y0
= −1 , c’est une équation à variable séparée. Elle est équivalente à : − y12 = t12 + λ, ce

NE
est équivalente à : y3 t3
2
t
qui donne y 2 = − 1+λt 2 , on voit que la condition initiale donne la constante λ = −2. Comme y ne s’annule
q
2
pas sur I, y garde un signe constant et donc ∀ t ∈ I, y(t ) = − 2tt2 −1 . Cette solution est définie sur l’intervalle
] p1 ; +∞[.
2

2) Équation de Bernoulli

Définition 6.3
Une équation de Bernoulli 2 est une équation différentielle de la forme y 0 = a(t )y λ + b(t )y où a et b
sont deux fonctions continues sur un intervalle I, et λ ∈ R∗ \ {1}.

AIG
À retenir : méthode de résolution
La fonction nulle est solution. S’il existe une solution y non constamment nulle, alors il doit exister
un intervalle J sur lequel y ne s’annule pas, sur un tel intervalle y est de signe constant, on peut donc
faire le changement de fonction y = εz α avec ε = ±1 suivant le signe de y, l’équation devient alors :
αz 0 = b(t )z + a(t )z α(λ−1)+1 , en prenant α = 1−λ
ordre, on sait donc la résoudre.

1
1
, on a une équation différentielle linéaire du premier

ZExemple : t 2 y 0 + y + y 2 = 0 avec y(1) = 1 : y est une solution non constamment nulle, on pose z =
− 1t
1
y ce qui
donne : z = 0
t2
z + t12 . Les solutions de l’équation homogène sont les fonctions z(t ) = λe et une solution
− 1t
particulière est z 1 (t ) = −1, les solutions générales sont donc les fonctions z(t ) = −1 + λe , la condition
NT
initiale donne λ = 2e d’où y(t ) = 1−11 . Cette solution est définie sur l’intervalle ] 1+ln(2)
1
; +∞[.
2e t −1

3) Méthode d’Euler
On ne dispose pas de méthode générale pour résoudre n’importe quelle équation différentielle.
Même pour des équations différentielles linéaires il se peut que les solutions ne s’expriment pas à l’aide
2 2
des fonctions usuelles, par exemple : y 0 = e −t y ⇐⇒ y : t 7→ λe F(t ) avec F une primitive de t 7→ e −t , on
sait qu’une telle primitive existe sur R mais on peut démontrer qu’il est impossible de l’exprimer avec les
fonctions usuelles.
Pour des applications numériques (par exemple dans les sciences appliquées), la formule qui donne les
solutions n’est donc pas toujours satisfaisante. On a alors imaginé des méthodes de calculs approchés des
solutions d’équations différentielles, la plus simple d’entre elles étant la méthode d’Euler :
MO

Considérons l’équation différentielle y 0 (t ) = f (t , y(t )) où f est une fonction de deux variables. On cherche
une solution approchée vérifiant la condition initiale y(t 0 ) = α. On considère un nombre h assez proche de 0
(par exemple h = 10−6 ), ce nombre est appelé le pas de la méthode, puis on construit deux suites (t n ) et (y n )
où y n est censé être une valeur approchée de y(t n ), dans la méthode d’Euler on pose :
(
t n+1 = tn + h
y 0 = α, et ∀n ∈ N,
y n+1 = y n + h × f (t n , y n )

On peut ensuite représenter dans un repère les points de coordonnées (t n , y n ) ce qui donnera une
approximation de la courbe représentative de la solution y.
Cette méthode repose sur le principe suivant : lorsque h est proche de 0, on peut approcher la fonction y
sur l’intervalle [t n , t n +h] par la tangente à C y au point d’abscisse t n , c’est à dire y(t ) ≈ y 0 (t n )[t −t n ]+ y(t n ). Par
conséquent y(t n + h) ≈ y(t n ) + h × y 0 (t n ), or y(t n ) est approché par y n et y 0 (t n ) = f (t n , y(t n )) donc y 0 (t n ) peut

2. BERNOULLI Jakob (1654 – 1705) : c’est le plus illustre d’une grande famille de mathématiciens suisses.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 57 ©Fradin Patrick – http://mpsi.tuxfamily.org


Compléments Chapitre 6 : Équations différentielles

être approché par f (t n , y n ) et finalement y(t n+1 ) ≈ y n + h × f (t n , y n ) on pose donc y n+1 = y n + h × f (t n , y n )


et c’est une valeur approchée de y(t n+1 ).
La théorie montre que sous certaines hypothèses il existe une constante K telle que :

NE
|y n − y(t n )| 6 K × |h|

pas h = 0.4 tn+1 = tn10+ 0.4 y 0 = f (t, y) = y

ecart max =2.012 yn+1 = yn + 0.4f (tn , yn ) t0 = 0 y0 = 1


tn yn 9
0 1
0.4 1.4
8
0.8 1.96
y6
1.2 2.744
1.6 3.842 7

AIG
2 5.378
2.4 7.53 6
2.8 10.541
y5
5

y4 4

3
y3

y2 2
y1
y0 1
NT
t0 0 t1 t2 t3 t4 t5 t6
−1 0 1 2

F IGURE 6.1: Méthode d’Euler


MO

MPSI3 (2015-16) LYCÉE M ONTAIGNE 58 ©Fradin Patrick – http://mpsi.tuxfamily.org


NE
Chapitre 7

Applications - Relations

AIG
Sommaire
I Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2) Composition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3) Famille d’éléments d’un ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
II Injection, surjection, bijection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
1) Injection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
2) Surjection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3) Bijection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
III Images directes, images réciproques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
IV Relations binaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
NT
2) Relation d’équivalence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3) Relation d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

I APPLICATIONS

La notion d’application (ou fonction) entre deux ensembles E et F (non vides) est une notion clé en
mathématiques. C’est l’idée d’associer, ou de faire correspondre, à chaque élément de E un élément de F.

1) Définitions

Définition 7.1
MO

Une relation R est la donnée de :


– Un ensemble de départ : E (non vide).
– Un ensemble d’arrivée : F (non vide).
– D’un graphe G qui est une partie de E × F (G ⊂ E × F).
Soient x ∈ E et y ∈ F, on dira que x est relation avec y pour R lorsque (x, y) ∈ G, on écrira xR y. Si c’est
le cas, on dira que y est une image de x par R et que x est un antécédent de y par R.
Lorsque tout élément de E a une et une seule image par R, on dit que R est une application (ou
fonction). Si c’est le cas, et si xR y, alors on écrira plutôt y = R(x), on dira que y est l’image de x par
R. L’ensemble des applications de E vers F est noté F (E, F) ou encore FE .

MPSI3 (2015-16) LYCÉE M ONTAIGNE 59 ©Fradin Patrick – http://mpsi.tuxfamily.org


Applications Chapitre 7 : Applications - Relations

NE
Pour désigner une application on utilise en général une lettre minuscule. Si f est une application de E
© ª
vers F on écrit : f : E → F , et le graphe de f est l’ensemble G f = (x; f (x) | x ∈ E .
x 7→ f (x)
ZExemples :
– L’exponentielle est une application de R vers R.
– Le logarithme est une application de ]0; +∞[ vers R.
– Soit f : R → R définie par f (x) = x1 n’est pas une application car 0 n’a pas d’image, on dit que son
ensemble de définition est D f = R∗ . Par contre, la restriction de f à son ensemble de définition est une
application, on la note f |D f : D f → R. Lorsqu’une application g est une restriction d’une application f ,
on dit que f est un prolongement de g

Définition 7.2 (identité d’un ensemble)

AIG
Soit E un ensemble, l’identité de E est l’application de E dans E qui à chaque élément de E associe
lui-même. On la note idE : E → E .
x 7→ idE (x) = x

Diagramme sagittal
Lorsque les ensembles E et F ont très peu d’éléments, on peut représenter une application f : E → F sous
forme d’un diagramme sagittal :

E F

e1 f1

e2 f2
f3
NT
e3
f4
e4 f5

© ª
Dans cet exemple, le graphe de f est G f = (e 1 , f 3 ); (e 2 , f 1 ); (e 3 , f 3 ); (e 4 , f 2 ) .

Attention ! (égalité de fonctions)


Deux fonctions f et g sont égales si et seulement si elles ont :
– le même ensemble de départ E,
– le même ensemble d’arrivée F,
– le même graphe, c’est à dire : ∀x ∈ E, f (x) = g (x).
Par exemple, la fonction f : R → R définie par f (x) = x 2 et la fonction g : R → R+ définie par g (x) = x 2 ne sont pas
égales !
MO

Définition 7.3 (ensemble image)


Soit f : E → F une application, on appelle ensemble image de f l’ensemble de toutes les images par f ,
on le note Im( f ). C’est donc une partie de F, plus précisément c’est l’ensemble des éléments de F qui
ont au moins un antécédent par f dans E :
© ª
Im( f ) = y ∈ F | ∃x ∈ E, y = f (x)

MPSI3 (2015-16) LYCÉE M ONTAIGNE 60 ©Fradin Patrick – http://mpsi.tuxfamily.org


Applications Chapitre 7 : Applications - Relations

ZExemples : © ª
– Dans l’exemple du diagramme sagittal, l’ensemble image est Im( f ) = f 1 ; f 2 ; f 3 .
– L’ensemble image de la fonction cosinus est [−1; 1]. Plus généralement, pour déterminer l’ensemble

NE
image d’une fonction f : I → R où I est un intervalle de R, on étudie les variations de f et sa continuité
(en vue d’appliquer le théorème des valeurs intermédiaires).
– L’ensemble image de la fonction g : C → C définie par ∀z ∈ C, g (z) = z 2 est Im(g ) = C.

2) Composition
Lorsque l’ensemble d’arrivée d’une application coïncide avec l’ensemble de départ d’une autre applica-
tion, alors il est possible « d’enchaîner » les deux, c’est la composition :
f g
E → F → G
x 7→ f (x) 7→ g ( f (x))

AIG
Définition 7.4
Soient E, F, G trois ensembles, f : E → F et g : F → G deux applications. La composée g ◦ f est l’appli-
cation de E vers G définie par : ∀x ∈ E, (g ◦ f )(x) = g ( f (x)) :

g◦f : E → G
x 7 → (g ◦ f )(x) = g ( f (x))

Attention !
On prendra garde à l’ordre dans l’écriture de g ◦ f .

Remarque 7.1 :
NT
– Lorsqu’on a deux applications f : E → F et g : H → G avec seulement F ⊂ H (au lieu de F = H), alors on
peut encore définir la composée et on la note encore g ◦ f même si théoriquement on devrait plutôt écrire
¡ ¢
g |F ◦ f .
– Lorsque f est une application d’un ensemble E vers lui-même, alors on peut composer f avec elle-même,
et autant de fois que l’on veut. Si n est un entier strictement positif, on notera f n = f ◦ · · · ◦ f . Par
convention, on pose f 0 = idE .
ZExemple : Si f est l’application de R vers R définie par ∀x ∈ R, f (x) = x + 1, alors ∀n ∈ N, f n est l’application
de R vers R définie par ∀x ∈ R, f n (x) = x + n.
1
FExercice 7.1 Écrire la fonction f : ]1; +∞[→ R définie par f (x) = px−1 , comme composée de trois fonctions.

Théorème 7.1 (propriétés)


MO

Soient f : E → F, g : F → G et h : G → H trois applications.


– idF ◦ f = f et f ◦ idE = f .
– (h ◦ g ) ◦ f = h ◦ (g ◦ f ), c’est l’associativité de la composition.

Preuve : Celle-ci est simple et laissée en exercice. 

3) Famille d’éléments d’un ensemble

Définition 7.5
Soit I un ensemble non vide, et soit E un ensemble. On appelle famille d’éléments de E indexée par I,
toute application u : I → E, on note généralement cette famille (u i )i ∈I , et pour i ∈ I, on note u(i ) = u i
(appelé terme d’indice i ). L’ensemble de départ I est appelé ensemble des indices de la famille. Une
famille d’éléments de E indexée par N est appelée suite d’éléments de F. L’ensemble des familles

MPSI3 (2015-16) LYCÉE M ONTAIGNE 61 ©Fradin Patrick – http://mpsi.tuxfamily.org


Injection, surjection, bijection Chapitre 7 : Applications - Relations

d’éléments de E indexées par I se note F (I, E) ou EI .

NE
Familles de parties d’un ensemble E
Conformément à la définition ci-dessus, une famille de parties de E indexée par un ensemble I non vide,
est une application A : I → P (E), que l’on peut noter (Ai )i ∈I (Ai étant une partie de E pour tout i ∈ I). On peut
alors généraliser les notions d’intersection et de réunion de la manière suivante :
S
– La réunion de la famille (Ai )i ∈I est Ai = {x ∈ E | ∃i ∈ I, x ∈ Ai }.
i ∈I T
– L’intersection de la famille (Ai )i ∈I est : Ai = {x ∈ E | ∀i ∈ I, x ∈ Ai }.
i ∈I
FExercice 7.2
1/ Pour n ∈ N, on pose An =]n; n + 1]. Déterminer
S T
An et An .
n∈N n∈N
1 1
2/ Même question avec n ∈ N∗ et An = [ n+1 ;1− n+1 ].

Solution 7.2

AIG
1/ La réunion est ]0; +∞[, et l’intersection est vide.
©1ª
2/ La réunion est ]0; 1[ et l’intersection est le singleton 2 .
Les propriétés vues dans le chapitre I se généralisent :

Théorème 7.2
Soit (Ai )i ∈I une famille de parties de E et soit B une partie de E, alors :
µ ¶ µ ¶
S S T T
– B∩ Ai = (B ∩ Ai ) et B ∪ Ai = (B ∪ Ai ) (distributivité).
i ∈I i ∈I i ∈I i ∈I
µ ¶ µ ¶
S T T S
– CE Ai = CE (Ai ) et CE Ai = CE (Ai ) (lois de De Morgan).
i ∈I i ∈I i ∈I i ∈I

Preuve : Celle-ci est simple et laissée en exercice. 


NT
II INJECTION, SURJECTION, BIJECTION

Dans cette partie nous allons dégager des propriétés éventuelles des applications. Ces notions joueront
un rôle important par la suite.

1) Injection

Définition 7.6
Soit f : E → F une application, on dit que f est une injection (ou f est injective) lorsque tout élément
de l’ensemble d’arrivée a au plus un antécédent dans l’ensemble de départ. Ce qui revient à dire :
MO

pour tout élément y de F, l’équation y = f (x) a plus une solution x dans E.

E F E F

e1 f1 e1 f1

e2 f2 e2 f2
f3 f3
e3 e3
f4 f4
e4 f5 e4 f5

Injective Non Injective

MPSI3 (2015-16) LYCÉE M ONTAIGNE 62 ©Fradin Patrick – http://mpsi.tuxfamily.org


Injection, surjection, bijection Chapitre 7 : Applications - Relations

ZExemples :
– Si E est un ensemble non vide, idE est injective. Soit A une partie non vide de E, l’application f : A → E
x 7→ x

NE
est injective, c’est l’injection canonique de A dans E.
x+1
– f : R \ {1} → R définie par f (x) = x−1 est une injection.
– g : ]0; +∞[→ R définie par g (x) = ln(x) est une injection.
– h : R → R définie par h(x) = x 2 n’est pas une injection.
– Une fonction f : I → R strictement monotone sur l’intervalle I est injective.

Théorème 7.3 (définition équivalente)


f : E → F est injective si et seulement si : ∀x, y ∈ E, f (x) = f (y) =⇒ x = y.
Ce qui équivaut encore par contra-position à : ∀x, y ∈ E, x 6= y =⇒ f (x) 6= f (y).

Preuve : Si f est injective : soit x, y ∈ E tels que f (x) = f (y), x et y sont donc deux antécédents d’un même élément de

AIG
F, f étant injective ces deux éléments ne peuvent pas être distincts (sinon on a une contradiction) donc x = y.
Supposons que f vérifie : ∀x, y ∈ E, f (x) = f (y) =⇒ x = y. Soit z ∈ F ayant deux antécédents distincts x et y dans E,
alors z = f (x) = f (y), on en déduit que x = y ce qui est absurde, donc z ne peut pas avoir deux antécédents distincts,
par conséquent f est injective. 

Théorème 7.4 (propriétés)


Soient f : E → F et g : F → G deux applications :
– Si f et g sont injectives alors g ◦ f est injective.
– Si g ◦ f est injective alors f est injective mais pas forcément g .

Preuve : Celle-ci est simple et laissée en exercice. 


FExercice 7.3 Soit f : E → F une application, montrer que f est injective si et seulement si il existe h : F → E telle que
h ◦ f = idE .
Solution 7.3 Si h existe alors f est injective d’après le théorème.
NT
Réciproquement, si f est injective, soit y ∈ F, on pose h(y) = x avec x antécédent de y par f si y a un antécédent
(on sait alors qu’il est unique) et si y n’a pas d’antécédent par f on choisit ce qu’on veut pour h(y) dans E. On vérifie
alors que pour tout x ∈ E, h( f (x)) = x car x est l’unique antécédent de f (x) par f .

2) Surjection

Définition 7.7
Soit f : E → F une application, on dit que f est une surjection (ou f est surjective) lorsque tout
élément de l’ensemble d’arrivée a au moins un antécédent dans l’ensemble de départ. Ce qui revient
à dire : pour tout élément y de F, l’équation y = f (x) a moins une solution x dans E, ou encore
∀y ∈ F, ∃x ∈ E, y = f (x).
MO

E F E F

e1 f1 e1 f1
e2 e2
f2 f2
e3 e3
e4 f3 e4 f3

e5 f4 e5 f4

Surjective Non surjective

MPSI3 (2015-16) LYCÉE M ONTAIGNE 63 ©Fradin Patrick – http://mpsi.tuxfamily.org


Injection, surjection, bijection Chapitre 7 : Applications - Relations

À retenir
Dire que f : E → F est surjective, équivaut à Im( f ) = F.

NE
ZExemples :
– Si E est un ensemble non vide, idE est surjective.
– f : C → C définie par f (z) = z 2 et une surjection.
– f : R → U définie par f (x) = e i x est une surjection.
– h : R \ {1} → R définie par h(x) = 2x+1
x−1 n’est pas surjective.
– Si f : E → F est une application, alors f induit une surjection entre E et Im( f ) qui est l’application
g : E → Im( f ) définie par g (x) = f (x).

Théorème 7.5 (propriétés)


Soient f : E → F et g : F → G deux applications :

AIG
– Si f et g sont surjectives alors g ◦ f est surjective.
– Si g ◦ f est surjective alors g est surjective mais pas forcément f .

Preuve : Celle-ci est simple et laissée en exercice. 


FExercice 7.4 Soit f : E → F une application, montrer que f est surjective si et seulement si il existe h : F → E telle que
f ◦ h = idF .
Solution 7.4 Si h existe alors f est surjective d’après le théorème.
Réciproquement, si f est surjective, soit y ∈ F, on pose h(y) = x avec x antécédent de y par f que l’on choisit car il
en existe. On vérifie alors que pour tout x ∈ E, f (h(x)) = x car h(x) est un antécédent de x par f .
FExercice 7.5 Soit E un ensemble non vide, et f une application de E vers P (E). En considérant la partie A = x ∈ E | x ∉ f (x) ,
© ª

montrer que f ne peut pas être surjective.


NT
3) Bijection

Définition 7.8
Soient E, F deux ensembles et f : E → F une application, on dit que f est une bijection (ou application
bijective) lorsque tout élément de F a un unique antécédent par f , ce qui peut s’écrire de la manière
suivante : ∀y ∈ F, ∃! x ∈ E, f (x) = y.

E F E F

e1 f1 e1 f1
MO

e2 f2 e2 f2
e3 f3 e3 f3
e4 f4 e4 f4

Bijective Non bijective

Dire que tout élément de F a un unique antécédent revient à dire que tout élément de F a au moins
un antécédent et au plus un antécédent. Par conséquent dire que f est bijective revient à dire que f est
surjective et injective.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 64 ©Fradin Patrick – http://mpsi.tuxfamily.org


Injection, surjection, bijection Chapitre 7 : Applications - Relations

À retenir
f est bijective ⇐⇒ f est surjective et injective.

NE
ZExemples :
– Si E est un ensemble non vide, alors idE est une bijection.
– f : [0; +∞[→ [0; +∞[ définie par f (x) = x 2 est une bijection.
– g : R →]0; +∞[ définie par g (x) = e x est une bijection.
– h : R → R définie par h(x) = e x n’est pas une bijection.

À retenir
Si f : E → F est injective, alors f induit une bijection de E vers Im( f ) qui est f˜ : E → Im( f ) définie
par f˜(x) = f (x). Cela s’applique en particulier aux fonctions f : I → R strictement monotones sur

AIG
l’intervalle I.

Définition 7.9 (bijection réciproque)


Si f : E → F est une bijection, alors on peut considérer l’application qui va de F vers E et qui à
tout élément x de F associe son unique antécédent par f , cette application est appelée bijection
réciproque de f , on la note f −1 . Autrement dit, f −1 : F → E .
x 7→ y défini par f (y) = x

Attention !
La notation f −1 n’a de sens que lorsque f est bijective.
NT
ZExemples :
– Si E est un ensemble non vide, alors idE est une bijection et la bijection réciproque est id−1
E = idE .
– f : [0; +∞[→ [0; +∞[ définie par f (x) = x 2 est une bijection et la bijection réciproque est la fonction
racine carrée.
– g : R →]0; +∞[ définie par g (x) = e x est une bijection et la bijection réciproque est la fonction loga-
rithme népérien.

À retenir
Lorsque f : E → F est bijective : ∀x ∈ F, ∀y ∈ E, f −1 (x) = y ⇐⇒ f (y) = x.
MO

f
E F
y x

f −1

Théorème 7.6
Soit f : E → F une bijection.
¢−1
– On a f −1 ◦ f = idE et f ◦ f −1 = idF . De plus f −1 est une bijection et f −1
¡
=f.
– Si g : : F → G est une autre bijection, alors la composée g ◦ f est une bijection de E vers G, et sa
bijection réciproque est : (g ◦ f )−1 = f −1 ◦ g −1 .

MPSI3 (2015-16) LYCÉE M ONTAIGNE 65 ©Fradin Patrick – http://mpsi.tuxfamily.org


Images directes, images réciproques Chapitre 7 : Applications - Relations

Preuve : – La composée f −1 ◦ f existe et va de E dans E. Si x ∈ E, alors ( f −1 ◦ f )(x) = f −1 ( f (x)) = x car x est l’unique
antécédent de f (x) par f , on a donc f −1 ◦ f = idE . De même, f ◦ f −1 existe et va de F dans F. Si x ∈ F, alors ( f ◦ f −1 )(x) =
f ( f −1 (x)) = x car f −1 (x) est l’unique antécédent de x par f , on a donc f ◦ f −1 = idF . Le point suivant est évident.

NE
– Si g : F → G est une autre bijection, soit y ∈ G, alors pour tout x ∈ E on a :

(g ◦ f )(x) = y ⇐⇒ g ( f (x)) = y
⇐⇒ f (x) = g −1 (y)
⇐⇒ x = f −1 (g −1 (y)) = ( f −1 ◦ g −1 )(y)

le résultat en découle. 
FExercice 7.6 Soient f : E → F et g : F → E deux applications telles que f ◦ g = idF et g ◦ f = idE . Montrer que f et g sont
bijectives et réciproques l’une de l’autre.
Remarque 7.2 – Le résultat de cet exercice est à connaître.

AIG
Définition 7.10 (involution)
Soit E un ensemble non vide. Une involution de E est une application f de E vers lui-même telle que
f ◦ f = idE . Une telle application est bijective et elle est sa propre réciproque : f −1 = f .

ZExemples :
– Dans le plan, les symétries ponctuelles, les symétries axiales, sont des involutions du plan.
– La fonction f : R∗ → R∗ définie par f (x) = x1 est une involution de R∗ .
– La conjugaison dans C est une involution de C.

III IMAGES DIRECTES, IMAGES RÉCIPROQUES

1) Définitions
NT
Définition 7.11
Soit f : E → F une application, A une partie de E et B une partie de F.
– On appelle image directe de A par f , l’ensemble des images des éléments de A par f , ou encore, l’en-
© ª
semble des éléments F qui ont un antécédent dans A par f . Notation : f (A) = y ∈ F | ∃x ∈ A, f (x) = y ,
c’est une partie de F.
– On appelle image réciproque de B par f , l’ensemble des antécédents des éléments de B par f .
Notation : f −1 (B) = x ∈ E | f (x) ∈ B , c’est une partie de E.
© ª

Attention !
La notation f −1 (B) ne suppose pas que f est bijective. Mais lorsque f est effectivement bijective, on peut vérifier
MO

que l’image réciproque de B par f correspond à l’image directe de B par f −1 .

Remarque 7.3 :
– On a f (E) = Im( f ) et f −1 (F) = E.
– Dans le cas d’une fonction f : I → R continue sur l’intervalle I, l’étude de la fonction permet de déterminer
l’image directe d’une partie de I et l’image réciproque d’une partie de R.
ZExemple : Soit f la fonction sinus, on a f ([0; π[) = [0; 1], f −1 ([0; 1]) =
S
[2kπ; (2k + 1)π].
k∈Z

2) Propriétés

MPSI3 (2015-16) LYCÉE M ONTAIGNE 66 ©Fradin Patrick – http://mpsi.tuxfamily.org


Relations binaires Chapitre 7 : Applications - Relations

Théorème 7.7
Soit f : E → F une application. Pour toutes parties A et B de E, on a :

NE
– Si A ⊂ B alors f (A) ⊂ f (B).
– f (A ∪ B) = f (A) ∪ f (B).
– f (A ∩ B) ⊂ f (A) ∩ f (B).
– A ⊂ f −1 ( f (A)).

Preuve :
– Le premier point est évident.
– Si x ∈ A ∪ B alors x ∈ A ou x ∈ B donc f (x) ∈ f (A) ou f (x) ∈ f (B), c’est à dire f (x) ∈ f (A) ∪ f (B). On a donc
f (A ∪ B) ⊂ f (A) ∪ f (B). Réciproquement, on a f (A) ⊂ f (A ∪ B) et f (B) ⊂ f (A ∪ B) (d’après le premier point) et donc
f (A) ∪ f (B) ⊂ f (A ∪ B), d’où l’égalité.
– Si x ∈ A ∩ B alors f (x) ∈ f (A) et f (x) ∈ f (B) d’où f (x) ∈ f (A) ∩ f (B), donc f (A ∩ B) ⊂ f (A) ∩ f (B).
– Si x ∈ A alors f (x) ∈ f (A), d’où l’inclusion. 

AIG
Remarque 7.4 :
– Dans le cas de l’intersection (3e propriété), on n’a pas l’égalité en général. Par exemple, si f est la fonction
cosinus de R dans R, si A = [− π2 ; − π3 ] et B = [0; π], alors f (A) ∩ f (B) = [0; 12 ] alors que f (A ∩ B) = ;.
– De même pour la dernière propriété, par exemple, en reprenant la fonction cosinus avec A = [0; π], on a
f (A) = [−1; 1] et f −1 ( f (A)) = R.
FExercice 7.7
1/ Montrer que les propriétés 2 et 3 du théorème précédent se généralisent à une famille quelconque de parties de
E.
2/ Soient f : E → F et g : F → G deux applications, soit A une partie de E, montrer que (g ◦ f )(A) = g ( f (A)). Soit B
une partie de G, montrer que (g ◦ f )−1 (B) = f −1 (g −1 (B)).
3/ Montrer que f : E → F est injective si et seulement si pour tout partie A de E on a f −1 ( f (A)) = A.

Théorème 7.8
NT
Soit f : E → F une application. Pour toutes parties A et B de F, on a :
– Si A ⊂ B alors f −1 (A) ⊂ f −1 (B).
– f −1 (A ∪ B) = f −1 (A) ∪ f −1 (B).
– f −1 (A ∩ B) = f −1 (A) ∩ f −1 (B).

Preuve :
– Si x ∈ f −1 (A) alors f (x) ∈ A donc f (x) ∈ B, d’où x ∈ f −1 (B).
– x ∈ f −1 (A ∪ B) ⇐⇒ f (x) ∈ A ou f (x) ∈ B ⇐⇒ x ∈ f −1 (A) ∪ f −1 (B).
– x ∈ f −1 (A ∩ B) ⇐⇒ f (x) ∈ A et f (x) ∈ B ⇐⇒ x ∈ f −1 (A) ∩ f −1 (B). 

IV RELATIONS BINAIRES
MO

Nous revenons dans cette partie à la notion générale de relation définie en début de chapitre. Mais on
s’intéresse plus particulièrement aux relations d’un ensemble E dans lui-même.

1) Définitions

Définition 7.12
Soit R une relation d’un ensemble E vers lui - même, on dit que R est :
– réflexive lorsque tout élément est en relation avec lui - même : ∀ x ∈ E, xRx.
– symétrique lorsque : ∀ x, y ∈ E, si xR y alors yRx (le graphe de R est symétrique).
– antisymétrique lorsque : ∀ x, y ∈ E, si xR y et yRx alors x = y. On remarquera qu’il ne s’agit pas de
la négation de symétrique.
– transitive lorsque : ∀ x, y, z ∈ E, si xR y et yRz alors xRz.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 67 ©Fradin Patrick – http://mpsi.tuxfamily.org


Relations binaires Chapitre 7 : Applications - Relations

ZExemples :
– Dans R, la relation R définie par : ∀ x, y ∈ R, xR y ⇐⇒ x 6 y, est une relation réflexive, antisymétrique
et transitive.

NE
– Dans Z, la relation S définie par : ∀ x, y ∈ Z, xS y ⇐⇒ x − y ∈ 2Z, est une relation réflexive, symétrique
et transitive.
– Soit E un ensemble, la relation T définie dans P (E) par : ∀ A, B ∈ P (E), AT B ⇐⇒ A ⊂ B. Cette relation
T est réflexive antisymétrique et transitive.

2) Relation d’équivalence

Définition 7.13
Soit E un ensemble et R une relation de E dans E, on dit que R est une relation d’équivalence
lorsqu’elle est réflexive, symétrique et transitive. Si c’est le cas, alors pour tout élément a de E, on
appelle classe de a l’ensemble des x ∈ E en relation avec a, notation : Cl (a) = {x ∈ E / xRa}.

ZExemples :

AIG
– L’égalité dans un ensemble est une relation d’équivalence.
– Soit n ∈ Z, la relation définie dans Z, par ∀ x, y ∈ Z, xR y ⇐⇒ x − y ∈ n Z, est une relation d’équivalence.
Cette relation est appelée la congruence modulo n dans Z, et on note ∀x, y ∈ Z, x ≡ y (mod n) ⇐⇒
∃k ∈ Z, x − y = kn.
– Soit a ∈ R, la relation définie dans R, par ∀ x, y ∈ R, xR y ⇐⇒ x − y ∈ a Z, est une relation d’équivalence.
Cette relation est appelée la congruence modulo a dans R, et on note ∀x, y ∈ R, x ≡ y (mod a) ⇐⇒
∃k ∈ Z, x − y = ka.

Théorème 7.9
Si R est une relation d’équivalence dans E, alors :
NT
– ∀ a, b ∈ E, Cl(a) = Cl(b) ⇐⇒ aRb.
– Les classes d’équivalence forment une partition de E, c’est à dire :
• Les classes d’équivalence sont des parties de E non vides et deux à deux disjointes.
• La réunion des classes d’équivalence est égale à E.

Preuve : Celle-ci est simple et laissée en exercice. 


ZExemple : Considérons la relation de congruence modulo 5 dans Z, soit n ∈ Z, on a Cl(n) = {n + 5k / k ∈ Z}.
On peut vérifier qu’il n’y a que cinq classes pour cette relation, celles de 0, de 1, de 2, de 3 et de 4.

3) Relation d’ordre
MO

Définition 7.14
– Soit R une relation dans un ensemble E, on dit que R est une relation d’ordre lorsque cette relation
est : réflexive, antisymétrique et transitive. Lorsque c’est le cas, on dit que (E, R) est un ensemble
ordonné.
– Deux éléments x et y de E sont dits comparables pour l’ordre R lorsque l’on a xR y ou bien yRx.
Lorsque tous les éléments de E sont comparables deux à deux, on dit que l’ordre R est total et que
(E, R) est un ensemble totalement ordonné, sinon on dit que l’ordre est partiel et que (E, R) est
partiellement ordonné.
– Une relation d’ordre est en général notée 6, c’est à dire que xR y est plutôt noté x 6 y.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 68 ©Fradin Patrick – http://mpsi.tuxfamily.org


Relations binaires Chapitre 7 : Applications - Relations

ZExemples :
– L’ordre naturel sur les réels est une relation d’ordre total.
– Soit E un ensemble, (P (E), ⊂) est un ensemble partiellement ordonné (dès que card(E) > 2).

NE
– Soit I un ensemble non vide, on pose E = F (I, R) l’ensemble des fonctions définies sur I et à valeurs
réelles. On définit dans E la relation R : pour f , g ∈ E, f Rg ⇐⇒ ∀ x ∈ I, f (x) 6 g (x). On vérifie que R
est une relation d’ordre partiel (dès que card(I) > 1), cette relation est appelée ordre fonctionnel et
notée 6.
– Pour (x, y) et (x 0 , y 0 ) ∈ R2 , on pose :

0
x < x


(x, y)R(x 0 , y 0 ) ⇐⇒ ou

x = x 0 et y 6 y 0

On vérifie que R est une relation d’ordre total sur R2 (appelée ordre lexicographique et notée 6).

AIG
Remarque 7.5 – On prendra garde au fait que lorsque l’ordre est partiel, la négation de x 6 y est :

x et y ne sont pas comparables


ou


x et ysont comparables et x > y

Définition 7.15
Soit (E, 6) un ensemble ordonné et A une partie de E, on dit que :
– A est majoré dans E lorsque : ∃M ∈ E, ∀x ∈ A, x 6 M.
– A est minoré dans E lorsque : ∃m ∈ E, ∀x ∈ A, m 6 x.
– A est borné dans E lorsque A est à la fois majoré et minoré.
– A admet un maximum lorsque : ∃a ∈ A, ∀x ∈ A, x 6 a. Si c’est le cas, on note a = max(A).
NT
– A admet un minimum lorsque : ∃a ∈ A, ∀x ∈ A, a 6 x. Si c’est le cas, on note a = min(A).

Attention !
– Une partie d’un ensemble ordonné n’est pas forcément majoré (ou minoré), par exemple N est non majoré dans R.
– Une partie majorée (ou minorée) dans un ensemble ordonné n’a pas forcément de maximum (ou minimum). Par
exemple [0; 1[ dans R.

FExercice 7.8 Montrer que si A admet un maximum dans (E, 6), alors celui-ci est unique (même chose pour minimum).
MO

MPSI3 (2015-16) LYCÉE M ONTAIGNE 69 ©Fradin Patrick – http://mpsi.tuxfamily.org


NE
Chapitre 8

Nombres réels

AIG
Sommaire
I L’ensemble des réels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
1) Rappels sur les rationnels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
2) Opérations et ordre sur les réels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
II Borne inférieure, borne supérieure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
1) Propriété fondamentale de l’ensemble des réels . . . . . . . . . . . . . . . . . . . . . . . 71
2) Intervalles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3) La droite numérique achevée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4) Voisinages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
III Approximation d’un réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
1) Valeur absolue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
2) Partie entière . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3) Approximations décimales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
NT
L’existence des ensembles Q et R est admise.

I L’ENSEMBLE DES RÉELS

1) Rappels sur les rationnels


p
Un rationnel est un réel de la forme pq −1 (ou q ) où p et q sont deux entiers avec q 6= 0. L’ensemble
des rationnels est noté Q. Tout rationnel peut s’écrire de différentes manières sous forme de fractions,
p 2p −p
par exemple : q = 2q = −q . Mais tout nombre rationnel s’écrit de manière unique sous forme de fraction
p
irréductible, c’est à dire sous la forme q avec p ∈ Z, q ∈ N∗ et avec p et q premiers entre eux (i.e. sans autres
diviseurs communs que 1 et -1).

Opérations sur les rationnels


p aq+bp p ap
On rappelle que : q + ba = bq et q × ba = bq . L’addition et la multiplication sont donc des lois de
composition internes dans Q, on vérifie que (Q, +, ×) est un corps commutatif. On vérifie également que
MO

(Q, +), (Q∗ , ×) et (Q∗+ , ×) sont des groupes commutatifs.

L’ensemble des rationnels est insuffisant


En termes d’approximations numériques, Q peut paraître suffisant en sciences appliquées. Le problème
se pose lorsqu’on a besoin de connaître la valeur exacte de certaines grandeurs. Par exemple, peut - on
mesurer dans Q la longueur de la diagonale d’un carré de côté 1 ? D’après le théorème de Pythagore 1 , cela
revient à se demander p s’il existe un rationnel dont le carré est égal à 2, or nous avons déjà établi que la
réponse est négative ( 2 ∉ Q).
Cette lacune de Q avait été remarquée par les Pythagoriciens, ce qui a conduit les mathématiciens à
introduire de nouveaux nombres, les irrationnels, en concevant un ensemble plus vaste que Q, l’ensemble
des nombres réels noté R.
1. PYTHAGORE De Samos (569 av J.-C. – 500 av J.-C. (environ)) : mathématicien et philosophe grec dont la vie et l’œuvre restent
entourées de mystères.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 70 ©Fradin Patrick – http://mpsi.tuxfamily.org


Borne inférieure, borne supérieure Chapitre 8 : Nombres réels

2) Opérations et ordre sur les réels


L’ensemble R contient Q et possède une addition et une multiplication (qui prolongent celles de Q) qui
font que (R, +, ×) est un corps commutatif. On admettra également qu’il existe deux parties de R que l’on

NE
note A et B et qui vérifient :
– A et B sont stables pour l’addition.
– Q+ ⊂ A et Q− ⊂ B.
– R = A ∪ B.
– A ∩ B = {0}.
– Si x, y ∈ A alors x y ∈ A, si x, y ∈ B alors x y ∈ A et si x ∈ A et y ∈ B, alors x y ∈ B (règle des signes).
On définit alors une relation R dans R en posant : ∀ x, y ∈ R, xR y ⇐⇒ x − y ∈ B. Cette relation est :
– Réflexive : ∀ x ∈ R, xRx.
– Antisymétrique : si xR y et yRx alors x = y.
– Transitive : si xR y et yRz, alors xRz.
Le relation R est donc une relation d’ordre sur R. On la notera désormais 6, c’est à dire que xR y sera

AIG
noté x 6 y (i.e. x − y ∈ B).
On remarquera que x 6 0 signifie que x ∈ B, et que 0 6 x signifie que −x ∈ B et donc x ∈ A car x = (−1)(−x) :
produit de deux éléments de B. D’autre part, si x ∈ A et y ∈ B, alors x 6 y car y − x = y + (−x) : somme de deux
éléments de B.
Si x et y sont deux réels quelconques, on a x − y ∈ A ou x − y ∈ B, c’est à dire x − y ∈ B ou y − x ∈ B, c’est à
dire encore x 6 y ou y 6 x. Deux réels sont donc toujours comparables, l’ordre est total.
Notation : On pose A = R+ et B = R− .

Théorème 8.1
La relation d’ordre 6 est :
– Compatible avec l’addition, c’est à dire :

∀ x, y, z ∈ R, si x 6 y alors x + z 6 y + z.
NT
– Compatible avec la multiplication par un réel positif :

∀ x, y, z ∈ R, si 0 6 z et x 6 y alors xz 6 y z.

Preuve : Si x 6 y, alors x − y ∈ R− , mais (x + z) − (y + z) = x − y, donc (x + z) − (y + z) ∈ R− i.e. x + z 6 y + z. Si 0 6 z et


x 6 y, alors x − y ∈ R− donc z(x − y) ∈ R− , i.e. zx 6 z y. On remarquera que si z 6 0 alors z(x − y) ∈ R+ donc z y 6 zx,
l’inégalité change de sens. 

Conséquences
– Si x 6 y et a 6 b, alors x + a 6 y + b.
– Si 0 6 x 6 y et 0 6 a 6 b alors 0 6 ax 6 b y.
MO

II BORNE INFÉRIEURE, BORNE SUPÉRIEURE

1) Propriété fondamentale de l’ensemble des réels


Soit I une partie non vide de R et soit a un réel, on dit que :
– I est majorée par a (ou a est un majorant de I), lorsque tout élément de I est inférieur ou égal à a :
∀ x ∈ I, x 6 a.
– I est minorée par a (ou a est un minorant de I), lorsque tout élément de I est supérieur ou égal à a :
∀ x ∈ I, x > a.
– I est bornée, lorsque I est à la fois minorée et majorée : ∃ m, M ∈ R, ∀ x ∈ I, m 6 x 6 M.
ZExemples :
2
x
– L’ensemble I = { 1+x 2 / x ∈ R} est borné (minoré par 0 et majoré par 1).
2
x
– L’ensemble I = { 1+|x| / x ∈ R} est minoré par 0, mais non majoré.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 71 ©Fradin Patrick – http://mpsi.tuxfamily.org


Borne inférieure, borne supérieure Chapitre 8 : Nombres réels

Remarque 8.1 –
– I est non majoré équivaut à : ∀ M ∈ R, ∃ x ∈ I, x > M.
– I est non minoré équivaut à : ∀ m ∈ R, ∃ x ∈ I, x < m.

NE
– I est borné équivaut à : ∃ M ∈ R, ∀ x ∈ I, |x| 6 M.

Définition 8.1
Soit I une partie non vide de R. Si l’ensemble des majorants de I n’est pas vide et s’il admet un plus
petit élément, alors celui-ci est appelé borne supérieure de I et noté sup(I). La borne supérieure
(lorsqu’elle existe) est donc le plus petit des majorants.
Si l’ensemble des minorants de I n’est pas vide et s’il admet un plus grand élément, alors celui-ci est
appelé borne inférieure de I et noté inf(I). La borne inférieure (lorsqu’elle existe) est donc le plus
grand des minorants.

AIG
ZExemples :
– I =]0; 1], l’ensemble des majorants est [1; +∞[, celui-ci admet un plus petit élément qui est 1, donc
sup(I) = 1. L’ensemble des minorants de I est ] − ∞; 0] qui admet un plus grand élément : 0, donc
inf(I) = 0.
– I =]1; +∞[, l’ensemble des majorants est vide donc I n’a pas de borne supérieure. L’ensemble des
minorants est ] − ∞; 1], celui-ci admet un plus grand élément : 1, donc inf(I) = 1.

Attention !
On remarquera qu’une borne inférieure (ou supérieure) d’un ensemble I n’a aucune raison d’appartenir à I.

Voici le lien entre minimum et borne inférieure (ou maximum et borne supérieure) :

Théorème 8.2
NT
Soit I une partie non vide de R et soit a un réel :
– a = min(I) ssi a ∈ I et a = inf(I).
– a = max(I) ssi a ∈ I et a = sup(I).

Preuve : Celle-ci est simple et laissée en exercice. 


Il découle de la définition :

Théorème 8.3
Soit I une partie non vide de R et soit m un réel, alors :
(
m majore I
m = sup(I) ⇐⇒
MO

∀ε > 0, m − ε ne majore pas I, i.e. ∃x ∈ I, m − ε < x


(
m minore I
m = inf(I) ⇐⇒
∀ε > 0, m + ε ne minore pas I, i.e. ∃x ∈ I, x < m + ε

Théorème 8.4 (Propriété fondamentale de R (admise))


Toute partie de R non vide et majorée admet une borne supérieure.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 72 ©Fradin Patrick – http://mpsi.tuxfamily.org


Borne inférieure, borne supérieure Chapitre 8 : Nombres réels

Conséquence : il en découle que toute partie de R non vide et minorée admet une borne inférieure.
Preuve : Soit A une partie de R non vide et minorée par un réel m, alors l’ensemble −A = {−a / a ∈ A} est une partie
de R non vide et majorée par le réel −m. D’après le théorème précédent, −A admet une borne supérieure M et donc

NE
l’ensemble des majorants de −A est [M, +∞[, on en déduit que l’ensemble des minorants de A est ] − ∞; −M] et donc A
admet une borne inférieure qui est −M, c’est à dire inf(A) = − sup(−A). 
ZExemples :
– Soit a un réel positif, on pose A = {x ∈ R / x 2 6 a}. A est une partie non vide de R car 0 ∈ A, d’autre
part A est majoré par a + 1 car x > a + 1 =⇒ x 2 > a 2 + 2a + 1 > a. L’ensemble A admet donc une borne
p
supérieure M. En raisonnant par l’absurde on peut montrer que M2 = a, par conséquent M = a, c’est
une définition possible de la fonction racine carrée.
– Soient A et B deux parties de R non vides et bornées telles que A ⊂ B. Montrer que inf(B) 6 inf(A) et
sup(A) 6 sup(B).
Réponse : inf(B) est un minorant de B donc un minorant de A, par conséquent inf(B) 6 inf(A) car inf(A)
est le plus grand des minorants de A. De même, sup(B) majore B , donc majore A également, d’où

AIG
sup(A) 6 sup(B) car sup(A) est le plus petit des majorants de A.
– Soient A et B deux parties de R non vides et majorées, on pose A + B = {a + b / a ∈ A, b ∈ B}. Montrer
que sup(A + B) = sup(A) + sup(B).
Réponse : sup(A)+sup(B) majore A+B, donc A+B admet une borne sup. et sup(A+B) 6 sup(A)+sup(B).
Soient a ∈ A et b ∈ B, a + b 6 sup(A + B), donc a 6 sup(A + B) − b, ce qui signifie que A est majoré par
sup(A + B) − b, d’où sup(A) 6 sup(A + B) − b, mais alors b 6 sup(A + B) − sup(A), donc B est majoré par
sup(A + B) − sup(A), d’où sup(B) 6 sup(A + B) − sup(A) et finalement sup(A) + sup(B) 6 sup(A + B) ce
qui prouve bien l’égalité.

2) Intervalles

Définition 8.2
Soit I une partie non vide de R, on dit que I est un intervalle lorsque : tout réel compris entre deux
NT
éléments de I est lui-même élément de I, c’est à dire :

∀ x, y ∈ I, ∀ z ∈ R, x 6 z 6 y =⇒ z ∈ I.

Par convention, ; est un intervalle de R.

Théorème 8.5
Si I est un intervalle non vide de R alors on a :
– soit I = R,
– soit I = [a; +∞[ ou I =]a, +∞[,
– soit I =] − ∞; b] ou I =] − ∞; b[,
MO

– soit I =]a; b[ ou I =]a; b] ou I = [a; b[ ou I = [a; b].

Preuve : Le premier correspond à I non borné, le deuxième à I minoré et non majoré, le troisième à I non minoré et
majoré, le quatrième à I borné. 
ZExemple : Z n’est pas un intervalle de R car 1, 2 ∈ Z mais pas 23 . Q n’est pas un intervalle de R.

Théorème 8.6
On a les propriétés suivantes :
– L’intersection de deux intervalles de R est un intervalle de R.
– La réunion de deux intervalles de R non disjoints est un intervalle de R.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 73 ©Fradin Patrick – http://mpsi.tuxfamily.org


Borne inférieure, borne supérieure Chapitre 8 : Nombres réels

Preuve : Soient I et J deux intervalles de R, posons K = I ∩ J. Si K est vide, alors c’est un intervalle. Si K n’est pas vide,
alors soit x, y ∈ K et soit z un réel tel que x 6 z 6 y. Comme I est un intervalle contenant x et y, I contient z, de même J
contient z, finalement z ∈ K et donc K est un intervalle de R.

NE
Supposons I et J non disjoints et soit K = I ∪ J. K est non vide, soit x, y ∈ K et soit z un réel tel que x 6 z 6 y. Si x et y
sont dans I, alors z est dans I et donc dans K, de même si x et y sont dans J. Si x est dans I et y dans J, soit t ∈ I ∩ J, si
z 6 t , alors z est compris entre x et t qui sont éléments de I, donc z ∈ I. Si t 6 z, alors z est compris entre t et y qui sont
éléments de J, donc z est élément de J. Dans les deux cas on a bien z ∈ K et donc K est un intervalle de R. 

3) La droite numérique achevée


On ajoute à l’ensemble R deux éléments non réels (par exemple i et −i ), l’un de ces deux éléments est
noté −∞ et l’autre +∞.

Définition 8.3
L’ensemble R ∪ {−∞, +∞} est noté R et appelé droite numérique achevée.

AIG
On prolonge la relation d’ordre de R à R en posant pour tout réel x : −∞ < x < +∞. L’ensemble R devient
ainsi un ensemble totalement ordonné, de plus il possède un maximum (+∞) et un minimum (−∞).
Pour tout réel x on pose :
– (+∞) + x = x + (+∞) = +∞.
– (−∞) + x = x + (−∞) = −∞.
– (+∞) + (+∞) = +∞.
– (−∞) + (−∞) = −∞.
– Si x > 0 : x(+∞) = (+∞)x = +∞ et (−∞)x = x(−∞) = −∞.
– si x < 0 : x(+∞) = (+∞) = −∞ et (−∞)x = x(−∞) = +∞.
– (+∞)(+∞) = +∞, (−∞)(−∞) = +∞ et (−∞)(+∞) = (+∞)(−∞) = −∞.
Remarque 8.2 – On prendra garde au fait que nous n’avons pas défini de loi de composition interne dans R
puisque nous n’avons pas défini 0 × (±∞) ni (−∞) + (+∞). Les règles de calculs définies ci-dessus auront leur
NT
utilité dans le chapitre sur les limites.

Théorème 8.7
Soit A une partie non vide de R, alors A admet une borne supérieure et une borne inférieure dans R.

Preuve : Soit A une partie non vide de R. Si A est majorée dans R alors admet une borne supérieure réelle (propriété
fondamentale de R). Si A n’est pas majorée dans R, alors dans R l’ensemble des majorants est {+∞}, donc il y a une
borne supérieure dans R qui est +∞ (le plus petit majorant). Le raisonnement est le même pour la borne inférieure. 

4) Voisinages
MO

Définition 8.4
Soit x ∈ R, toute partie de R contenant un intervalle de la forme ]x − ε; x + ε[ où ε > 0 est appelé
voisinage de x .
Toute partie de R contenant un intervalle ouvert de la forme ]a; +∞[ (a ∈ R) est appelé voisinage de
+∞ .
Toute partie de R contenant un intervalle ouvert de la forme ] − ∞; a[ (a ∈ R) est appelé voisinage de
−∞ .

Théorème 8.8
Soit V1 , V2 deux voisinages de x ∈ R, alors V1 ∩ V2 est un voisinage de x. Soit a, b ∈ R, si a < b alors il
existe un voisinage V de a et un voisinage V 0 de b tels que ∀x ∈ V et ∀y ∈ V 0 , x < y.

Preuve : Celle - ci est simple et laissée en exercice. 

MPSI3 (2015-16) LYCÉE M ONTAIGNE 74 ©Fradin Patrick – http://mpsi.tuxfamily.org


Approximation d’un réel Chapitre 8 : Nombres réels

Définition 8.5
Soit P(x) une proposition dépendante de x ∈ R, et soit a ∈ R, on dit que la propriété P est vraie au

NE
voisinage de a lorsqu’il existe au moins un voisinage V de a tel que :

∀ x ∈ V, P(x) est vraie.

ZExemple : Soit f (x) = x 2 + x −1, alors au voisinage de 0 on a f (x) < 0, et au voisinage de +∞, f (x) > 0. En effet,
le trinôme x 2 + x − 1 admet deux racines réelles : x 1 < 0 et x 2 > 0, posons ε = min(|x 1 |, |x 2 |), si x ∈]0 − ε; 0 + ε[
alors x ∈]x 1 ; x 2 [ et donc x 2 + x − 1 < 0, V =]x 1 ; x 2 [ est donc un voisinage de 0 et sur ce voisinage on a bien
f (x) < 0. Posons W =]x 2 ; +∞[, alors W est un voisinage de +∞ et sur ce voisinage on a bien f (x) > 0.

III APPROXIMATION D’UN RÉEL

AIG
1) Valeur absolue
Soit x un réel, les deux nombres x et −x sont comparables puisque l’ordre est total, ce qui donne un sens
à la définition suivante :

Définition 8.6
Soit x ∈ R, on appelle valeur absolue de x le réel noté |x| et défini par : |x| = max(x, −x). On a donc
|x| = x lorsque 0 6 x, et |x| = −x lorsque x 6 0.

L’ensemble R peut être assimilé à une droite graduée (i.e. munie d’un repère (O, → −
u )), les réels sont alors
les abscisses des points de cette droite. Si A(a) et B(b) sont deux points de cette droite, alors le réel positif
|b − a| représente la distance de A à B, en particulier |x| représente la distance de l’origine au point d’abscisse
x.
NT
|b − a|

O →

u A(a) B(b) R

Théorème 8.9
Soient x, y des réels :
– |x| ∈ R+ , |x| = | − x|, x 6 |x| et −x 6 |x|.
– |x| = 0 ⇐⇒ x = 0.
– |x y| = |x||y| et si x 6= 0 alors | x1 | = |x|
1
. On en déduit que k f r ac1x| = 1
et ∀n ∈ N, |x n | = |x|n .
MO

|x|
– ||x| − |y|| 6 |x − y| 6 |x| + |y| (inégalité triangulaire).

Preuve : Celle-ci est simple et laissée en exercice. 

À retenir
Soient a, b, x trois réels avec b positif :
– |a| 6 b ⇐⇒ a 6 b et − a 6 b ⇐⇒ −b 6 a 6 b.
– |a| > b ⇐⇒ a > b ou −a > b.
– |a − x| 6 b ⇐⇒ −b 6 a − x 6 b ⇐⇒ a − b 6 x 6 a + b.
– |a − x| > b ⇐⇒ x > a + b ou x 6 a − b.

Ces inégalités sont importantes, et peuvent se retrouver en raisonnant en termes de distance.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 75 ©Fradin Patrick – http://mpsi.tuxfamily.org


Approximation d’un réel Chapitre 8 : Nombres réels

Définition 8.7
Soit a un réel et ε > 0, on appelle intervalle ouvert de centre a et de rayon ε, l’intervalle ]a − ε; a + ε[.

NE
C’est l’ensemble des réels x tels que |x − a| < ε. On définit de la même façon l’intervalle fermé de
centre a et de rayon ε.

On rappelle qu’un intervalle ouvert est un intervalle de la forme : ]a; b[ ou ]a; +∞[ ou ]−∞; b[. L’ensemble
vide et R sont des intervalles ouverts.

Théorème 8.10
Soit I un intervalle ouvert non vide, pour tout élément a de I il existe au moins un voisinage de a
inclus dans I : ∀ a ∈ I, ∃ ε > 0, ]a − ε; a + ε[⊂ I.

Preuve : Il suffit de passer en revue les différents cas pour I. Par exemple, si I =]α; β[ avec α < β (sinon I est vide), on
peut prendre ε = min(a − α, β − a). On remarquera que l’on peut remplacer intervalle ouvert de centre a par intervalle

AIG
fermé de centre a. 

2) Partie entière

Théorème 8.11
L’ensemble R est archimédien, c’est à dire : ∀ x, y ∈ R∗+ , ∃ n ∈ N, x 6 n y.

Preuve : Par l’absurde, supposons que ∀ n ∈ N, x > n y. Soit A = {n y / n ∈ N}, A est non vide (contient y) et majoré par x,
donc A admet une borne supérieure. Soit b = sup(A), on a b − y < b donc il existe un entier n 0 ∈ N tel que b − y < n 0 y,
d’où b < (n 0 + 1)y ce qui est absurde car (n 0 + 1)y ∈ A. 

Théorème 8.12 (et définition)


Soit x ∈ R, il existe un unique entier n ∈ Z tel que n 6 x < n + 1, celui-ci est appelé partie entière de x,
NT
noté bxc (ou E(x)).

Preuve : Montrons l’existence : si x = 0 il suffit de prendre n = 0. Supposons x non nul et soit A = {n ∈ Z / x < n + 1}, on
vérifie que A est non vide (si x < 0 alors 0 ∈ A et si x > 0 on utilise que R est archimédien), de plus A est minoré par x − 1,
cet ensemble admet donc une borne inférieure c. On a c < c + 12 donc le réel c + 12 ne minore pas A donc il existe un
entier n 0 ∈ A tel que c 6 n 0 < c + 12 , si c < n 0 , alors n 0 ne minore pas A, donc il existe n 1 ∈ A tel que c 6 n 1 < n 0 < c + 12
ce qui est absurde car n 0 et n 1 sont deux entiers distincts dans un intervalle de longueur 12 . On en déduit que c = n 0 ∈ A
d’où n 0 = min(A), mais alors n 0 − 1 ∉ A, c’est à dire x > n 0 − 1 + 1, par conséquent on a n 0 6 x < n 0 + 1.
Montrons l’unicité : soient n, n 0 ∈ Z tels que n 6 x < n + 1 et n 0 6 x < n 0 + 1, alors |n − n 0 | = |(x − n) − (x − n 0 )| < 1 car
x − n et x − n 0 sont dans l’intervalle [0; 1[, comme n et n 0 sont entiers, on en déduit que |n − n 0 | = 0 i.e. n = n 0 . 

Propriétés
MO

a) La fonction partie entière est une fonction croissante sur R et elle constante sur tout intervalle de la
forme [n; n + 1[ lorsque n ∈ Z.

1
0
−4 −3 −2 −1 0 1 2 3 4
−1

−2

−3

−4

MPSI3 (2015-16) LYCÉE M ONTAIGNE 76 ©Fradin Patrick – http://mpsi.tuxfamily.org


Approximation d’un réel Chapitre 8 : Nombres réels

b) La fonction partie entière est continue sur R \ Z. Pour n ∈ Z, elle est continue à droite mais pas à gauche
en n.

NE
c) Pour tout réel x et tout entier n, on a bx + nc = bxc + n.
d) La fonction x 7→ x − bxc est une fonction 1-périodique.
bxc ∈ Z
½
e) La partie entière de x est entièrement caractérisée par : .
bxc 6 x < bxc + 1

Théorème 8.13
Tout intervalle de la forme ]a; b[ où a < b contient au moins un rationnel, on dit que Q est dense dans
R.

¥ ¦ de l’intervalle ]a; b[ et ε sa demi - longueur. Rpétant archimédien, il existe un entier q tel que
Preuve : Soit x le milieu
1 6 qε. Posons p = q x , on a alors p 6 q x < p + 1, d’où en posant r = q , r est un rationnel et r 6 x < r + q1 6 r + ε, par

AIG
conséquent, |x − r | < ε et donc r ∈]a; b[. 
Remarque 8.3 – Ce théorème traduit que aussi près que l’on veut de n’importe quel réel, on peut trouver des
p
rationnels. De plus la démonstration fournit une méthode de construction de q .
p p ¦
Par exemple, avec x = 2 et εp= 10−3 , on peut prendre q = 1000 et p = 1000 2 = 1414 (car 14142 6
¥
p
2.106 < 14152 ), d’où q = 1, 414 et | 2 − 1, 414| < 10−3 .

Théorème 8.14
Tout intervalle ]a; b[ où a < b contient au moins un irrationnel, donc l’ensemble des irrationnels,
R \ Q, est dense dans R.

Preuve : Comme précédemment on appelle x le milieu de l’intervalle ]a; b[ et ε la demip- longueur. Si x ∈ R \ Q alors
p
il n’y a rien à faire. Si x ∈ Q, alors il existe un entier n tel que 2 < nε, on pose y = x + n2 , le réel y est irrationnel et
NT
p
2
|x − y| = n < ε donc y ∈]a; b[. 

Définition 8.8 (Généralisation)


Soit A une partie non vide de R, on dit que A est dense dans R lorsque tout intervalle ouvert non vide
de R contient au moins un élément de A, ce qui équivaut à :
∀ x ∈ R, ∀ ε > 0, ∃ a ∈ A, |x − a| < ε.

Remarque 8.4 –
– Ce qui signifie qu’aussi près que l’on veut de tout réel x, on peut trouver des éléments de A. Voici une
autre définition équivalente (et très utile) :
– A est dense dans R ssi pour tout réel x il existe une suite (a n ) d’éléments de A qui converge vers x.
MO

3) Approximations décimales

Définition 8.9
Soient a, x, ε trois réels avec ε > 0, on dit que a est une valeur approchée de x à ε près lorsque la
distance entre a et x et inférieure ou égale à ε : |a − x| 6 ε. On dit que a est une valeur approchée de x
par défaut (respectivement par excès) à ε près lorsque a 6 x 6 a + ε (respectivement a − ε 6 x 6 a).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 77 ©Fradin Patrick – http://mpsi.tuxfamily.org


Approximation d’un réel Chapitre 8 : Nombres réels

Propriétés
a+b
a) Si a est une valeur approchée de x par défaut et b une valeur approchée de x par excès, alors 2 est
une valeur approchée de x à b−a

NE
2 près.
b) Si a est une valeur approchée de x par défaut à ε près et b une valeur approchée de x par excès à ε près,
ε
alors a+b
2 est une valeur approchée de x à 2 près.

Soit x ∈ R et soit n ∈ N, on a bx10n c 6 x10n < 1 + bx10n c, en multipliant par 10−n on obtient :

bx10n c bx10n c
6 x < + 10−n .
10n 10n
n n
Ce qui signifie que bx10 c
10n est une valeur approchée de x par défaut à 10
−n
près, et que bx10 c
10n + 10
−n
est une
−n
valeur approchée de x par excès à 10 près. Il faut remarquer que ces deux approximations de x sont des
nombres décimaux (i.e. un entier sur une puissance de dix).

AIG
Définition 8.10
bx10n c
On appelle approximation décimale de x par défaut à 10−n près, le nombre : 10n .

ZExemples : p n
– Prenons x = 2 et posons a n = bx10 10n
c

• 1 6 x 2 < 22 , donc 1 6 x < 2 et a 0 = bxc = 1 (partie entière de x).


• (10x)2 = 200 et 142 = 196 6 (10x)2 < 152 = 225, donc 14 6 10x < 15 et a 1 = b10xc /10 = 14/10 = 1, 4.
• (100x)2 = 20000 et 1412 6 (100x)2 < 1422 , donc 141 6 100x < 142 et a 2 = b100xc /100 = 141/100 =
1, 41...etc p
Si on continue le processus, on construit la suite (a n ) des approximations décimales de 2 à 10−n près
par défaut.
n
Si on pose pour n ∈ N, a n = bx10 c −n
10n , alors on a l’inégalité |x − a n | 6 10 , ce qui prouve que la suite (a n )
NT
converge vers x. On a donc une suite de rationnels qui converge vers x, ce qui est une autre façon de prouver
la densité de Q dans R. On remarquera que la suite (a n + 10−n ) (valeurs approchées décimales par excès)
converge également vers x.

Théorème 8.15
bx10n c
Soit x ∈ R et a n = 10n , pour n ∈ N∗ on pose d n = 10n (a n − a n−1 ), alors d n est un entier compris entre
0 et 9.

Preuve¥ : 10n a n¦ = b10n xc 6 10n x < 1 + b10n xc, d’autre part 10n a n−1 = 10 10n−1 x 6 10n x < 10 + 10 10n−1 x , d’où
¥ ¦ ¥ ¦

−10 − 10n−1 x < −10n x 6 −10n a n−1 , on en déduit que d n − 10 < 0 < d n + 1, par conséquent 0 6 d n < 10, or d n est un
entier, donc d n 6 9. 
MO

Définition 8.11
Pour n > 1, l’entier d n = 10n (a n − a n−1 ) = b10n xc − 10 10n−1 x est appelé n-ième décimale de x.
¥ ¦

n
Remarquons que d n 10−n = a n − a n−1 , ce qui entraîne que a 0 + d k 10−k = a n , or la suite (a n ) converge
P
k=1
vers x, on écrit alors :
+∞
d k 10−k (développement décimal de x)
X
x = a0 +
k=1

MPSI3 (2015-16) LYCÉE M ONTAIGNE 78 ©Fradin Patrick – http://mpsi.tuxfamily.org


NE
Chapitre 9

Suites numériques

AIG
Sommaire
I Suites réelles, généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
2) Vocabulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
3) Opérations sur les suites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
II Suites convergentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
2) Premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
3) Convergence et opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4) Convergence et relation d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
5) Caractérisations séquentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
III Suites ayant une limite infinie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
2) Limite infinie et ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
NT
3) Limite infinie et opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
IV Théorèmes d’existence d’une limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
1) Suites monotones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
2) Suites adjacentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
3) Le théorème de BOLZANO - WEIERSTRASS . . . . . . . . . . . . . . . . . . . . . . . . . 86
V Comparaison des suites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
2) Les exemples classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
VI Extension aux suites complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
MO

2) Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
3) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89

I SUITES RÉELLES, GÉNÉRALITÉS

1) Définitions

Définition 9.1
Une suite numérique u est une application de A vers R : u : A → R, où A est une partie de N. Par
convention le réel u(n) est noté u n , et la suite u est parfois notée (u n )n∈A . Si la partie A est finie, on dit
que la suite u est une suite finie. L’ensemble des suites réelles définies sur A est donc l’ensemble des
applications de A vers R, c’est à dire F (A, R).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 79 ©Fradin Patrick – http://mpsi.tuxfamily.org


Suites réelles, généralités Chapitre 9 : Suites numériques

Remarque 9.1 – On prendra garde à ne pas confondre u n qui est un réel (terme de rang n) avec (u n )n∈A qui
désigne la suite u. Les suites finies présentant peu d’intérêt, on étudiera seulement le cas où A est une partie
infinie de N. On peut alors montrer qu’il est toujours possible de se ramener au cas où A = N, si bien que dans

NE
la suite de ce chapitre on étudiera F (N, R) l’ensemble des suites réelles définies sur N.
ZExemples :
– Une suite u est arithmétique si et seulement si il existe un réel r (appelé raison), tel que ∀ n ∈
N, u n+1 = u n +r . On a alors les formules suivantes : ∀ n, p ∈ N, u n = u p +(n −p)r. La somme de n termes
n(p+d )
consécutifs est S = 2 où p désigne le premier terme, et d le dernier.
– Une suite u est géométrique si et seulement si il existe q ∈ R (appelé raison), tel que ∀ n ∈ N, u n+1 =
qu n . On a alors les formules suivantes : ∀ n, p ∈ N, u n = u p q n−p . La somme de n termes consécutifs est

 npsi q = 1
S = p − qd , où p désigne le premier terme, d le dernier et q la raison.
 si q 6= 1
1−q

– Suites récurrentes à un pas : ce sont les suites u définies par : u 0 ∈ R et ∀ n ∈ N, u n+1 = f (u n ), où

AIG
f : I → R est une fonction donnée. Par exemple : u 0 = 12 et u n+1 = u n2 . Dans le plan, à l’aide de la courbe
représentative de f et de la première bissectrice, on peut construire géométriquement les termes de la
suite sur l’axe des abscisses.
– Suites récurrentes à deux pas : par exemple la suite de Fibonacci 1 qui est définie par : u 0 = u 1 = 1 et
∀ n ∈ N, u n+2 = u n+1 + u n .

2) Vocabulaire
– Sens de variation : soit u une suite réelle et p un entier, on dit que la suite u est :
• croissante à partir du rang p lorsque : ∀ n > p, u n 6 u n+1 .
• strictement croissante à partir du rang p lorsque : ∀ n > p, u n < u n+1 .
• décroissante à partir du rang p lorsque : ∀ n > p, u n+1 6 u n .
• strictement décroissante à partir du rang p lorsque : ∀ n > p, u n+1 < u n .
• constante (ou stationnaire) à partir du rang p lorsque : ∀ n > p, u n+1 = u n .
NT
• monotone lorsque u est croissante ou bien décroissante.
• strictement monotone lorsque u est strictement croissante ou bien strictement décroissante.
Remarque 9.2 – Étudier le sens de variation de u peut se faire en étudiant le signe de u n+1 − u n , ou
encore le signe de f (u n+1 ) − f (u n ) où f désigne une fonction monotone.
– Suite bornée : on dit qu’une suite réelle u est :
• majorée lorsque : ∃ M ∈ R, ∀ n ∈ N, u n 6 M.
• minorée lorsque : ∃ m ∈ R, ∀ n ∈ N, m 6 u n .
• bornée lorsque : ∃ m, M ∈ R, ∀ n ∈ N, m 6 u n 6 M (i.e. minorée et majorée).
Remarque 9.3 – Une suite u est bornée si et seulement si il existe un réel M positif tel que ∀ n ∈ N, |u n | 6
M.
Par exemple, la suite (u n = sin(n)) est bornée, la suite (v n = n 2 ) est minorée mais non majorée, la suite
MO

(w n = (−2)n ) est ni minorée ni majorée.


– Suite périodique : on dit qu’une suite u est p -périodique (où p ∈ N∗ ) à partir du rang n 0 lorsque :
∀ n > n 0 , u n+p = u n . Par exemple, la suite (u n ) = (−1)n ) est 2 - périodique, la suite w définie par w 0 = 1,
w 1 = 1 et pour tout n w n+2 = −w n+1 − w n , est 3 - périodique, mais la suite des décimales de π n’est pas
périodique car π est irrationnel.
– Suite extraite : soit u une suite réelle et soit σ : N → N une application strictement croissante, alors la
suite v définie par v n = u σ(n) est appelée suite extraite de u (σ étant l’extraction). On remarquera que
l’on a : ∀n ∈ N, n 6 σ(n). Par exemple, la suite (u 2n ) est une suite extraite de u, c’est la suite des termes
de rangs pairs, de même la suite (u 2n+1 ) est extraite de u, c’est la suite des termes de rangs impairs.

3) Opérations sur les suites


Soient u et v deux suites réelles et soit λ ∈ R, on définit les suites :
1. FIBONACCI Leonardo (1180 – 1250 (environ)) : mathématicien italien (de son vrai nom Leonardo da Pisa) qui œuvra pour
l’introduction de nombres arabes en Occident.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 80 ©Fradin Patrick – http://mpsi.tuxfamily.org


Suites convergentes Chapitre 9 : Suites numériques

– u + v : en posant pour tout n ∈ N, (u + v)n = u n + v n ;


– u × v : en posant (u × v)n = u n v n .
– λv : en posant (λv)n = λv n .

NE
– v1 : si v ne s’annule pas à partir d’un certain rang n 0 , en posant : ( v1 )n = v1n .
On vérifie alors que :
– (F (N, R), +) est un groupe abélien. Son élément neutre est la suite nulle (notée 0) et l’opposé d’une
suite u est la suite (−u n )n∈N (notée −u).
– La multiplication est associative, commutative, admet comme élément neutre la suite constante
(u n = 1)n∈N (notée 1), et elle est distributive sur l’addition. Mais il y a des suites non nulles qui n’ont
pas d’inverse, par exemple la suite u définie par u n = 1 + (−1)n . Seules les suites u qui ne s’annulent
jamais ont un inverse, et cet inverse est la suite u1 .
L’ensemble (F (N, R), +, ×) n’est donc pas un corps, mais seulement un anneau commutatif. Les deux
suites u et v définies par u n = 1 + (−1)n et v n = 1 − (−1)n sont non nulles, mais leur produit est la suite nulle,
ceci prouve que (F (N, R), +, ×) est un anneau non intègre.

AIG
II SUITES CONVERGENTES

1) Définition

Définition 9.2
Soit u une suite réelle et ` ∈ R, on dit que u admet comme limite ` lorsque u n peut être aussi proche
(ou voisin) que l’on veut de ` pourvu que n soit assez grand, c’est à dire :

∀ ε > 0, ∃ N ∈ N, ∀ n ∈ N, n > N =⇒ |u n − `| < ε

Notation : lim u = ` ou lim u n = ` ou u n → `.

Remarque 9.4 –
NT
– Comme |u n − `| = |(u n − `) − 0| = ||u n − `| − 0|, on a :

lim u n = ` ⇐⇒ lim u n − ` = 0 ⇐⇒ lim |u n − `| = 0.

– Comme ||u n | − |`|| 6 |u n − `|, on a : lim u n = ` =⇒ lim |u n | = |`| (réciproque fausse).


– Si à partir d’un certain rang on a : |u n − `| 6 v n , et si v n → 0, alors lim u n = `.
En effet : soit ε >, à partir d’un rang N1 on a |v n | < ε, et à partir d’un rang N2 on a |u n − `| 6 v n , donc à
partir du rang Max(N1 , N2 ) on a |u n − `| < ε.

Définition 9.3
Lorsque la suite u admet une limite finie, on dit que u est convergente, sinon on dit qu’elle est
MO

divergente.

ZExemples :
– Toute suite stationnaire (à partir d’un certain rang) est convergente.
– Soit x ∈ R et v n = bnxc : on a v n → x. Soit ε > 0, |v n − x| = nx−bnxc < n1 < ε ⇐⇒ n > 1ε , il suffit donc de
¥ 1 ¦n n
prendre N = 1 + ε pour avoir : n > N =⇒ |v n − x| < ε.
– u n = q n avec q = 1 : la suite est constante et u n → 1.
1 1
– u n = q n avec |q| < 1 et q 6= 0 : alors q n → 0. Soit ε > 0, comme |q| > 1, on a |q| = 1 + p avec p > 0, on
peut montrer alors que ∀n ∈ N, |q|1 n > 1 + np (récurrence ou binôme de Newton), on a |q|1 n > 1ε dès que
j k
1 + np > 1ε c’est à dire dès que n > N = 1 + pε1
− p1 , donc n > N =⇒ |q n | < ε.
– u n = (−1)n alors la suite est divergente (2-périodique). Supposons qu’elle ait une limite finie ` alors à
partir d’un certain rang N on aura |u n − `| < 13 par conséquent les valeurs −1 et 1 sont dans l’intervalle
]` − 13 ; ` + 13 [ ce qui est absurde.
FExercice 9.1 Montrer qu’une suite d’entiers convergente est stationnaire.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 81 ©Fradin Patrick – http://mpsi.tuxfamily.org


Suites convergentes Chapitre 9 : Suites numériques

2) Premières propriétés
Soit u une suite réelle :

NE
– Si u admet une limite ` ∈ R, alors celle - ci est unique.
Preuve : Supposons u n → ` et u n → `0 avec ` 6= `0 , Soit α ∈]`; `0 [, ε = α − ` et ε0 = `0 − α, alors à partir d’un certain
rang N on a |u n − `| < ε, ce qui donne u n < α, et à partir d’un certain rang N0 on a |u n − `0 | < ε0 , ce qui donne
α < u n , donc à partir de max(N, N0 ) on a une contradiction, donc ` = `0 . 
On a démontré au passage :
– Si u converge vers ` et si α < `, alors à partir d’un certain rang α < u n . De même, si α > `, alors à partir
d’un certain rang on a α > u n .
– Si u est convergente, alors u est bornée (la réciproque est fausse).
Preuve : Si u n → ` ∈ R, il existe un entier N tel que n > N =⇒ |u n − `| < 1, ce qui entraîne |u n | < |`| + 1. On a alors
pour tout entier n : |u n | 6 max(|u 0 |, . . . , |u N |, 1 + |`|). Pour voir que la réciproque est fausse, on peut considérer la
suite u définie par u n = (−1)n , elle est bornée mais non convergente. 
Conséquence : la suite (q n ) avec |q| > 1 est divergente car non bornée, en effet : |q| = 1 + p avec p > 0

AIG
donc |q n | > 1 + np qui peut être aussi grand que l’on veut.
– Si u converge vers `, alors toutes les suites extraites de u convergent vers `.
Preuve : Soit v n = u σ(n) une suite extraite de u et supposons u n → ` ∈ R. Soit W un voisinage de `, il existe un
entier N tel que n > N =⇒ u n ∈ W. Mais σ étant strictement croissante, on a ∀n ∈ N, n 6 σ(n), donc n > N =⇒
σ(n) > N, mais alors u σ(n) ∈ W, c’est à dire n > N =⇒ v n ∈ W et donc v n → `. 
Remarque 9.5 – Cette propriété est souvent utilisée pour montrer qu’une suite u n’a pas de limite. Soit
en trouvant une suite extraite qui diverge, soit en trouvant deux suites extraites qui ne convergent pas
vers la même limite. Par exemple : u n = cos((n + n1 )π).
– Si lim u 2n = lim u 2n+1 = ` ∈ R, alors lim u = `.
Preuve : Soit ε > 0, il existe un entier N1 tel que k > N1 =⇒ |u 2k − `| < ε, de même il existe un entier N2 tel que
k > N2 =⇒ |u 2k+1 − `| < ε. Posons N = max(2N1 , 2N2 + 1), si n > N alors lorsque n = 2k on a k > N1 et donc
|u n − `| < ε, lorsque n = 2k + 1 on a k > N2 et donc |u n − `| < ε, finalement dès que n > N on a |u n − `| < ε et donc
u n → `. 
NT
3) Convergence et opérations

Théorème 9.1
Soient u et v deux suites qui convergent respectivement vers ` et `0 , et soit λ ∈ R alors :
– (u n + v n ) converge vers ` + `0 .
– (λu n ) converge vers λ`.

Preuve : Soit ε > 0, il existe un entier N à partir duquel on a |u n − `| < ε/2 et |v n − `0 | < ε/2, mais alors on a |u n + v n − (` +
`0 )| 6 |u n − `| + |v n − `0 | < ε, donc u n + v n → ` + `0 .
ε
Soit λ 6= 0, et soit ε > 0, à partir d’un certain rang on a |u n − `| < |λ| d’où |λu n − λ`| < ε. 
MO

Théorème 9.2
Si (u n ) converge vers ` et (v n ) vers `0 alors :
– (u n v n ) converge vers ``0 .
– Si ` 6= 0, alors à partir d’un certain rang la suite les termes u n sont non nuls et la suite ( u1n ) converge
vers 1` .

Preuve : |u n v n − ``0 | = |(u n − `)v n + `(v n − `0 )| 6 |u n − `||v n | + |`||v n − `0 |, mais la suite v est bornée donc il existe un réel
M strictement positif tel que |v n | 6 M et donc |u n v n − ``0 | < |u n − `|M + |`||v n − `0 |, mais d’après le théorème précédent
la deuxième suite tend vers 0, donc u n v n → ``0 .
La suite (|u n |) converge vers |`| > 0 donc à partir d’un certain rang on a |u n | > |`| 2 > 0, donc u n 6= 0 et alors :
|`−u n | 2|`−u n |
| u1n − 1` | = |`u n | < `2
, or cette deuxième suite tend vers 0, donc u1n → 1` . 

4) Convergence et relation d’ordre

MPSI3 (2015-16) LYCÉE M ONTAIGNE 82 ©Fradin Patrick – http://mpsi.tuxfamily.org


Suites ayant une limite infinie Chapitre 9 : Suites numériques

Théorème 9.3
Soient u, v et w trois suites réelles. Si u converge vers `, v converge vers `0 , et si à partir d’un certain

NE
rang on a u n 6 v n , alors ` 6 `0 (c’est le théorème du passage à la limite).

Preuve : Supposons ` > `0 , alors il existe α ∈]`0 , `[ donc à partir d’un certain rang on doit avoir u n > α et v n < α ce qui est
contradictoire, donc ` 6 `0 . 
Remarque 9.6 – Pour le passage à la limite on peut avoir u n < v n et ` = `0 , par exemple en prenant u n = 1 − n1
et v n = 1 + n1 , donc dans un passage à la limite les inégalités deviennent larges.

Théorème 9.4
Soient u, v et w trois suites réelles. Si u et v convergent vers ` et si à partir d’un certain rang on a
u n 6 w n 6 v n , alors w converge vers ` (c’est le théorème des gendarmes ou de l’étau).

AIG
Preuve : Soit ε > 0, il existe un entier N à partir duquel on a u n 6 w n 6 v n avec u n , v n ∈]`−ε, `+ε[, donc w n ∈]`−ε, `+ε[
à partir du rang N, donc w n → `. 

Théorème 9.5
Soient u et v deux suites réelles. Si u converge vers 0 et si v est bornée, alors lim u × v = 0.

Preuve : Il existe un réel positif M tel que |v n | 6 M pour tout n, d’où |u n v n | 6 M|u n |, c’est à dire −M|u n | 6 u n v n 6 M|u n |,
on peut donc conclure que u n v n → 0. 
Déterminer la limite des suites (si elle existe) :
ZExemples :
n p
sin(n) n P 1p
– an = n b n = 2n+(−1) n cn = dn = n − n
k=1 n+ k
n 3 −1
p ¢n
g n = 1 + n1
¡
fn = n2 + n + 1 − n
NT
– en = n 2 +1

5) Caractérisations séquentielles

Théorème 9.6 (caractérisation séquentielle de la borne supérieure)


Soit A une partie non vide de R et soit M ∈ R, on a :
M est la borne supérieure (inférieure) de A si et seulement si M majore (minore) A et il existe une suite
d’éléments de A qui converge vers M.

1 1
Preuve : Si M = sup A, alors pour tout n ∈ N, ∃a n ∈ A tel que M − n+1 < a n car M − n+1 ne majore pas A, la suite (a n )
1
ainsi construite converge vers M car M − n+1 < a n 6 M.
Si M majore A et qu’il existe une suite (a n ) de A qui converge vers M, alors pour tout ε > 0, à partir d’un certain rang
MO

N on a M − ε < a n , donc M − ε ne majore pas A, M est donc le plus petit majrant de A. 

Théorème 9.7 (caractérisation séquentielle de la densité)


Soit A une partie non vide de R, A est dense dans R si et seulement si pour tout réel x il existe une
suite d’éléments de A qui converge vers x.

Preuve : Celle-ci est simple et laissée en exercice. 

III SUITES AYANT UNE LIMITE INFINIE

1) Définition

MPSI3 (2015-16) LYCÉE M ONTAIGNE 83 ©Fradin Patrick – http://mpsi.tuxfamily.org


Suites ayant une limite infinie Chapitre 9 : Suites numériques

Définition 9.4
Soit u une suite réelle :

NE
– on dit que u admet comme limite +∞ lorsque u n peut être aussi grand que l’on veut pourvu que n
soit assez grand, c’est à dire : ∀ A ∈ R, ∃ N ∈ N, ∀ n ∈ N, n > N =⇒ u n > A.
Notation : lim u = +∞ ou lim u n = +∞ ou u n → +∞.
– on dit que u admet comme limite −∞ lorsque u n peut être aussi petit que l’on veut pourvu que n
soit assez grand, c’est à dire : ∀ A ∈ R, ∃ N ∈ N, ∀ n ∈ N, n > N =⇒ u n < A.
Notation : lim u = −∞ ou lim u n = −∞ ou u n → −∞.

Remarque 9.7 –
– Si u n → +∞ alors u n’est pas majorée.
– Si u n → −∞ alors u n’est pas minorée.
– On a l’équivalence : lim u n = −∞ ⇐⇒ lim −u n = +∞.

AIG
ZExemple : Si q > 1 alors lim q n = +∞.
Comme pour les suites convergentes, on peut montrer :
– Si u admet une limite infinie, alors toutes les suites extraites de u ont la même limite que u.
– Si u 2n → +∞ et u 2n+1 → +∞, alors u n → +∞.

2) Limite infinie et ordre

Théorème 9.8
Soient u et v deux suites réelles :
– Si lim u = +∞ et si à partir d’un certain rang on a u n 6 v n , alors lim v = +∞.
– Si lim v = −∞ et si u n 6 v n à partir d’un certain rang, alors lim u = −∞.
– Si lim u = +∞ (respectivement −∞) et si v est minorée (respectivement majorée), alors lim u + v =
+∞ (respectivement −∞).
NT
Preuve : Pour le premier point : il existe un entier N1 à partir duquel on a u n 6 v n , soit A un réel, il existe un entier N2 à
partir duquel on a A < u n , donc si n > max(N1 , N2 ) alors A < v n , donc v n → +∞.
Pour le deuxième point : on peut appliquer le précédent aux suites −u et −v.
Pour le troisième point : supposons u n → +∞ et v minorée par un réel m, alors pour tout entier n on a m + u n 6
u n + v n , or la suite (m + u n ) tend vers +∞, on peut donc appliquer le premier point, i.e. u n + v n → +∞. Dans l’autre cas
on peut raisonner sur les suites −u et −v. 

3) Limite infinie et opérations

Théorème 9.9
Soient u et v deux suites de limites respectives ` et `0 dans R, et soit λ ∈ R.
MO

– lim u + v = ` + `0 sauf si ` = +∞ et `0 = −∞ (ou l’inverse).


– lim λu = λ` (si λ = 0 alors la suite λu est nulle).
– lim u × v = ``0 sauf si ` = 0 et `0 = ±∞ (ou l’inverse).
– Si à partir d’un certain rang la suite u ne s’annule pas, alors la suite u1 :

tend vers 1` si ` ∈ R∗



si ` = ±∞



 tend vers 0
tend vers + ∞ si ` = 0 et u > 0 .
si ` = 0 et u < 0




 tend vers − ∞
n’a pas de limite dans les autres cas

MPSI3 (2015-16) LYCÉE M ONTAIGNE 84 ©Fradin Patrick – http://mpsi.tuxfamily.org


Théorèmes d’existence d’une limite Chapitre 9 : Suites numériques

Preuve : Pour la somme : prenons par exemple le cas ` ∈ R et `0 = +∞, la suite u n est minorée par un certain réel m (car
convergente) d’après le paragraphe précédent, u n + v n → +∞. Les autres cas non indéterminés se ramènent à celui-ci.
Pour la forme indéterminée, on peut considérer les exemples suivants : (n + (−n + a)) qui converge, (n + (− n2 )) qui tend

NE
vers +∞, (n + (−2n)) qui tend vers −∞, et (n + (−n + (−1)n )) qui n’a pas de limite.
Pour λu : il suffit de considérer le cas λ > 0 et u n → +∞ (laissé en exercice). Les autres cas se ramènent à celui-ci.
Pour le produit : prenons par exemple le cas où ` est un réel strictement positif et `0 = +∞, alors à partir d’un
0 0 0
certain rang, on a v n > 0 et u n > `2 >0, d’où u n v n > v n `2 , or v n `2 tend vers +∞, et donc u n v n aussi. Les autres cas non
indéterminés se ramènent à celui-ci. Pour la forme indéterminée, on peut considérer les exemples suivants : ( n1 × na )
p n
qui converge, ( n1 × p1n ) qui tend vers +∞, ( n1 × −11 n) qui tend vers −∞, et ( n1 × (−1) n ) qui n’a pas de limite.
1
Pour l’inverse : supposons que ` = 0 et u > 0, soit A un réel et ε = 1+|A| , il existe un entier N à partir duquel on
1 1 1
a |u n | < ε, c’est à dire en fait, 0 < u n < ε et donc A < 1 + |A| = ε < un , par conséquent u n → +∞. Les autres cas non
(−1)n n
indéterminés se ramènent à celui-ci. Pour terminer prenons la suite u n = n , son inverse est la suite ((−1) n) et cette
suite n’a pas de limite (distinguer les termes de rangs pairs et les termes de rangs impairs). 

AIG
IV THÉORÈMES D’EXISTENCE D’UNE LIMITE

1) Suites monotones

Théorème 9.10
Si u est une suite croissante majorée (respectivement décroissante minorée), alors (u n ) converge vers
sup u n (respectivement vers inf u n ).
n∈N n∈N
Si u est une suite croissante non majorée (respectivement décroissante non minorée), alors (u n ) tend
vers +∞ (respectivement vers −∞).

Preuve : Supposons u croissante majorée, soit ` = sup u n , et soit ε > 0, alors il existe un entier N tel que u N > ` − ε (car
n∈N
` − ε ne majore pas la suite). Si n > N alors, la suite étant croissante, ` − ε < u N 6 u n 6 ` < ` + ε et donc |u n − `| < ε, ce
qui prouve que u n → `.
NT
Lorsque u est croissante non majorée : soit A un réel, alors il existe un entier N tel que u N > A (A ne majore pas la
suite), si n > N alors A < u N 6 u n , donc u n → +∞. 
Conséquences :
a) Si (u n ) est croissante majorée, alors u n → ` = sup u n ∈ R et donc ∀ n ∈ N, u n 6 `. En fait si u est
strictement croissante, alors ∀ n ∈ N, u n < ` (car s’il y avait l’égalité au rang N, alors la suite serait
constante à partir de l’indice N).
b) Si (u n ) est décroissante minorée, alors u n → ` = inf u n ∈ R et donc ∀ n ∈ N, u n > `. En fait si u est
strictement décroissante, alors ∀ n ∈ N, u n > ` (car s’il y avait l’égalité au rang N, alors la suite serait
constante à partir de l’indice N).
c) Une suite monotone est donc convergente si et seulement si elle est bornée.

ZExemples :
MO

n
P 1
– Soit u la suite définie par : u n = k2
. Cette suite est croissante (u n+1 − u n > 0), en remarquant que
k=1
< 2, la suite u est donc convergente (de limite π6 ).
2
pour k > 2 on a k12 < k(k−1)
1
= 1
k − 1
k−1 , on voit que u n
– Soit v la suite définie par v 0 = 1 et ∀ n ∈ N, v n+1 = sin(v n ). Il s’agit d’une suite récurrente, la représenta-
tion graphique des premiers termes suggère que la suite est décroissante minorée par 0, ce qui est facile
à vérifier par récurrence. La suite v est donc convergente de limite `, la fonction sinus étant continue,
on a sin(v n ) → sin(`), c’est à dire v n+1 → sin(`), donc ` = sin(`). L’étude de la fonction x 7→ sin(x) − x
montre que l’unique solution de sin(x) = x est 0, donc ` = 0, i.e. v n → 0

2) Suites adjacentes

MPSI3 (2015-16) LYCÉE M ONTAIGNE 85 ©Fradin Patrick – http://mpsi.tuxfamily.org


Comparaison des suites Chapitre 9 : Suites numériques

Définition 9.5
Soient u et v deux suites, on dit qu’elles sont adjacentes lorsque l’une est croissante, l’autre décrois-
sante et lim u n − v n = 0.

NE
n
1 1
ZExemple : Soient u et v les suites définies par : u n =
P
k! et v n = u n + n×n! , ces deux suites sont adjacentes.
k=0

Théorème 9.11
Deux suites adjacentes sont nécessairement convergentes et convergent vers la même limite.

Preuve : Supposons u croissante, v décroissante, et lim u n − v n = 0. Soit w n = v n − u n , alors w n+1 − w n = (v n+1 − v n ) −


(u n+1 − u n ) 6 0, donc la suite w est décroissante, or lim w n = 0, donc ∀ n ∈ N, w n > 0, i.e. u n 6 v n . Mais alors u est
majorée par v 0 et v est minorée par u 0 , donc u et v sont convergentes : u n → ` et v n → `0 , par conséquent w n → `0 − `,
or w n → 0, donc ` = `0 . 

3)

b 1 − a 1 = b−a
AIG
Le théorème de BOLZANO - WEIERSTRASS

Théorème 9.12 (de Bolzano 2 - Weierstrass 3 .)


Si u est une suite réelle bornée, alors on peut en extraire une suite convergente.

Preuve : On applique le principe de dichotomie : il existe a 0 < b 0 deux réels tels que ∀ n ∈ N, u n ∈ [a 0 ; b 0 ]. On pose
I0 = [a 0 ; b 0 ] et σ(0) = 0. On coupe cet intervalle en deux, soit I00 = [a 0 ; a0 +b
0 00
0 00 a 0 +b 0
2 ] et I0 = [ 2 ; b 0 ], si {n ∈ N / u n ∈ I0 }
est infini alors on pose I1 = I0 , sinon on pose I1 = I0 . On alors un nouveau segment I1 = [a 1 ; b 1 ] inclus dans I0 avec
2 et {n ∈ N / u n ∈ I1 } infini. On peut donc choisir n 1 > 0 tel que u n 1 ∈ I1 , on pose σ(1) = n 1 . On recommence
de la même façon avec I1 ...
0

On construit ainsi une suite de segments In = [a n ; b n ], emboîtés (In+1 ⊂ In ), tels que b n − a n = b−a 2n , et une applica-
tion σ : N → N strictement croissante telles que pour tout n, et u σ(n) ∈ In , c’est à dire a n 6 u σ(n) 6 b n . Or les suites (a n )
NT
et (b n ) sont adjacentes, elles convergent donc vers une même limite `, et donc par le théorème des gendarmes, on a
u σ(n) → ` : on a donc construit une suite extraite convergente. 

V COMPARAISON DES SUITES

1) Définitions

Définition 9.6
Soient (u n ), (v n ) et (εn ) trois suites telles qu’à partir d’un certain rang u n = v n εn . On dit que :
– u n est dominée par v n lorsque la suite (εn ) est bornée. Notation : u n = O(v n ).
– u n est négligeable devant v n lorsque εn → 0. Notation : u n = o(v n ).
MO

– u n est équivalente à v n lorsque εn → 1. Notation : u n ∼ v n .

Théorème 9.13 (Caractérisations)


Lorsque la suite v ne s’annule pas à partir d’un certain rang :
– u n = O(v n ) si et seulement si la suite uv est bornée.
u
– u n = o(v n ) si et seulement si lim v nn = 0.
u
– u n ∼ v n si et seulement si lim v nn = 1.

Preuve : Celle - ci est simple et laissée en exercice. 


n
ZExemple : n = o n 2 ; ∼ n1 ;
¡ ¢
n 2 +1
n sin(n) = O(n).

3. BOLZANO Bernhard (1781 – 1848) : mathématicien et philosophe tchèque.


3. WEIERSTRASS Karl (1815 – 1897) : mathématicien allemand parfois surnommé le père de l’analyse moderne

MPSI3 (2015-16) LYCÉE M ONTAIGNE 86 ©Fradin Patrick – http://mpsi.tuxfamily.org


Comparaison des suites Chapitre 9 : Suites numériques

Remarque 9.8 –
– u n = O(1) signifie que la suite (u n ) est bornée [donc O(v n ) = v n × O(1)].

NE
– u n = o(1) signifie que u n → 0 [donc o(v n ) = v n × o(1)].
– Si u n = o(v n ) alors u n = O(v n ).
– Si u n ∼ v n alors u n = O(v n ).
– Si u n = o(v n ) et v n = o(w n ), alors u n = o(w n ) (transitivité).
– Si u n = O(v n ) et v n = O(w n ), alors u n = O(w n ) (transitivité).
– u n ∼ v n ⇐⇒ u n − v n = o(v n ).

Théorème 9.14
La relation « ... est équivalente à ... » est une relation d’équivalence dans F (N, R), c’est à dire qu’elle
est réflexive, symétrique et transitive. De plus :
– Si ` ∈ R et si u n ∼ ` alors u n → ` (réciproque vraie lorsque ` ∈ R∗ ).

AIG
– Si u n = o(v n ) alors u n + v n ∼ v n .

Preuve : Celle-ci est simple et laissée en exercice. 

2) Les exemples classiques

Théorème 9.15 (des croissances comparées)


Soient α, β ∈]0; +∞[ :
– Si α < β alors n α = o n β et 1 1
¡ ¢ ¡ ¢

=o nα .
– [ln(n)]α = o n β .
¡ ¢
³ β´
– n α = o e nβ et n α = o e n .
¡ ¢

– ∀ a ∈ R, a n = o(n!) et donc n α = o(n!).


NT
– n! = o(n n ).

|a|n u n+1 |a|


Preuve : Pour l’avant dernier point avec a 6= 0 : on pose u n = n! , alors u n = n+1 6 12 à partir d’un certain rang N, d’où
1
pour n > N, 0 6 u n 6 u N 2n−N et donc u n → 0.
n! 1 k
Pour le dernier point : Soit u n = nn alors 0 6 u n 6 n (en écrivant que n 6 1 pour k > 1). 

Théorème 9.16 (les équivalents usuels)


Soit (u n ) une suite de limite nulle, alors ;
• Si f : ] − a; a[→ R (où a > 0) est dérivable en 0, et si f 0 (0) 6= 0, alors pour toute suite (u n ) de limite
nulle, on a f (u n ) − f (0) ∼ f 0 (0)u n .
MO

• sin(u n ) ∼ u n ; e un − 1 ∼ u n ; ln(1 + u n ) ∼ u n ; tan(u n ) ∼ u n ; (1 + u n )α − 1 ∼ αu n ;


• 1 − cos(u n ) ∼ 12 u n2 .
p
a k x k une fonction polynomiale avec a p 6= 0, alors P(n) ∼ a p n p (équivalence avec le
P
• Soit P(x) =
k=0
terme de plus haut degré).
P(x)
• Soit Q(x) = R(x) une fraction rationnelle avec a p x p le terme de plus haut degré de P (a p 6= 0) et b r x r
a p p−r
celui de R (b r 6= 0), alors Q(n) ∼ br n (équivalence avec le rapport des termes de plus haut degré).

Preuve : Si f est une fonction dérivable en 0, alors il existe une fonction ε de limite nulle en 0 telle que : f (x) − f (0) =
ε(u n )
x f 0 (0) + xε(x), si f 0 (0) 6= 0 alors pour n assez grand on aura f (u n ) − f (0) = u n f 0 (0)[1 + f 0 (0) ], ce qui entraîne que
f (u n ) − f (0) ∼ u n f 0 (0) car u n → 0. 

3) Propriétés

MPSI3 (2015-16) LYCÉE M ONTAIGNE 87 ©Fradin Patrick – http://mpsi.tuxfamily.org


Extension aux suites complexes Chapitre 9 : Suites numériques

Théorème 9.17
Soient u et v deux suites,

NE
– Si u n ∼ v n et si lim v n = ` ∈ R, alors lim u n = `.
– Si u n ∼ v n et si a n ∼ b n , alors u n a n ∼ v n b n (compatibilité avec la multiplication).
– Si u n ∼ v n et si v ne s’annule pas à partir d’un certain rang, alors u1n ∼ v1n (compatibilité avec le
passage à l’inverse).

Preuve : Celle - ci découle directement de la définition. 

Attention !
Il n’y a pas compatibilité avec l’addition en général, par exemple : n + sin( n1 ) ∼ n et −n ∼ 1 − n, mais sin( n1 ) n’est
pas équivalent à 1.
Ces propriétés sont utiles pour les calculs de limites qui ne peuvent pas être faits directement : on essaie de se
ramener à un équivalent plus simple (s’il y en a ...) dont on sait calculer la limite.

AIG
ZExemples :
– Soit u n =
– Soit u n =
n
p
n 2 − n − n, alors u n = n[(1 − 1/n)1/2 − 1] ∼ n[ −1
n 2 −e n
n!+n 4
,
u n ∼ − en! , mais e n = o(n!), donc u n → 0.

Théorème 9.18 (équivalent de Stirling)


p
On a n! ∼ n n e −n 2πn.
2n ] = −1/2, donc u n → −1/2.
on a n 2 = o(e n ) donc n 2 − e n ∼ −e n , d’autre part n 4 = o(n!) donc n! + e n ∼ n!, d’où

VI EXTENSION AUX SUITES COMPLEXES


NT
1) Définitions
On adopte la même définition et les mêmes notations que pour les suites réelles, une suite complexe est
donc une application u : N → C, l’ensemble des suites complexes est F (N, C).
– Si u est une suite complexe, on pose pour tout entier n, a n = Re(u n ) et b n = Im(u n ), alors les suites
a et b sont des suites réelles, avec u n = a n + i b n . La suite a est appelée partie réelle de u et notée
a = Re(u), la suite b est appelée partie imaginaire de u et notée Im(u). Par exemple, si θ ∈ R, la partie
réelle que la suite (e i nθ ) est la suite (cos(nθ)), et sa partie imaginaire est la suite (sin(nθ)).
– La suite conjuguée de u est notée u et définie par u n = a n − i bq n.

– La suite module de u est notée |u| est définie par |u|n = |u n | = a n2 + b n2 .


– Soit σ : N → N une application strictement croissante, la suite (u σ(n) ) est appelée suite extraite de u et
MO

on a u σ(n) = a σ(n) + i b σ(n) .


– On dit que la suite complexe u est bornée lorsque sa partie réelle a et sa partie imaginaire b sont des
suites réelles bornées. Ceci revient à dire que la suite |u| est majorée.
– On définit dans F (N, C) les mêmes opérations que pour les suites réelles : addition, multiplication
et produit par un complexe. On trouve de même que (F (N, C), +, ×) est un anneau commutatif non
intègre.

2) Convergence

Définition 9.7
Soit u une suite complexe, et soit ` un complexe. On dira que la suite u converge vers ` lorsque la
suite (|u n − `|)n∈N tend vers 0, c’est à dire :
∀ε > 0, ∃N ∈ N, ∀n ∈ N, n > N =⇒ |u n − `| < ε.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 88 ©Fradin Patrick – http://mpsi.tuxfamily.org


Extension aux suites complexes Chapitre 9 : Suites numériques

i nθ
ZExemple : Soit u n = e n , alors |u n | = n1 → 0 donc u converge vers 0.

NE
3) Propriétés

Théorème 9.19
Soit u une suite complexe et ` un complexe, alors la suite u converge vers ` si et seulement si la suite
(Re(u n )) converge vers Re(`) et la suite (Im(u n )) converge vers Im(`).

Preuve : Notons u n = a n + i b n et ` = α + i β, (formes algébriques). Supposons que a n → α et b n → β, alors |u n − `| =


(a n − α)2 + (b n − β)2 qui tend donc vers 0, donc u converge vers `.
p

Réciproquement, si u converge vers `, on a |a n − α| 6 |u n − `| et |b n − β| 6 |u n − `|, or |u n − `| tend vers 0, par


conséquent a n → α et b n → β. 
Connaissant les propriétés de suites réelles convergentes, on peut en déduire celles des suites complexes

AIG
convergentes en raisonnant sur les parties réelles et imaginaires :
– Toute suite convergente est bornée.
– Si u converge vers ` ∈ C, alors toute suite extraite de u converge vers `.
– Si u converge vers ` ∈ C et v converge vers `0 ∈ C, alors u + v → ` + `0 , uv → ``0 et ∀ λ ∈ C, λu → λ`.
– Si u → ` ∈ C∗ , alors à partir d’un certain rang u n 6= 0 et u1 → 1` .
– Si u converge vers ` ∈ C, alors la suite u converge vers ` et la suite |u| converge vers |`|.
– Si u est bornée alors on peut en extraire une suite convergente (Bolzano - Weierstrass).
Remarque 9.9 – Si u n → ` dans C, et si u est à valeurs réelles, alors la suite (b n ) est la suite nulle, or b n → Im(`),
donc Im(`) = 0, c’est à dire ` ∈ R.
FExercice 9.2 Étude de la suite (u n = e i nθ ).
Solution 9.2 C’est une suite géométrique de raison e i θ . Si θ = 0 (2π), alors la suite est constante égale à 1, donc u n → 1.
Si θ 6= 0 (2π), supposons que u n → ` ∈ C, alors |u n | → |`|, or |u n | = 1, donc |`| = 1. D’autre part, u n+1 = e i θ u n , par passage
à la limite, on a ` = `e i θ , or ` 6= 0 (car |`| = 1), donc e i θ = 1 ce qui est absurde, par conséquent si θ 6= 0 (2π), la suite (u n )
NT
est divergente.
MO

MPSI3 (2015-16) LYCÉE M ONTAIGNE 89 ©Fradin Patrick – http://mpsi.tuxfamily.org


NE
Chapitre 10

Arithmétique

AIG
Sommaire
I Divisibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
1) La propriété fondamentale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
2) La division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
3) Congruences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4) Diviseurs communs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
II Éléments premiers entre eux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
1) Théorème de Bézout . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
2) Conséquences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
III Le plus grand diviseur commun . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
3) Généralisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
IV Le plus petit multiple commun . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
NT
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
V Nombres premiers, décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
2) Décomposition en facteurs premiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3) Notion de valuation p-adique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4) Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100

I DIVISIBILITÉ

1) La propriété fondamentale
MO

Théorème 10.1
Toute partie de Z non vide et minorée admet un plus petit élément.

Preuve : Soit A une partie de Z non vide et minorée par un entier n 0 . Soit M l’ensemble des minorants de A, on a n 0 ∈ M,
supposons que n ∈ M =⇒ n +1 ∈ M, alors d’après le principe de récurrence, ∀ n ∈ Z, n > n 0 =⇒ n ∈ M. Soit p ∈ A, p > n 0 ,
donc p + 1 ∈ M ce qui entraîne que p + 1 6 p : absurde, donc il existe un entier n 1 tel que n 1 ∈ M et n 1 + 1 ∉ M, mais
alors il existe un élément p 1 de A tel que p 1 < n 1 + 1, d’où n 1 6 p 1 < n 1 + 1, ce qui entraîne p 1 = n 1 , et donc n 1 ∈ A,
nécessairement n 1 est le plus petit élément de A. 

À retenir
• Toute partie non vide et majorée de Z admet un plus grand élément. En effet, si A est non vide
majorée, alors −A = {−a / a ∈ A} est non vide minorée, donc −A admet un plus petit élément −n 0 , ce
qui signifie que n 0 est le plus grand élément de A.
• Toute partie non vide de N admet un plus petit élément (propriété fondamentale de N). En effet,

MPSI3 (2015-16) LYCÉE M ONTAIGNE 90 ©Fradin Patrick – http://mpsi.tuxfamily.org


Divisibilité Chapitre 10 : Arithmétique

une partie non vide de N est une partie non vide de Z minorée par 0.

NE
2) La division euclidienne

Théorème 10.2
Soient a ∈ Z et b ∈ Z∗ , il existe un unique couple d’entiers (q, r ) tel que a = bq + r avec 0 6 r < |b|, q
est appelé le quotient, et r le reste.

Preuve : Supposons b > 0 : soit B = {b(n + 1) / n ∈ Z}, alors B est non majoré et non minoré, donc il existe un entier n 1
tel que a < b(n 1 + 1) et il existe un entier n 2 tel que b(n 2 + 1) < a. Soit A = {n ∈ Z / a < b(n + 1)}, alors A est non vide
(n 1 ∈ A) et minoré par n 2 , donc A admet un plus petit élément q, d’où bq 6 a < b(q + 1), en posant r = a − bq, on a
a = bq + r et 0 6 r < b = |b|.
Supposons b < 0 : on applique ce qui précède à −b > 0, il existe un entier q et un entier r tels que a = (−b)q + r =

AIG
b(−q) + r avec 0 6 r < −b = |b|.
Montrons l’unicité : si a = bq + r = bq 0 + r 0 avec 0 6 r < |b| et 0 6 r 0 < |b|, alors |r − r 0 | = |bq 0 − bq| = |b||q 0 − q| < |b|,
d’où q 0 = q (ce sont des entiers) et donc r 0 = r . 

Définition 10.1
Soient a, b ∈ Z, on dit que b divise a lorsqu’il existe k ∈ Z tel que a = bk. Notation : b|a.

Remarque 10.1 – On a ainsi défini une relation dans Z, elle est réflexive, non symétrique, non antisymétrique,
et transitive.

Théorème 10.3
Soient a, b ∈ Z avec b 6= 0, alors b|a ssi le reste dans la division euclidienne de a par b est nul.
NT
Preuve : Celle-ci est simple et laissée en exercice. 
Notation : Soit n ∈ Z, on note n Z l’ensemble des multiples de n : n Z = {kn / k ∈ Z}.
On vérifie facilement la propriété suivante :
(a Z, +) est un groupe commutatif et ∀b ∈ Z, ∀u ∈ a Z, bu ∈ a Z. On dit que a Z est un idéal de Z.
FExercice 10.1 Montrer que aZ + bZ et (aZ) ∩ (bZ) sont également des idéaux de Z.

Théorème 10.4
• b | a ⇐⇒ a ∈ b Z.
• Si a 6= 0, alors b | a =⇒ |b| 6 |a|.
• (a | b et b | a) ⇐⇒ a Z = b Z ⇐⇒ a = λb avec λ = ±1 [on dit que a et b sont associés].
• Si b | a et b | c alors ∀ u, v ∈ Z, b | au + c v.
• Si nb | na et si n 6= 0, alors b | a.
MO

3) Congruences

Définition 10.2 (congruences)


Soient a, b, n ∈ Z, on dit que a est congru à b modulo n lorsque n | a − b. Notation : a ≡ b (mod n).

Théorème 10.5
• La relation de congruence modulo n est une relation d’équivalence.
• Soient a, b, c, d , n ∈ Z, si a ≡ b (mod n) et c ≡ d (mod n) alors :
ac ≡ bd (mod n) et a + c ≡ b + d (mod n).
On dit que la relation de congruence est compatible avec les opérations.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 91 ©Fradin Patrick – http://mpsi.tuxfamily.org


Divisibilité Chapitre 10 : Arithmétique

Preuve : Celle-ci est simple et laissée en exercice. 

NE
ZExemple : Dans Z, si n = a0 + 10a1 + · · · + 10p a p (écriture décimale) alors n ≡ a0 + · · · + a p (mod 3) car 10k ≡ 1
(mod 3)

4) Diviseurs communs

Définition 10.3 (diviseurs communs)


Pour a ∈ Z, on note Da l’ensemble des diviseurs de a. Si a, b ∈ Z, on note Da,b l’ensemble des diviseurs
communs à a et b, on a donc Da,b = Da ∩ Db , cet ensemble contient toujours ±1.

Remarque 10.2 –

AIG
– Pour tout élément a ∈ Z, ±1 | a.
– Si a 6= 0, alors Da est un ensemble fini, plus précisément Db ⊂ J−|a|; |a|K.
– D0 = Z, D±1 = {±1}.
– Si a et b sont non nuls : Da = D|a| (on en déduit que Da,b = D|a|,|b| ).

Théorème 10.6
Soient a, b, q, r ∈ Z, si a = bq + r , alors Da,b = Db,r .

Preuve : Si d ∈ Da,b , alors d | a et d | b donc d | a − bq i.e. d | r , donc d ∈ Db,r .


Réciproquement, si d ∈ Db,r , alors d | b et d | r donc d | bq + r i.e. d | a, d’où d ∈ Da,b . 
Application – Le théorème ci-dessus fournit un algorithme pour la recherche des diviseurs communs à a et b basé sur
la division euclidienne : c’est l’algorithme d’Euclide 1 , voici son principe :
On remarque que si b = 0 alors Da,b = Da . On peut supposer désormais que b 6= 0 et on cherche à calculer
NT
D = Da,b :
Étape 1 : on effectue la division euclidienne de a par b : a = bq 1 + r 1 avec 0 6 r 1 < b. On a D = Db,r 1 , donc
si r 1 = 0 alors D = Db , sinon on passe à l’étape 2 :

Étape 2 : on effectue la division euclidienne de b par r 1 : b = r 1 q 2 + r 2 avec 0 6 r 2 < r 1 . On a D = Dr 1 ,r 2 ,


donc si r 2 = 0 alors D = Dr 1 , sinon on passe à l’étape 3 :

Étape 3 : on effectue la division euclidienne de r 1 par r 2 : r 1 = r 2 q 3 + r 3 avec 0 6 r 3 < r 2 . On a D = Dr 2 ,r 3 ,


donc si r 3 = 0 alors D = Dr 2 , sinon on passe à l’étape 4...

La suite des restes obtenus est une suite strictement décroissante d’entiers positifs, elle est donc néces-
sairement finie, i.e. il existe un entier n > 1 tel que r n = 0, l’ensemble cherché est donc D = Dr n−1 (avec la
MO

convention r 0 = b).

À retenir
Da,b est l’ensemble des diviseurs du dernier reste non nul.

1. EUCLIDE (300 av. J.C. – 275 av. J.C. environ) : on ne sait pratiquement rien de sa vie, il était vraisemblablement grec. Son
œuvre est colossale et son ouvrage fondamental « Les éléments » regroupe toutes les connaissances de l’époque, il faudra près de
vingt siècles pour dépasser son œuvre.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 92 ©Fradin Patrick – http://mpsi.tuxfamily.org


Éléments premiers entre eux Chapitre 10 : Arithmétique

ZExemple : Cherchons les diviseurs communs à a = 336 et b = 210


– on effectue la division de a par b : 336 = 1 × 210 + 126, donc Da,b = D210,126 .
– on effectue la division de 210 par 126 : 210 = 1 × 126 + 84, donc Da,b = D210,126 = D126,84 .

NE
– on effectue la division de 126 par 84 : 126 = 1 × 84 + 42, donc Da,b = D84,42 .
– on effectue la division de 84 par 42 : 84 = 2 × 42 + 0, donc Da,b = D42,0 = D42 , c’est à dire :

D336,210 = {±1, ±2, ±3, ±6, ±7, ±14, ±21, ±42}.

II ÉLÉMENTS PREMIERS ENTRE EUX

1) Théorème de Bézout

Définition 10.4
Soient a, b ∈ Z, on dit que a et b sont premiers entre eux (ou a est premier avec b) lorsque le seul

AIG
diviseur commun positif est 1, i.e. Da,b = {±1}.

Remarque 10.3 –
– Dire que a est premier avec b revient à dire que le dernier reste non nul dans l’algorithme d’Euclide est 1.
– Si a est premier avec b, alors au moins un des deux est non nul (sinon l’ensemble des diviseurs communs
est Z).
– a est premier avec a si et seulement si a ± 1.

Théorème 10.7 (théorème de Bézout 2 )


Soient a, b ∈ Z, alors a et b sont premiers entre eux si et seulement si il existe u, v ∈ Z tels que
au + bv = 1. Les entiers u et v sont appelés coefficients de Bézout (non uniques en général).
NT
Preuve : Supposons que u et v existent et soit d un diviseur commun à a et b, alors d | a et d | b, donc d | au + bv i.e.
d | 1, donc d = ±1 ce qui prouve que a et b sont premiers entre eux.
Réciproquement : si a est premier avec b. En appliquant l’algorithme d’Euclide on vérifie qu’à chaque étape le
reste r k peut se mettre sous la forme r k = a.u k + b.v k avec u k et v k dans Z (récurrence) (algorithme d’Euclide étendu),
comme le dernier reste non nul est 1, il existe bien u et v dans Z tels que 1 = au + bv (de plus on sait les calculer !). 

ZExemple : ∀ n ∈ Z, n et n + 1 sont premiers entre eux, puisque n + 1 − n = 1.

2) Conséquences

Théorème 10.8
Si a est premier avec b et si a est premier avec c, alors a est premier avec le produit bc. On en déduit
que si a est premier avec c 1 , . . . , c n , alors a est premier avec le produit c 1 × . . . × c n .
MO

Preuve : Il existe u, v ∈ Z tels que au + bv = 1, il existe p, q ∈ Z tels que ap + c q = 1. On effectue le produit de ces deux
relations, ce qui donne a(uc q + uap + pbv) + bc(v q) = 1, d’après le théorème de Bézout, a et bc sont premiers entre
eux. Une simple récurrence sur n permet de démontrer la généralisation. 

Théorème 10.9
Si a est premier avec c, si a | b et si c | b, alors ac | b.

Preuve : Il existe u, v ∈ Z tels que au + c v = 1, on multiplie par b, ce qui donne : bau + bc v = b, or c | b donc ac | bau, et
a | b donc ac | bc v, ce qui entraîne ac | bau + bc v i.e. ac | b.
Remarquons que ce théorème est faux lorsque a et c ne sont pas premiers entre eux, par exemple : 2 | 12 et 4 | 12
mais 2 × 4 = 8 6 |12. 

2. BÉZOUT Étienne(1730 – 1783) : mathématicien français, l’un des précurseurs de la géométrie algébrique.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 93 ©Fradin Patrick – http://mpsi.tuxfamily.org


Le plus grand diviseur commun Chapitre 10 : Arithmétique

Théorème 10.10 (théorème de Gauss)


Si a | bc et si a est premier avec c, alors a | b.

NE
Preuve : Il existe u, v ∈ Z tels que au+c v = 1, on multiplie par b, ce qui donne bau+bvc = b, or a | bc donc a | bau+bc v,
i.e. a | b. 
FExercice 10.2 Résoudre dans Z l’équation 17x + 12y = 3.
Solution 10.2 a = 17 et b = 12 sont premiers entre eux : a = b × 1 + 5 d’où r 1 = 5 = a − b
b = r 1 × 2 + 2, d’où r 2 = 2 = b − 2r 1 = b − 2(a − b) = −2a + 3b
r 1 = r 2 × 2 + 1, d’où r 3 = 1 = r 1 − 2r 2 = a − b + 4a − 6b = 5a − 7b
On a ainsi une relation de Bézout entre a et b, on en déduit une solution particulière en multipliant par 3 : 15a −21b = 3,
donc (x 0 = 15, y 0 = −21) est une solution particulière. L’équation équivaut alors à a(x − x 0 ) = b(y 0 − y), d’après le
théorème de Gauss, a et b étant premiers entre eux, on a b | x − x 0 et a | y 0 − y, i.e. x = x 0 + bk et y = y 0 − bk 0 , en
reportant dans la relation on voit que k = k 0 et donc les solutions sont les couples : (x 0 + bk, y 0 − ak) avec k ∈ Z.

AIG
III LE PLUS GRAND DIVISEUR COMMUN

1) Définition
Soient a, b ∈ Z non tous deux nuls (i.e. a 6= 0 ou b 6= 0), on sait que Da,b = Dr où r est le dernier reste non
nul dans l’algorithme d’Euclide, on voit que les diviseurs communs à a et b ont une valeur absolue inférieure
ou égale à celle de r et donc r est le plus grand diviseur commun.

Définition 10.5
Soient a, b ∈ Z non tous deux nuls, on appelle pgcd de a et de b le plus grand diviseur commun.
Notation : pgcd(a, b) ou a ∧ b, c’est le dernier reste non nul dans l’algorithme d’Euclide.
NT
Remarque 10.4 – Il en découle que deux éléments a et b de Z, non tous deux nuls, sont premiers entre eux si et
seulement si pgcd(a, b) = 1.

Théorème 10.11
Soient a, b ∈ Z non tous deux nuls, et d = pgcd(a, b), alors d est l’unique élément positif dans Z tel
que a Z + b Z = d Z.

Preuve : Unicité : si d Z = d 0 Z alors d et d 0 sont associés, mais comme ils sont positifs, on a d = d 0 .
Égalité : dans l’algorithme d’Euclide étendu, il existe u et v dans Z tel que au + bv = d , ce qui entraine que
d Z ⊂ aZ + bZ. Si r ∈ aZ + bZ, alors d est diviseur de r donc aZ + bZ ⊂ d Z, d’où l’égalité. 
MO

Théorème 10.12 (Calcul pratique d’un pgcd)


Si a, b ∈ Z sont non tous deux nuls alors ∀q ∈ Z, pgcd(a, b) = pgcd(a − bq, b).

Preuve : Soit r = a − bq, on a a = bq + r et on sait alors que Da,b = Db,r , le résultat en découle. 
L’algorithme d’Euclide s’écrit ainsi en python pour a et b positifs :

1 def pgcd(a,b):
2 A=a
3 B=b
4 R=b
5 while R!=0:
6 R=A%B
7 A=B
8 B=R
9 return A #dernier reste non nul

FExercice 10.3

MPSI3 (2015-16) LYCÉE M ONTAIGNE 94 ©Fradin Patrick – http://mpsi.tuxfamily.org


Le plus grand diviseur commun Chapitre 10 : Arithmétique

1/ Prouver la terminaison de l’algorithme.


2/ Montrer que l’on a l’invariant de boucle de boucle P(k) = « pgcd(a, b) = pgcd(Ak , Rk ) ».

NE
ZExemple : Soit à calculer d = pgcd(3282, 1281) :
– 3282 = 2 × 1281 + 720, donc d = pgcd(1281, 720),
– 1281 = 1 × 720 + 561, donc d = pgcd(720, 561),
– 720 = 1 × 561 + 159, donc d = pgcd(561, 159),
– 561 = 3 × 159 + 84, donc d = pgcd(159, 84),
– 159 = 1 × 84 + 75, donc d = pgcd(84, 75),
– 84 = 1 × 75 + 9, donc d = pgcd(75, 9),
– 75 = 8 × 9 + 3, donc d = pgcd(9, 3),
– 9 = 3 × 3 + 0, donc d = 3.

2) Propriétés

AIG
Théorème 10.13 (caractérisations du pgcd)
Soient a, b ∈ Z non tous deux nuls, et soit d ∈ N∗ . On a alors :
d = pgcd(a, b) ⇐⇒ ∃ u, v ∈ Z premiers entre eux tels que a = d u et b = d v.

Preuve : Si d = pgcd(a, b) alors il existe u, v ∈ Z tels que a = d u et b = d v, soit k = u ∧ v, alors kd divise a et b, donc
|kd | 6 |d | ce qui entraîne k = 1.
Si a = d u, b = d v avec u ∧ v = 1 : alors d est un diviseur commun à a et b, d’après le théorème de Bézout, il existe
α, β ∈ Z tels que αu + βv = 1, d’où d = αa + βb, on voit donc que tout diviseur commun à a et b est diviseur de d , donc
Da,b = Dd i.e. d est le plus grand diviseur commun [d est positif ], i.e. d = a ∧ b. 

Théorème 10.14 (quelques propriétés du pgcd)


Soient a, b ∈ Z non tous deux nuls :
a) ∀ n ∈ Z, si n | a et n | b, alors n | pgcd(a, b).
NT
b) ∀ k ∈ N∗ , pgcd(ka, kb) = kpgcd(a, b).
c) ∀ n ∈ N, pgcd(a n , b n ) = pgcd(a, b)n .
d) Si a et c sont premiers entre eux, alors pgcd(a, bc) = pgcd(a, b).

Preuve : Pour le premier point : Soit d = pgcd(a, b), alors Da,b = Dd donc tout diviseur commun à a et b est un diviseur
de d .
Pour le deuxième point : soit d = pgcd(a, b), alors il existe u, v ∈ Z premiers entre eux tels que a = d u et b = d v,
d’où ka = kd u et kb = kd v, donc kd = pgcd(ka, kb).
Pour le troisième point : en reprenant les notations ci-dessus, a n = d n u n et b n = d n v n , or u et v sont premiers
entre eux, donc u n et v n aussi (conséquence du théorème de Bézout ), par conséquent d n = pgcd(a n , b n ).
Pour le dernier point : on reprend les notations ci-dessus, a = d u et bc = d c v mais u | a et a est premier avec c,
MO

donc u est premier avec c, d’où u est premier avec c v, et donc d = pgcd(a, bc). 

3) Généralisation
Soient a, b, c trois entiers non tous nuls, l’ensemble des diviseurs communs à a, b et c est :

Da,b,c = Da ∩ Db ∩ Dc = (Da ∩ Db ) ∩ Dc = Da ∩ (Db ∩ Dc )

or on sait que Da ∩ Db = Da∧b , donc Da,b,c = D(a∧b)∧c = Da∧(b∧c) . Ces deux entiers étant strictement positifs,
on a (a ∧ b) ∧ c = a ∧ (b ∧ c) et ce nombre est le plus grand diviseur positif commun à a, b et c. Par définition
ce nombre est le pgcd de a, b et c, on le note : pgcd(a, b, c) .

Théorème 10.15 (associativité du pgcd)


Soient a, b, c trois entiers avec b non nul, alors pgcd(a, b, c) = (a ∧ b) ∧ c = a ∧ (b ∧ c).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 95 ©Fradin Patrick – http://mpsi.tuxfamily.org


Le plus petit multiple commun Chapitre 10 : Arithmétique

À retenir
L’associativité du pgcd permet de ramener le calcul au cas de deux entiers.

NE
Notons d 0 = a ∧ b et d = pgcd(a, b, c), alors d = d 0 ∧ c, donc il existe deux entiers u 0 et w tels que d =
d 0 u 0 + c w, de même, il existe deux entiers α et β tels que d 0 = αa + βb, d’où en remplaçant, d = aαu 0 + bβu 0 +
cw = au + bv + cw avec u, v, w ∈ Z.
Réciproquement, si d est un diviseur commun positif, et si d = au + bv + c w, alors il est facile de voir que
tout diviseur commun à a, b et c est un diviseur de d et donc d = pgcd(a, b, c), d’où le théorème :

Théorème 10.16
Soient a, b, c trois entiers non tous nuls et d ∈ N∗ , alors :
d = pgcd(a, b, c) ⇐⇒ d ∈ Da,b,c et ∃u, v, w ∈ Z, d = au + bv + c w.

AIG
Définition 10.6
Soient a, b, c trois entiers non tous nuls, on dira que ces trois nombres sont :
• premiers entre eux dans leur ensemble lorsque pgcd(a, b, c) = 1.
• premiers entre eux deux à deux lorsque pgcd(a, b) = pgcd(b, c) = pgcd(a, c) = 1.

Attention !
Les deux notions ne sont pas équivalentes, la deuxième entraîne la première mais la réciproque est fausse comme
le montre l’exemple suivant :
pgcd(6, 15, 20) = 1 mais pgcd(6, 15) = 3, pgcd(6, 20) = 2 et pgcd(15, 20) = 5.

Il découle du théorème précédent :


NT
Théorème 10.17 (de Bézout)
Soient a, b, c trois entiers non tous nuls, alors a, b et c sont premiers entre eux dans leur ensemble si
et seulement si :
∃u, v, w ∈ Z, au + bv + c w = 1.

Théorème 10.18 (caractérisation)


Soient a, b, c trois entiers non tous nuls et d ∈ N∗ , alors :
d = pgcd(a, b, c) ⇐⇒ ∃u, v, w ∈ Z, a = d u, b = d v et c = d w avec pgcd(u, v, w) = 1.
MO

Preuve : Si d = pgcd(a, b, c) alors il existe ∃u, v, w ∈ Z, a = d u, b = d v et c = d w. Il existe également des entiers α, β et γ


tels que d = αa + βb + γc d’où 1 = αu + βv + γc et donc pgcd(u, v, w) = 1.
Réciproquement, si a = d u, b = d v et c = d w avec pgcd(u, v, w) = 1. Il existe des entiers α, β et γ tels que 1 =
αu + βv + γw, en multipliant par d il vient alors que d = αa + βb + γc, ce qui entraîne que d = pgcd(a, b, c) (car d ∈ N∗
et d ∈ Da,b,c ). 
Remarque 10.5 – Nous avons étendu la notion de pgcd à trois entiers, mais on pourrait l’étendre de la même
manière à n entiers.

IV LE PLUS PETIT MULTIPLE COMMUN

1) Définition

MPSI3 (2015-16) LYCÉE M ONTAIGNE 96 ©Fradin Patrick – http://mpsi.tuxfamily.org


Nombres premiers, décomposition Chapitre 10 : Arithmétique

Théorème 10.19
Si a et b sont non nuls, il existe un unique élément m positif dans Z tel que (a Z) ∩ (b Z) = m Z.

NE
Preuve : aZ ∩ bZ contient |ab| > 0, on note m le plus petit élément strictement positif dans aZ ∩ bZ, alors il est facile de
voir que mZ ⊂ aZ ∩ bZ. Si p ∈ aZ ∩ bZ, on effectue la division de p par m, p = mq + r avec 0 6 r < m, d’où r = p − mq,
on vérifie alors que r est aussi dans aZ ∩ bZ (car a et b divisent p et m donc p − mq). Si r > 0 alors r > m car m est
le plus petit élément strictement positif dans aZ ∩ bZ, ceci est absurde, donc r = 0 et p = mq, d’où aZ ∩ bZ ⊂ mZ, et
finalement on a bein l’inégalité.
Si m 0 Z = mZ avec m 0 > 0, alors m et m 0 se divisent muutuellement, d’où m = m 0 . 
Il découle de ce théorème que c est un multiple commun à a et b si et seulement si c ∈ (a Z) ∩ (b Z), ce qui
équivaut à c ∈ m Z, c’est à dire m | c. Ceci entraîne en particulier : m 6 |c|.

Définition 10.7
Soit a, b ∈ Z, non nuls, et soit m ∈ N∗ , on dit que m est le ppcm de a et b lorsque (a Z) ∩ (b Z) = m Z.

AIG
Notation : m = ppcm(a, b) ou encore m = a ∨ b.

Théorème 10.20 (caractérisation du ppcm)


Soient a, b ∈ Z, non nuls, et soit m ∈ N∗ alors :
m = ppcm(a, b) ⇐⇒ ∃ u, v ∈ Z premiers entre eux tels que m = au = bv.

Preuve : On suppose a, b ∈ Z, non nuls.


Si m = ppcm(a, b) : alors a | m et b | m. Donc il existe u, v ∈ Z tels que m = au = bv, soit d = pgcd(u, v) alors il existe
α, β ∈ Z premiers entre eux tels que u = d α et v = d β, d’où m = ad α = bd β, mais alors m 0 = aα = bβ est un multiple
commun à a et b donc |m| 6 |m 0 | ce qui entraîne d = 1.
Si ∃u, v ∈ Z premiers entre eux tels que m = au = bv, alors a | m et b | m, il existe α, β tels que uα + vβ = 1, soit m 0
un multiple commun non nul, alors m 0 = m 0 uα + m 0 vβ, on en déduit que m | m 0 et donc |m| 6 |n|, ce qui prouve que
NT
m = ppcm(a, b). 

2) Propriétés

Théorème 10.21
Soient a, b ∈ Z, non nuls :
a) ∀ n ∈ Z, si a | n et b | n alors ppcm(a, b) | n.
b) Si a et b sont premiers entre eux, alors ppcm(a, b) = |ab|.
c) ∀ k ∈ N, non nul, ppcm(ka, kb) = kppcm(a, b).
d) ppcm(a, b) × pgcd(a, b) = |ab|.
MO

e) ∀ n ∈ N, ppcm(a n , b n ) = ppcm(a, b)n .

Preuve : Pour le deuxième point : a et b sont premiers entre eux, alors ab = ba par conséquent ppcm(a, b) = ab d’après
le théorème précédent.
Pour le troisième point : soit m = ppcm(a, b), alors m = au = bv avec u et v premiers entre eux, d’où km = kau =
kbv et donc km = ppcm(ka, kb).
Pour le quatrième point : soit m = ppcm(a, b) et d = pgcd(a, b), il existe u et v premiers entre eux tels que a = d v et
b = d u, or au = bv donc m = au = bv par conséquent md = ad u = ab.
Pour le cinquième point : soit m = ppcm(a, b) on a m = au = bv avec u et v premiers entre eux, donc m n = a n u n =
b v avec u n et v n premiers entre eux, donc m n = ppcm(a n , b n ).
n n


V NOMBRES PREMIERS, DÉCOMPOSITION

1) Définition

MPSI3 (2015-16) LYCÉE M ONTAIGNE 97 ©Fradin Patrick – http://mpsi.tuxfamily.org


Nombres premiers, décomposition Chapitre 10 : Arithmétique

Définition 10.8
Un entier p ∈ Z est dit premier lorsque p > 2, et que ses seuls diviseurs positifs sont 1 et p. L’ensemble

NE
des nombres premiers est noté P .

ZExemples :
– 2, 3, 5, 7, 11, 13, 17, 19, 23, . . . sont des nombres premiers.
n
– Les nombres de Fermat 3 : Fn = 22 + 1 sont premiers pour n = 0, 1, 2, 3, 4 mais pas pour n = 5.
– Les nombres de Mersennes 4 : Mp = 2p − 1 où p ∈ P, sont premiers pour p = 2, 3, 5, 7, 127, . . . mais pas
pour p = 11.
FExercice 10.4
1/ Montrer que si 2p + 1 est un nombre premier alors p est une puissance de 2.
2/ Montrer que si 2p − 1 est un nombre premier, alors p est un nombre premier.

AIG
Propriétés élémentaires :
a) Si p est premier, alors ∀n ∈ Z, soit p | n, soit pgcd(n, p) = 1.
Preuve : Soit d = pgcd(p, n), alors d | p donc d = 1 ou d = p, mais p ne divise pas n, donc d 6= p, i.e. d = 1. 

b) Si n > 2, alors n possède au moins un diviseur premier.


Preuve : Soit B = {|d | / d | n et d 6= 1}, alors B est une partie de N non vide (|n| ∈ B), soit p un diviseur de n avec
|p| ∈ B minimal, si d | p avec d positif et d 6= 1, alors d | n et donc |d | ∈ B, d’où |d | > |p|, or d | p, donc |d | 6 |p| et
finalement |d | = |p|, d’où d = p et donc p est premier. 

c) L’ensemble P est infini.


Preuve : Si P est fini, alors P = {p 1 , . . . , p n }, posons N = 1 + p 1 × . . . × p n , alors N > 1, donc N admet au moins un
diviseur premier q, comme q ∈ P , on a q | p 1 × . . . × p n , et comme q | N, on a q | 1 ce qui est absurde, donc P est
infini. 

d) Si p est premier et si p | nm, alors p | n ou p | m.


Preuve : Supposons que p ne divise pas n, alors n ∉ pZ donc pgcd(p, n) = 1 et par conséquent p | m (d’après le
NT
théorème de Gauss). 
p
e) Si n > 1 n’a pas de diviseur autre que 1 dans l’intervalle [1; n], alors n est premier.
Preuve : Si n est non premier alors on peut écrire n = pq avec p > 1 et q > 1. Si les deux étaient strictement
p p
supérieurs à n alors on aurait pq > n ce qui est absurde, donc un des deux est dans [1; n]. Le résultat s’en
déduit par contraposée. 
¡p ¢
f) Si p est premier, alors ∀ k ∈ J1; p − 1K , p | k
. On en déduit que pour tout entier a et b, on a (a + b)p ≡
a p + b p (mod p).
¡p ¢ ¡p−1¢
Preuve : On a k k = p k−1 qui est donc divisible par p, mais comme k ∈ J1; p − 1K, p est premier avec k, par
¡p ¢
conséquent, d’après le théorème de Gauss, p | k . Pour le second point, on développe le binôme. 

Compléments : Soit (p n )n >1 la suite strictement croissante des nombres premiers, la répartition de ces
nombres encore aujourd’hui mal connue, cependant on a les quelques résultats suivants :
MO

– Tout segment de la forme Jn; 2n K contient au moins un nombre premier (théorème de Bertrand ).
– Si a, b ∈ N∗ sont premier entre eux, alors il existe une infinité de nombre premiers de la forme an + b
(théorème de Dirichlet ).
– p n ∼ n ln(n) (théorème de Hadamard ).
+∞

Théorème 10.22 (petit théorème de Fermat)


Si p est un nombre premier, alors pour tout entier n on a n p ≡ n (mod p). Et si n ∉ p Z, alors n p−1 ≡ 1
(mod p).

3. FERMAT Pierre De (1601 – 1665) : mathématicien amateur (éclairé !) l’un des plus féconds de son époque mais qui faisait peu
de démonstrations et publiait peu.
4. MERSENNES Marin (1588 – 1648) : moine français qui entretenait une correspondance suivie avec les mathématiciens de son
époque.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 98 ©Fradin Patrick – http://mpsi.tuxfamily.org


Nombres premiers, décomposition Chapitre 10 : Arithmétique

Preuve : Pour n ∈ N on fait une récurrence : la propriété est vraie au rang 0, supposons la vraie au rang n, alors
(n + 1)p ≡ n p + 1 (mod p), en appliquant l’hypothèse de récurrence, on a (n + 1)p ≡ n + 1 (mod p).
On remarque ensuite que (−1)p ≡ −1 (mod p) car soit p = 2, soit p est premier impair, on en déduit que (−n)p ≡ −n

NE
(mod p). On a donc pour tout entier n, p | n p − n = n(n p−1 − 1), si p ne divise pas n alors p est premier avec n, donc
p | n p−1 − 1, c’est à dire n p−1 ≡ 1 (mod p). 

2) Décomposition en facteurs premiers

Théorème 10.23 (décomposition en produit de facteurs premiers)


Tout élément n ∈ Z, autre que ±1, est un produit de nombres premiers. Plus précisément, il existe
r > 1, il existe p 1 , . . . , p r ∈ P (distincts), il existe des entiers α1 , . . . , αr ∈ N∗ , il existe λ ∈ {−1; 1} tels que :
α α α
n = λ × p1 1 × p2 2 × . . . × pr r .

Preuve : On a n = λ × |n| avec λ = ±1. On se ramène ainsi au cas où n est positif.

AIG
Par récurrence sur n : pour n = 2 il n’y a rien à montrer car 2 est premier. Supposons le théorème démontré jusqu’au
rang n > 2, alors n + 1 admet au moins un diviseur premier p, donc n + 1 = pk, si k = 1 alors n + 1 est premier, sinon k
est un produit de facteurs premiers (HR), donc n + 1 aussi. 

Théorème 10.24 (unicité de la décomposition)


Si n ∈ Z s’écrit sous la forme :
α α β β
n = λ × p 1 1 × . . . × p r r = µ × q 1 1 × . . . × q s s , avec p 1 , . . . , p r ∈ P (distincts),α1 , . . . , αr ∈ N∗ , q 1 , . . . , q s ∈ P
(distincts), β1 , . . . , βs ∈ N∗ , et λ, µ ∈ {−1; 1} alors r = s, λ = µ et il existe une permutation σ de J1; r K telle
que pour i ∈ J1; r K , p i = q σ(i ) , αi = βσ(i ) . La décomposition est unique [à l’ordre près].

β β
Preuve : Si p 1 ∉ {q 1 , . . . , q s }, alors p 1 est premier avec q 1 , . . . , q s , donc p 1 est premier avec q 1 1 ×. . .×q s s , i.e. p 1 est premier
avec n, ce qui est absurde puisque p 1 | n, donc p 1 ∈ {q 1 , . . . , q s }. Finalement on a {p 1 , . . . , p r } ⊂ {q 1 , . . . , q s } et par symétrie
on a l’égalité des deux ensembles, donc r = s. Quitte à permuter les indices que la famille (q i ), on peut supposer que
p 1 = q1 , . . . , p r = qr .
NT
α β
Le théorème de Gauss entraîne que p k k | p k k , donc αk 6 βk , par symétrie on a βk 6 αk , et donc αk = βk , ce qui
termine la preuve. 

3) Notion de valuation p -adique


Si n est un entier naturel non nul et p un nombre premier, alors l’ensemble k ∈ N / p k | n est non vide
© ª

(contient 0) et majoré par n (on peut montrer par récurrence que p n >n), cet ensemble admet donc un
maximum :

Définition 10.9
Soit p ∈ P et n ∈ N∗ on appelle valuation p-adique de n, notée v p (n), le plus grand entier k tel que
p k | n. La définition s’étend à Z, en posant v p (−n) = v p (n) si n < 0 et v p (0) = +∞.
MO

Remarque 10.6 :
– v p (n) = k ⇐⇒ p k | n et p k+1 - n ⇐⇒ ∃ q ∈ N, n = p k q avec p ∧ q = 1 .
– v p (n) > 1 ⇐⇒ p | n, auquel cas v p (n) est la puissance de p dans la décomposition de n en facteurs
premiers.
– k ∈ N / p k | n = J0; v p (n)K.
© ª

À retenir
p v p (n) .
Q
Pour tout entier n > 2, la décomposition de n en produit de facteurs premiers s’écrit : n =
p∈P

En effet, seul un nombre fini de valuations sont non nulles (les autres donnent un facteur égal à 1).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 99 ©Fradin Patrick – http://mpsi.tuxfamily.org


Nombres premiers, décomposition Chapitre 10 : Arithmétique

Théorème 10.25 (Propriétés)


∀n, m ∈ Z, on a :

NE
a) ∀p ∈ P , v p (nm) = v p (n) + v p (m).
b) ∀p ∈ P , v p (n + m) > min(v p (n); v p (m)).
c) n | m ⇐⇒ ∀p ∈ P , v p (n) 6 v p (m).
d) Si n et m sont non nuls alors ∀p ∈ P :
v p (n ∧ m) = min(v p (n); v p (m)) et v p (n ∨ m) = max(v p (n); v p (m)).

Preuve :
0
a) Si un des deux est nul, c’est évident. Supposons n et m non nuls, soit n = p k q avec p ∧ q = 1 et m = p k q 0 avec
0
p ∧ q 0 = 1, d’où nm = p k+k q q 0 et p ∧ (q q 0 ) = 1, donc v p (nm) = kk 0 .
b) Si un des deux est nul, c’est évident. Supposons n et m non nuls, et avec les mêmes notations, supposons k 6 k 0 ,

AIG
0
alors n + m = p k [q + p k −k q 0 ] donc v p (n + m) > k. On remarque qu’il y a égalité lorsque k 6= k 0 .
c) Si m = 0 c’est évident, supposons m 6= 0 et n | m, alors pour tout premier p, k ∈ N / p k | n ⊂ k ∈ N / p k | m
© ª © ª

donc v p (n) 6 v p (m). La réciproque est évidente.


d) Soit d = n∧m alors v p (d ) 6 v p (n) et v p (d ) 6 v p (m), donc v p (d ) 6 min(v p (n); v p (m)). D’autre part p min(v p (n);v p (m))
divise n et m donc divise d d’où min(v p (n); v p (m)) 6 v p (d ), par conséquent min(v p (n); v p (m)) = v p (d ). Pour
le ppcm on peut utiliser le fait que (n ∧ m)(n ∨ m) = |nm| et donc v p (n ∨ m) = v p (nm) − v p (n ∧ m) = v p (n) +
v p (m) − min(v p (n); v p (m)) = max(v p (n); v p (m)).


À retenir : formules du pgcd et du ppcm


Il découle du théorème ci-dessus que :
Q min(v p (n);v p (m)) Q max(v p (n);v p (m))
pgcd(n, m) = p et ppcm(n, m) = p .
p∈P p∈P
NT
4) Applications
– Si n 6= ±1, alors la décomposition de n en produit de facteurs premiers permet de trouver tous les
diviseurs de n.
α α
En effet : Si n = λ × p 1 1 × . . . × p r r , soit d est un diviseur positif de n, si p est un diviseur premier de d ,
alors p est un diviseur premier de n, donc p ∈ {p 1 , . . . , p r }, donc d s’écrit sous la forme :
β β
d = p 1 1 × . . . × p r r avec 0 6 βk 6 αk
– Si n, m ∉ {−1; 1}, alors à partir de leur décomposition en produit de facteurs premiers, on peut calculer
Q min(v p (n);v p (m)) Q max(v p (n);v p (m))
pgcd(n, m) = p et ppcm(n, m) = p . Plus précisément :
p∈P p∈P
α1 α β1 βs
MO

Si n = λ× p 1 ×. . .× p r r = µ× q 1 ×. . .× q s , alors les diviseurs premiers communs à n


et m et m doivent
appartenir à {p 1 , . . . , p r } ∩ {q 1 , . . . , q s }, d’où la discussion :
• {p 1 , . . . , p r } ∩ {q 1 , . . . , q s } = ;, alors n et m sont premiers entre eux. i.e. pgcd(n, m) = 1 et donc
ppcm(n, m) = |nm|.
• {p 1 , . . . , p r } ∩ {q 1 , . . . , q s } = {v 1 , . . . , v t }, alors quitte à changer la numérotation, on peut supposer que
p 1 = q 1 = v 1 , . . . , p t = q t = v t sont les diviseurs premiers communs à n et m.
k k
pgcd(n, m) = v 1 1 × . . . × v t t avec k i = min(αi , βi ) pour i ∈ J1; t K.
Et :
k k α α β
t +1 β
ppcm(n, m) = v 1 1 × . . . × v t t × p t +1
t +1
× . . . × p r r × q t +1 × . . . × qs s
avec k i = max(αi , βi ) pour i ∈ J1; t K.
ZExemple : 336 = 2 × 3 × 7 et 420 = 2 × 3 × 5 × 7, donc pgcd(336, 420) = 22 × 3 × 7 = 84, et ppcm(336, 420) =
4 2

24 × 3 × 5 × 7.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 100 ©Fradin Patrick – http://mpsi.tuxfamily.org


NE
Chapitre 11

Limite d’une fonction

Sommaire

AIG
I Limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
2) Premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
3) Limite à gauche, limite à droite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
II Propriétés des limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
1) Limites et opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
2) Limite et relation d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
3) Limite et composition des fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
4) Limite et sens de variation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
III Calculs de limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
1) Comparaison des fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
2) Les exemples classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
3) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
IV Extension aux fonctions à valeurs complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
NT
1) Définition de la limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109

Dans ce chapitre, les fonctions considérées sont définies sur un intervalle non trivial de R.

I LIMITES

1) Définition

Soit f : I → R une fonction, soit a un élément de I ou bien une extrémité de I (a ∈ R), et soit b ∈ R,
intuitivement on dira que b est la limite de f (x) quand x tend vers a lorsque f (x) peut être aussi voisin que
MO

l’on veut de b pourvu que x soit suffisamment voisin de a, d’où la définition :

Définition 11.1
On dit que f admet pour limite b en a lorsque : ∀ W, voisinage de b, ∃ V, voisinage de a, tel que
∀ x ∈ I, x ∈ I ∩ V =⇒ f (x) ∈ W. Si c’est le cas, on notera :
lim f (x) = b = lim f = b, ou encore f (x) −→ b.
x→a a x→a

À retenir : lim f = b signifie


a
– Si a, b ∈ R : ∀ ε > 0, ∃ α > 0, ∀ x ∈ I, |x − a| < α =⇒ | f (x) − b| < ε.
– Si a ∈ R et b = +∞ : ∀ A ∈ R, ∃ α > 0, ∀ x ∈ I, |x − a| < α =⇒ f (x) > A.
– Si a ∈ R et b = −∞ : ∀ A ∈ R, ∃ α > 0, ∀ x ∈ I, |x − a| < α =⇒ f (x) < A.
– Si a = +∞ et b ∈ R : ∀ ε > 0, ∃ A ∈ R, ∀ x ∈ I, x > A =⇒ | f (x) − b| < ε.
– Si a = +∞ et b = +∞ : ∀ A ∈ R, ∃ B ∈ R, ∀ x ∈ I, x > B =⇒ f (x) > A.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 101 ©Fradin Patrick – http://mpsi.tuxfamily.org


Limites Chapitre 11 : Limite d’une fonction

– Si a = +∞ et b = −∞ : ∀ A ∈ R, ∃ B ∈ R, ∀ x ∈ I, x > B =⇒ f (x) < A.


– Si a = −∞ et b ∈ R : ∀ ε > 0, ∃ B ∈ R, ∀ x ∈ I, x < B =⇒ | f (x) − b| < ε.
– Si a = −∞ et b = +∞ : ∀ A ∈ R, ∃ B ∈ R, ∀ x ∈ I, x < B =⇒ f (x) > A.

NE
– Si a = −∞ et b = −∞ : ∀ A ∈ R, ∃ B ∈ R, ∀ x ∈ I, x < B =⇒ f (x) < A.

ZExemples :
p
– Soit f (x) = x 2 , montrons que lim f = +∞ : soit A ∈ R, posons B = |A|, si x > B alors x 2 > B2 = |A| > A
+∞
donc f (x) > A.
– Soit f (x) = x 2 et soit a ∈ R, montrons que lim f = a 2 : soit ε > 0, |x 2 − a 2 | = |x − a||x + a|, si |x − a| < α,
a
ε
alors |x 2 − a 2 | < α(α + 2|a|), si on prend α = min(1; 1+2|a|) ), alors α(α + 2|a|) 6 α(1 + 2|a|) 6 ε, donc
∀ x ∈ R, |x − a| < α =⇒ |x 2 − a 2 | < ε.
Remarque 11.1 –
a) Si lim f = b alors lim | f | = |b|, mais la réciproque est fausse sauf pour b = 0.

AIG
a a
b) Lorsque b ∈ R, lim f = b ⇐⇒ lim | f (x) − b| = 0 ⇐⇒ lim f (x) − b = 0.
a a a

La définition de la limite d’une suite, que nous avons vue dans un chapitre précédent, peut s’énoncer
ainsi en terme de voisinage :

Définition 11.2 (Retour sur les suites)


On dit que la suite (u n ) admet pour limite ` ∈ R lorsque :
∀ W, voisinage de `, ∃ N ∈ N, ∀ n ∈ N, n > N =⇒ u n ∈ W.

2) Premières propriétés

Théorème 11.1
NT
Soit f : I → R une fonction et soit a un élément ou une extrémité de I.
• Si f admet une limite en a, alors celle - ci est unique.
• Si f admet une limite finie en a, alors f est bornée au voisinage de a (réciproque fausse).
• Si lim f = b et si α < b (respectivement b < α), alors au voisinage de a f est strictement supérieure à
a
α (respectivement f (x) > α).
• Si lim f = b avec a ∈ I, alors nécessairement b = f (a).
a

Preuve : Pour les trois premiers points, la preuve est tout à fait analogue à celle faite pour les suites.
Pour le quatrième point : tout voisinage de b doit contenir f (a), on en déduit par l’absurde que b = f (a). 

Théorème 11.2 (caractérisation séquentielle de la limite)


MO

lim f = b ⇐⇒ pour toute suite (u n ) d’éléments de I qui tend vers a (dans R), la suite ( f (u n )) tend vers
a
b (dans R).

Preuve : Supposons que lim f = b et soit (u n ) une suite d’éléments de I telle que u n −→ a. Soit W un voisinage de
a
b, il existe V un voisinage de a tel que x ∈ I ∩ V =⇒ f (x) ∈ W. Comme u n −→ a, il existe un entier N ∈ N tel que
n > N =⇒ u n ∈ V, or les termes u n sont dans I donc si n > N alors u n ∈ I ∩ V et donc f (u n ) ∈ W, ce qui prouve que
f (u n ) −→ b.
Supposons maintenant que pour toute suite (u n ) d’éléments de I qui tend vers a, la suite ( f (u n )) tend vers b. Si la
fonction f n’a pas pour limite b en a, alors il existe un voisinage W de b tel que pour tout voisinage V de a, il existe
x ∈ I ∩ V tel que f (x) ∉ W. En prenant pour n ∈ N∗ des voisinages de la forme Vn =]a − n1 ; a + n1 [ si a ∈ R, Vn =]n; +∞[ si
a = +∞, ou Vn =] − ∞; −n[ si a = −∞, on construit une suite (u n ) d’éléments de I telle que u n ∈ Vn et f (u n ) ∉ W, il est
facile de voir que la suite (u n ) tend vers a, donc la suite ( f (u n )) tend vers b, à partir d’un certain rang on doit donc avoir
f (u n ) ∈ W ce qui est contradictoire, donc lim f = b. 
a

Applications :

MPSI3 (2015-16) LYCÉE M ONTAIGNE 102 ©Fradin Patrick – http://mpsi.tuxfamily.org


Propriétés des limites Chapitre 11 : Limite d’une fonction

– Ce théorème peut être utilisé pour montrer qu’une fonction f n’a pas de limite en a.
Par exemple, la fonction f c ol onx 7→ sin(x) n’a pas de limite en +∞ car la suite u définie par u n = π2 + nπ tend
vers +∞ mais la suite ( f (u n ) = (−1)n ) n’a pas de limite.

NE
– Ce théorème peut être également utilisé pour prouver les propriétés de la limite d’une fonction en se ramenant à
celles des suites.
Voici un autre lien avec les suites (que l’on utilisait déjà de manière assez naturelle) :

Théorème 11.3
Soit f : ]A; +∞[→ R une fonction telle que lim f = b ∈ R, alors la suite (u n ) définie (à partir d’un certain
+∞
rang) par u n = f (n) a pour limite b.

Preuve : Soit W un voisinage de b, il existe un réel B tel que ∀ x ∈ I, x > B =⇒ f (x) ∈ W, par conséquent si n > N = 1+bBc,
alors u n ∈ W, donc u n → b. 

AIG
3) Limite à gauche, limite à droite

Définition 11.3
Soit f : I → R une fonction, soit a un élément de I ou une extrémité réelle de I, et soit b ∈ R.
– Si I∩] − ∞; a[6= ; : on dit que b est la limite à gauche en a de f lorsque :
∀ W,voisinage de b, ∃ α > 0, ∀ x ∈ I, x ∈]a − α; a[=⇒ f (x) ∈ W .
Notations : lim−
f = lim−
f (x) = lim f (x) = b.
a x→a x−→a
x<a
– Si I∩]a; +∞[6= ; : on dit que b est la limite à droite en a de f lorsque :
∀ W, voisinage de b, ∃ α > 0, ∀ x ∈ I, x ∈]a; a + α[=⇒ f (x) ∈ W.
Notations : lim f = lim+ f (x) = lim f (x) = b.
+
a x→a x−→a
x>a
NT
ZExemple : Soit f (x) = bxc et soit a ∈ Z, alors lim f = a et lim

f = a − 1.
+ a a

Théorème 11.4
On a lim f (x) = b ⇐⇒ lim f = lim f = b. Et lorsque a ∈ I :
x−→a a+ a−
x6=a
à !
lim f (x) = b ⇐⇒ f (a) = b et lim f (x) = b .
x→a x−→a
x6=a

Preuve : Celle - ci est simple et laissée en exercice. 



x + 1 si x < 0
MO



ZExemple : Soit f la fonction définie sur R par f (x) = 0 si x = 0 . Il est facile de voir que : lim f (x) = 1,
 x−→0
1 − x 2

si x > 0 x6=0

mais la fonction f n’a pas de limite en 0 car f (0) 6= 1.

II PROPRIÉTÉS DES LIMITES

1) Limites et opérations

Soient f , g ∈ F (I, R) et soit a un élément de I ou une extrémité de I. Si lim f = ` et lim g = `0 (dans R),
a a
alors :

Théorème 11.5
– lim f + g = ` + `0 sauf si ` = +∞ et `0 = −∞ (ou l’inverse) : forme indéterminée.
a

MPSI3 (2015-16) LYCÉE M ONTAIGNE 103 ©Fradin Patrick – http://mpsi.tuxfamily.org


Propriétés des limites Chapitre 11 : Limite d’une fonction

– lim f × g = ``0 sauf si ` = 0 et `0 = ±∞ (ou l’inverse) : forme indéterminée.


a
– Si λ ∈ R∗ , lim λ f = λ`.
a

NE
Preuve : Pour le premier point : soit (u n ) une suite d’éléments de I qui tend vers a, alors f (u n ) −→ ` et g (u n ) −→ `0
donc (propriétés des suites) f (u n ) + g (u n ) −→ ` + `0 car nous ne sommes pas dans le cas d’une forme indéterminée, par
conséquent la fonction f + g a pour limite ` + `0 en a. Le raisonnement est le même pour tous les autres points jusqu’au
dernier. 

Théorème 11.6
Si f ne s’annule pas au voisinage de a alors :

1

 ` si ` ∈ R∗

si ` = ±∞

0



1 

AIG
lim = +∞ si ` = 0 et f > 0 au voisinage de a
a f 
si ` = 0 et f < 0 au voisinage de a

−i n f t y




n’existe pas sinon

Preuve : Nous sommes dans le cas où ` = 0 et sur tout voisinage de a f prend des valeurs strictement positives et
des valeurs strictement négatives ( f n’est pas de signe constant), on peut donc construire deux suites (u n ) et (v n ) qui
tendent vers a et telles que f (u n ) > 0 et f (v n ) < 0, mais alors f (u1 n ) −→ +∞ et f (v1 n ) −→ −∞, donc 1f n’a pas de limite en
a. 
ZExemples :
– Soit a ∈ R, lim x = a d’où ∀ n ∈ N∗ , lim x n = a n (encore vrai pour n = 0). On en déduit que si P est une
a a
fonction polynomiale, alors lim P = P(a).
a
P
– Si R = Q est une fraction rationnelle et si Q(a) 6= 0, alors lim R = R(a).
a
NT
2) Limite et relation d’ordre

Théorème 11.7
Soient f , g , h : I → R trois fonctions et soit a un élément de I ou une extrémité de I.
– On suppose qu’au voisinage de a, f 6 g , alors :
• Si lim f = +∞ alors lim g = +∞.
a a
• Si lim g = −∞ alors lim f = −∞.
a a
– Si f 6 h 6 g au voisinage de a et si lim f = lim g = ` ∈ R, alors lim h = ` (théorème des gendarmes
a a a
ou de l’étau).
– Si f 6 g au voisinage de a et si f et g ont chacune une limite dans R, alors lim f 6 lim g (théorème
MO

a a
du passage à la limite).
– Si lim f = 0 et si g est bornée au voisinage de a, alors lim f × g = 0.
a a
– Si lim f = +∞ (respectivement −∞) et si g est minorée au voisinage de a (respectivement majorée),
a
alors lim f + g = +∞ (respectivement −∞).
a

Preuve : Supposons lim f = +∞, soit (u n ) une suite d’éléments de I qui tend vers a, à partir d’un certain rang, on a
a
f (u n ) 6 g (u n ), or f (u n ) → +∞, donc g (u n ) → +∞ et par conséquent lim g = +∞. Pour le deuxième cas, on raisonne
a
sur − f et −g .
Pour les autres points on procède de la même façon, en se ramenant aux suites. 
Remarque 11.2 –
– Si | f | 6 g au voisinage de a et si lim g = 0, alors lim f = 0.
a a
– On peut avoir f < g au voisinage de a et lim f = lim g . Dans un passage à la limite les inégalités
a a
deviennent larges.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 104 ©Fradin Patrick – http://mpsi.tuxfamily.org


Propriétés des limites Chapitre 11 : Limite d’une fonction

3) Limite et composition des fonctions


Soit f : I → R une fonction, soit a un élément de I ou une extrémité de I, et soit g : J → R une autre fonction
avec Im( f ) ⊂ J.

NE
Théorème 11.8
Si lim f = b, alors b appartient à J ou b est une extrémité de J.
a

Preuve : Il suffit de distinguer les cas sur J, par exemple, si J =]α; β[, alors ∀ x ∈ I, α < f (x) < β, par passage à la limite, on
obtient α 6 b 6 β. Les autres cas se traitent de la même façon. 

Théorème 11.9 (composition des limites)


Si lim f = b et lim g = ` (dans R), alors lim g ◦ f = `.
a b a

AIG
Preuve : Soit (u n ) une suite d’éléments de I qui tend vers a, la suite ( f (u n )) est une suite d’éléments de J qui tend vers b,
donc la suite (g [ f (u n )]) tend vers `, ce qui prouve que lim g ◦ f = `. 
a
Dans la pratique, ce théorème est parfois appelé changement de variable dans une limite. Il dit en effet
que si on pose X = f (x), alors comme X → b, on a lim g ( f (x)) = lim g (X) = `.
x→a x→a X→b
sin(x) ln(x)
e −1 e X −1
ZExemple : Calculons lim f avec : f (x) = sin(x) ln(x) . On pose X = sin(x) ln(x), alors lim X = 0, or lim = 1,
+ 0 + 0 X→0 X
donc la limite cherchée vaut 1.

4) Limite et sens de variation

Soit f : I → R une fonction croissante, on pose a = inf(I) et b = sup(I) dans R.


NT
Théorème 11.10
Comme f est croissante, pour tout réel c ∈ I, on a dans R :
sup f (x) = supx∈]a;b[ f (x) et inf f (x) = infx∈]a;b[ f (x).
x∈]c;b[ x∈]a;c[

Preuve : Soit S 1 = sup f (x) et S 2 = sup f (x), il est clair que S 1 6 S 2 . Si x ∈]c; b[, alors f (x) 6 S 1 , ∀ t ∈]a; x], on a
x∈]c;b[ x∈]a;b[
f (t ) 6 f (x) 6 S 1 et ∀ t ∈ [x; b[, c < t < b, donc f (t ) 6 S 1 , finalement ∀ t ∈]a; b[, f (t ) 6 S 1 et donc S 2 6 S 1 , d’où l’égalité.
Le raisonnement est similaire pour les bornes inférieures. 

Théorème 11.11
Si f : I → R est croissante, en notant a la borne de gauche de I et b la borne de droite :
MO

• si f est majorée, alors f admet une limite finie à gauche en b qui est lim

f = sup f (x). Si de plus si
b x∈]a;b[
b ∈ I, alors lim

f 6 f (b).
b
• si f est non majorée, alors f admet +∞ comme limite à gauche en b.
• si f est minorée, alors f admet une limite finie à droite en a qui est lim
+
f = inf f (x). Si de plus si
a x∈]a;b[
a ∈ I, alors lim
+
f > f (a).
a
• si f est non minorée, alors f admet −∞ comme limite à droite en a.

Preuve : Soit S = sup f dans R, soit W un voisinage de S, il existe un réel x 0 ∈]a; b[ tel que f (x 0 ) ∈ W. Si x ∈]x 0 ; b[, alors
]a;b[
f (x 0 ) 6 f (x) 6 S ce qui entraîne f (x) ∈ W et donc lim

f = S. Si de plus b ∈ I, alors comme f est croissante, f est majorée
b
sur ]a; b[ par f (b), donc on a S 6 f (b). Le raisonnement est similaire pour lim f . 
a+

MPSI3 (2015-16) LYCÉE M ONTAIGNE 105 ©Fradin Patrick – http://mpsi.tuxfamily.org


Calculs de limites Chapitre 11 : Limite d’une fonction

Remarque 11.3 –
a) Si f est croissante majorée sur I alors f admet une limite finie en b − (limite non atteinte sur ]a; b[ si la
croissance est stricte).

NE
b) Si f est croissante non majorée sur I alors f a pour limite +∞ en b − .
c) Si f est croissante minorée sur I alors f admet une limite finie en a + (limite non atteinte sur ]a; b[ si la
croissance est stricte).
d) Si f est croissante non minorée sur I alors f a pour limite −∞ en a + .

ZExemple : Soit f (x) = ln(x). Pour n ∈ N∗ , ln(2n ) = n ln(2), or ln(2) > 0 car 1 < 2 et f est strictement croissante,
donc n ln(2) → +∞, ce qui prouve que f est non majorée, comme elle est croissante, on a lim f = +∞.
+∞

Théorème 11.12 (de la limite monotone)


Si f est croissante sur I, soit a = inf(I) et b = sup(I) (dans R), pour tout réel x 0 ∈]a; b[, f admet une

AIG
limite finie à droite et à gauche en x 0 , de plus on a : lim

f 6 f (x 0 ) 6 lim f . Et si x 1 ∈]a; b[ avec x 0 < x 1 ,
x0 +
x0
alors : lim f 6 lim

f.
x0+ x1

Preuve : Sur l’intervalle ]a; x 0 [, la fonction f est croissante et majorée par f (x 0 ), donc la fonction f a une limite finie à
gauche en x 0 et d’après le théorème précédent : lim −
f = sup f (t ) 6 f (x 0 ). Le raisonnement est le même à droite. Si
x0 t ∈]a;x 0 [
x 0 < x 1 < b, on applique le théorème précédent sur l’intervalle ]x 0 ; x 1 [ : lim f = inf f (t ) 6 sup f (t ) = lim

f. 
x 0+ t ∈]x 0 ;x 1 [ t ∈]x 0 ;x 1 [ x1

Remarque 11.4 – En changeant f et − f et en utilisant que pour une partie non vide A de R : inf(A) = − sup(−A),
on obtient deux théorèmes analogues aux précédents pour les fonctions décroissantes.

III CALCULS DE LIMITES


NT
1) Comparaison des fonctions

Définition 11.4
Soient f , g : I → R deux fonctions, et soit a ∈ I ou une extrémité de I. On dit que :
– f est dominée par g au voisinage de a lorsqu’il existe un voisinage V de a, et une fonction ε : V → R
tels que : ∀ x ∈ V ∩ I, f (x) = g (x)ε(x) avec ε bornée. Notation : f (x) = O g (x) .
¡ ¢
a
– f est négligeable devant g au voisinage de a lorsqu’il existe un voisinage V de a, et une fonction
ε : V → R tels que : ∀ x ∈ V ∩ I, f (x) = g (x)ε(x) avec lim ε(x) = 0. Notation : f (x) = o g (x) .
¡ ¢
x→a a
– f est équivalente à g au voisinage de a lorsqu’il existe un voisinage V de a, et une fonction ε : V → R
tels que : ∀ x ∈ V ∩ I, f (x) = g (x)ε(x) avec lim ε(x) = 1. Notation : f (x) ∼ g (x).
x→a a
MO

Théorème 11.13 (Caractérisations)


Lorsque la fonction g ne s’annule pas au voisinage de a (sauf peut être en a) :
(f
est bornée au voisinage de a
– f (x) = O g (x) si et seulement si g
¡ ¢
.
a si a ∈ I : g (a) = 0 =⇒ f (a) = 0
( f
¡ ¢ lim g = 0
– f (x) = o g (x) si et seulement si a .
a si a ∈ I : f (a) = 0
( f
lim g = 1
– f (x) ∼ g (x) si et seulement si a .
a si a ∈ I : g (a) = f (a)

Preuve : Celle - ci est simple et laissée en exercice. 

MPSI3 (2015-16) LYCÉE M ONTAIGNE 106 ©Fradin Patrick – http://mpsi.tuxfamily.org


Calculs de limites Chapitre 11 : Limite d’une fonction

Remarque 11.5 –
a) f (x) = O(1) signifie que la fonction f est bornée au voisinage de a.
a

NE
b) f (x) = o (1) signifie que lim f = 0.
a a
¡ ¢ ¡ ¢
c) Si f (x) = o g (x) alors f (x) = O g (x) .
a a
¡ ¢
d) Si f (x) ∼ g (x) alors f (x) = O g (x) .
a a
¡ ¢
e) Si f (x) = o g (x) et g (x) = o (h(x)), alors f (x) = o (h(x)) (transitivité).
a a a
¡ ¢
f ) Si f (x) = O g (x) et g (x) = O(h(x)), alors f (x) = O(h(x)) (transitivité)
a a a
¡ ¢
g) f (x) ∼ g (x) ⇐⇒ f (x) = g (x) + o g (x) .
a a

Théorème 11.14

AIG
La relation « ... est équivalente à ... au voisinage de a » est une relation d’équivalence dans F (I, R),
c’est à dire qu’elle est réflexive, symétrique et transitive. De plus :
– Si ` ∈ R∗ alors lim f = ` équivaut à f (x) ∼ `.
¡ a¢ a
– Si f (x) = o g (x) alors f (x) + g (x) ∼ g (x).
a a

Preuve : Celle - ci est simple et laissée en exercice. 

2) Les exemples classiques

Théorème 11.15 (croissances comparées)


Soient α, β ∈]0; +∞[ :
– Si α < β alors : x α = o x β et x β = o (x α ).
¡ ¢
+∞ ³ 0´
NT
α
¡ β¢ α
– [ln(x)] = o x et | ln(x)| = o x1β .
+∞ ³ β´ 0
α
et x α = o e x .
¡ xβ ¢
– x = o e
+∞ +∞
– Si a > 1 alors x α = o (a x ).
+∞

Preuve : Identique à celle des suites. 

Théorème 11.16 (les équivalents usuels)


– Si f est dérivable en 0 et si f 0 (0) 6= 0, alors f (x) − f (0) ∼ f 0 (0)x.
0
– sin(x) ∼ x ; e x − 1 ∼ x ; ln(1 + x) ∼ x ; tan(x) ∼ x ; 1 − cos(x) ∼ 12 x 2 ; (1 + x)α − 1 ∼ αx.
MO

(0) 0 0 0 0 0
p
P k p
– Soit P(x) = a k x une fonction polynomiale avec a p 6= 0, alors P(x) ∼ a p x (équivalence avec le
k=0 ±∞
terme de plus haut degré).
P(x)
– Soit Q(x) = R(x) une fraction rationnelle avec a p x p le terme de plus haut degré de P (a p 6= 0) et
ap
b r x r celui de R (b r 6= 0), alors Q(x) ∼ x p−r (équivalence avec le rapport des termes de plus haut
±∞ b r
degré).

Preuve : Identique à celle des suites. 

Théorème 11.17 (changement de variable)


Soient f , g : J → R, ε : I → R telle que Im(ε) ⊂ J et soit a ∈ I ou une extrémité de I. Si lim ε = b et si
a
f (x) ∼ g (x), alors : f (ε(x)) ∼ g (ε(x)).
b a

MPSI3 (2015-16) LYCÉE M ONTAIGNE 107 ©Fradin Patrick – http://mpsi.tuxfamily.org


Extension aux fonctions à valeurs complexes Chapitre 11 : Limite d’une fonction

Preuve : Celle - ci découle du théorème de composition des limites. 


Remarque 11.6 – Pour la recherche d’un équivalent en a, on peut toujours se ramener en 0 :

NE
– Si a ∈ R, on pose u = x − a(= ε(x)), on a alors u −→ 0, on pose h(u) = f (x) = f (u + a). Si h(u) ∼ g (u),
x→a 0
alors f (x) ∼ g (x − a).
a
– Si a = ±∞ alors on pose u = x1 (= ε(x)), on a alors u → 0, on pose h(u) = f (x) = f ( u1 ). Si h(u) ∼ g (u),
x→a 0
alors f (x) ∼ g ( x1 ).
a

3) Propriétés
Il découle de la définition :

Théorème 11.18
Soient f , g : I → R deux fonctions, et soit a ∈ I ou une extrémité de I :

AIG
– Si f ∼ g alors f et g ont le même signe au voisinage de a.
a
– Si f ∼ g et si lim g = ` ∈ R, alors lim f = `.
a a a
– Si f ∼ g et si h ∼ k, alors f × h ∼ g × k (compatibilité avec la multiplication).
a a a
1 1
– Si f ∼ g et si g ne s’annule pas au voisinage de a, alors f ∼ (compatibilité avec le passage à
a a g
l’inverse).
– Si f ∼ g et si g > 0 au voisinage de a, alors f α ∼ g α pour tout réel α.
a a

Remarque 11.7 –
– Il n’y a pas compatibilité avec l’addition en général. Par exemple : x + sin( x1 ) ∼ x et −x ∼ 1 − x, mais
+∞ +∞
sin( x1 ) n’est pas équivalent à 1 au voisinage de +∞.
– Ces propriétés sont utiles pour les calculs de limites qui ne peuvent pas être faits directement : on essaie
NT
de se ramener à un équivalent plus simple (s’il y en a ...) dont on sait calculer la limite.
ZExemples :
– Limite en +∞ de (1 + x1 )x : ici f (x) = exp(x ln(1 + x1 )), or ln(1 + x1 ) ∼1
car 1
→ 0, donc x ln(1 + x1 ) ∼ 1,
+∞ x x +∞ +∞
la limite cherchée est donc égale à 1.
x
– Soit à calculer : lim+ sin(x)
p −1
x ln(x)
. On a sin(x)x = exp(x ln(sin(x))), or ln(sin(x)) = ln( sin(x)
x ) + ln(x), on en
x→0
déduit ln(sin(x)) ∼ ln(x) et donc x ln(sin(x)) ∼ x ln(x) −→ 0, d’où : exp(x ln(sin(x))) − 1 ∼ x ln(sin(x)) ∼
0 p 0 0 0 0
x ln(x), par conséquent f (x) ∼ pxx = x, et donc la limite cherchée est égale à 0.
0

IV EXTENSION AUX FONCTIONS À VALEURS COMPLEXES


MO

1) Définition de la limite
Les fonctions à valeurs complexes ont été introduites au début du chapitre 6. Soit f : I → C une fonction,
on note u = Re( f ) (partie réelle de f ) et v = Im( f ) (partie imaginaire de f ), on rappelle que u et v sont des
fonctions de I vers R, et ∀ t ∈ I, f (t ) = u(t ) + i v(t ).
La fonction conjuguée de f et la fonction f : t 7→ u(t ) − i p v(t ).
La fonction module de f est la fonction | f | : t 7→ | f (t )| = u(t )2 + v(t )2 .
La fonction f est bornée sur I si et seulement si ∃ M ∈ R+ , ∀ t ∈ I, | f (t )| 6 M. Ceci équivaut à dire que les
fonctions u et v sont bornées.
L’ensemble des fonctions de I vers C est notée F (I, C), pour les opérations usuelles sur les fonctions, c’est
un C-espace vectoriel et un anneau commutatif non intègre.

Définition 11.5
Soit ` ∈ C, et soit a un élément de I ou une extrémité de I. On dira que la fonction f a pour limite ` en

MPSI3 (2015-16) LYCÉE M ONTAIGNE 108 ©Fradin Patrick – http://mpsi.tuxfamily.org


Extension aux fonctions à valeurs complexes Chapitre 11 : Limite d’une fonction

a lorsque lim | f (t ) − `| = 0. C’est à dire :


t →a
∀ε > 0, ∃V, voisinage de a, ∀t ∈ I, t ∈ V =⇒ | f (t ) − `| < ε.

NE
it
ZExemple : Soit f (t ) = ie+t , on a | f (t )| = p 1 → 0, donc lim f (t ) = 0.
1+t 2 t →0

2) Propriétés

Théorème 11.19
lim | f (t ) − `| = 0 ⇐⇒ lim Re( f (t )) = Re(`) et lim Im( f (t )) = Im(`).
t →a t →a t →a

Preuve : Celle - ci découle de l’inégalité : ∀ t ∈ I,


max(|Re( f (t )) − Re(`)|, |Im( f (t )) − Im(`)|) 6 | f (t ) − `| = |Re( f (t )) − Re(`)|2 + |Im( f (t )) − Im(`)|2 .
p


AIG
Connaissant les propriétés des limites (finies) des fonctions à valeurs réelles, on peut déduire celles des
fonctions à valeurs complexes en raisonnant sur les parties réelles et imaginaires :
– lim f = ` ∈ C si et seulement si pour toute suite (u n ) d’éléments de I qui tend vers a, la suite ( f (u n ))
a
tend vers `.
– Si lim f = ` ∈ C, alors f est bornée au voisinage de a.
a
– Si lim f = `, lim g = `0 , alors lim f + g = ` + `0 , lim f × g = ``0 , ∀ λ ∈ C, lim λ f = λ`.
a a a a a
– Si lim f = ` alors lim f = ` et lim | f | = |`|.
a a a
– Si lim f = ` ∈ C∗ , alors au voisinage de a f ne s’annule pas et lim 1f = 1` .
a a
NT
MO

MPSI3 (2015-16) LYCÉE M ONTAIGNE 109 ©Fradin Patrick – http://mpsi.tuxfamily.org


NE
Chapitre 12

Continuité

Sommaire

AIG
I Rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
2) Théorèmes généraux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
II Fonctions continues sur un intervalle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
1) Théorème des valeurs intermédiaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
2) Continuité sur un segment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
3) Uniforme continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
III Continuité et fonctions monotones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
1) Image d’un intervalle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
2) Monotonie et continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
3) Théorème des bijections . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
IV Extension aux fonctions à valeurs complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
1) Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
NT
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116

I RAPPELS

1) Définitions

Définition 12.1
Soit f : I → R une fonction et soit a ∈ I, on dit que f est
– continue en a lorsque lim f (t ) = f (a) (sinon on dit que a est un point de discontinuité de f ).
t →a
– continue à gauche en a lorsque I∩] − ∞; a[6= ; et lim− f (t ) = f (a).
t →a
MO

– continue à droite en a lorsque I∩]a; +∞[6= ; et lim+ f (t ) = f (a).


t →a
Si f est continue en tout point de I, alors on dit que f est continue sur I. L’ensemble des fonctions
continues sur I est noté C 0 (I, R).

Remarque 12.1 :
– Les fonctions trigonométriques, logarithmes, exponentielles, puissances, polynomiales, rationnelles,
ainsi que la fonction valeur absolue sont continues sur leur ensemble de définition.
– f est continue en a ∈ I si et seulement si ∀ ε > 0, ∃ α > 0, ∀ x ∈ I, |x − a| < α =⇒ | f (x) − f (a)| < ε.
– Si f est continue sur I et si J ⊂ I, alors f est continue sur J.
– f est continue en a si et seulement si lim f (t ) = f (a), lorsque a n’est pas une borne de I, ceci équivaut à
x→a
x6=a
lim+ f (t ) = f (a) et lim− f (t ) = f (a), i.e. f est continue à gauche et à droite en a.
t →a t →a
– Si f est continue en a, alors f est bornée au voisinage de a (car f a une limite finie en a).
– f est continue en a ssi pour toute suite (u n ) d’éléments de I, qui tend vers a, la suite ( f (u n )) tend vers
f (a).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 110 ©Fradin Patrick – http://mpsi.tuxfamily.org


Fonctions continues sur un intervalle Chapitre 12 : Continuité

FExercice 12.1
1/ Étudier la continuité de x 7→ bxc en a ∈ R, distinguer a ∈ Z et a ∈ R \ Z.

NE
2/ Montrer que la fonction caractéristique de Q, 1Q , est discontinue en tout point de R.

Définition 12.2 (Prolongement par continuité)


Soit f : I \ {a} → R une fonction non définie en a ∈ I, si f admet une limite finie ` en a, alors la fonction
f˜ : I → R définie par :
(
f (x) si x 6= a
f˜(x) =
` si x = a
est continue en a. Cette fonction est appelée prolongement de f par continuité en a.

sin(x)
ZExemple : La fonction f définie sur R∗ par f (x) = x admet un prolongement par continuité en 0 en

AIG
posant f (0) = 1.

2) Théorèmes généraux

Théorème 12.1
Soient f , g deux fonctions continues sur I, et soit α un réel, alors :
– f + g , f × g et α f sont continues sur I.
f
– Si g ne s’annule pas sur I alors g est continue sur I.
– Si h : J → R est une fonction continue sur l’intervalle J et si f (I) ⊂ J, alors h ◦ f est continue sur I.

Preuve : Ceci découle des propriétés des limites, par exemple : lim f = f (a) et lim g = g (a), donc lim( f +g ) = f (a)+g (a)
a a a
(somme de limites finies), ce qui prouve que f + g est continue en a. Les autres points se démontrent de la même façon.

NT
Conséquences :
a) Il découlent des théorèmes généraux que C 0 (I, R) est une R-algèbre pour les opérations usuelles sur
les fonctions.
b) Si f et g sont continues sur I alors sup( f , g ) et inf( f , g ) le sont (en particulier f + et f − le sont), car
f +g +| f −g | f +g −| f −g |
sup( f , g ) = 2 et inf( f , g ) = 2 .
(
ln(1+x)(x−π)
sin(x) si 0 < x < π
FExercice 12.2 Étudier la continuité de la fonction f avec f (x) = x
, y-a-t’il un prolongement
e − cos(x) si x 6 0
par continuité en π ?

II FONCTIONS CONTINUES SUR UN INTERVALLE


MO

1) Théorème des valeurs intermédiaires

Théorème 12.2
Soit f : [a; b] → R une fonction continue sur le segment [a; b] (a < b), si f (a) et f (b) sont de signes
contraires, alors f s’annule au moins une fois, i.e. : ∃ ` ∈ [a; b], f (`) = 0.

Preuve : Méthode dichotomique : on construit deux suites (récurrentes) (a n ) et (b n ) en posant a 0 = a, b 0 = b, puis pour
tout entier n :
a n +b n a n +b n
si f ( 2 ) et f (a n ) sont de signes contraires, alors on pose a n+1 = a n et b n+1 = 2 (moitié de gauche), sinon,
a n +b n
on pose a n+1 = 2 et b n+1 = b n (moitié de droite).
On montre ensuite par récurrence, la propriété :
b−a
P(n) : « a n , b n ∈ [a; b], b n − a n = 2n , f (a n ) et f (b n ) sont de signes contraires ».
a n +b n
Pour n = 0 : rien à faire. Si c’est vrai pour un entier n > 0 : alors a n et b n sont dans [a; b], donc c n = 2 aussi
(milieu).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 111 ©Fradin Patrick – http://mpsi.tuxfamily.org


Fonctions continues sur un intervalle Chapitre 12 : Continuité

a n +b n
Si f (c n ) et f (a n ) sont de signes contraires, alors b n+1 = 2 et a n+1 = b n , on voit donc que a n+1 et b n+1 sont dans
b n −a n b−a
[a, b], que b n+1 − a n+1 = 2 =2n+1
, que f (a n+1 ) et f (b n+1 ) sont de signes contraires, et que a n 6 a n+1 et b n+1 6 b n .
Si f (c n ) et f (a n ) ont le même signe, alors d’après l’hypothèse de récurrence, f (c n ) et f (b n ) sont de signes contraires,

NE
a +b b −a
on a alors a n+1 = n 2 n et b n+1 = b n , on voit donc que a n+1 et b n+1 sont dans [a, b], que b n+1 − a n+1 = n 2 n = 2b−a n+1 ,
que f (a n+1 ) et f (b n+1 ) sont de signes contraires, et que a n 6 a n+1 et b n+1 6 b n .
La propriété est donc vraie pour tout entier n, de plus la suite (a n ) est croissante, et la suite (b n ) est décroissante.
Comme b n − a n = b−a 2n → 0, les deux suites sont adjacentes. Elles ont donc une limite commune c ∈ [a; b] (passage à la
limite). La fonction f étant continue en c, on a f (a n ) → f (c) et f (b n ) → f (c), donc f (a n ) × f (b n ) → f (c)2 , or pour tout
n, f (a n ) × f (b n ) 6 0, donc f (c)2 6 0 (passage à la limite), et donc f (c) = 0. 
Remarque 12.2 –
– Cette méthode permet de calculer des valeurs approchées de `. Dans la preuve ci-dessus, on a pour
tout n, a n est une valeur approchée de ` (solution de f (x) = 0) par défaut à b−a 2n près car |a n − `| =
b−a
` − a n 6 b n − a n = 2n . De même, pour tout n, b n est une valeur approchée de ` par excès à b−a
2n près car
|b n − `| = b n − ` 6 b n − a n = b−a
2n . Voici un algorithme en python :

AIG
1 def dichotomie(f,a,b,epsilon): #f continue et f(a)*f(b)<=0 avec a<b
2 while b-a >= epsilon:
3 milieu = (a+b)/2.
4 if f(a)*f(milieu) <= 0: #f s’annule dans la première moitié
5 b = milieu
6 else:
7 a = milieu #f s’annule dans la deuxième moitié
8 return (a+b)/2.

Invariant : on peut vérifier que la proposition P(k) : « Bk − Ak = B−A


2k
, et f (Ak ) × f (Bk ) 6 0 », est un
invariant de la boucle while, qui permet de prouver la fonction, et sa terminaison. Quelques exemples
d’utilisation de cet algorithme :

Cf
Cf Cf
NT
a c b a c b a c b

a0 b0 a0 b0 a0 b0
a1 b1 a1 b1 a1 b1
a2 b2 a2 b2 a2 b2
a3 b3 a3 b3 a3 b3
a4 b4 a4 b4 a4 b4
f continue en c f discontinue en c f ne change pas de signe.

– Il découle de ce théorème que si f : I → R est continue sur l’intervalle I et si f change de signe, alors f
s’annule au moins une fois sur I.
– Une fonction continue sur un intervalle et qui ne s’annule pas, garde un signe constant. Ceci est faux si I
MO

n’est pas un intervalle, par exemple la fonction x 7→ x1 sur R∗ .


FExercice 12.3 Montrer que tout polynôme (réel) de degré impair admet au moins une racine réelle.

Théorème 12.3 (des valeurs intermédiaires)


Si f : I → R est continue sur l’intervalle I, alors f (I) est un intervalle.
Plus précisément, si a, b ∈ I et si α est un réel compris entre f (a) et f (b), alors il existe c entre a et b
tel que f (c) = α.

Preuve : Soient a, b deux réels distincts de I, supposons a < b, soit α un réel compris entre f (a) et f (b), posons
g (t ) = f (t ) − α, alors g est continue sur l’intervalle [a; b] et g (a) et g (b) sont de signes contraires. D’après le théorème
précédent, il existe c ∈ [a; b] tel que g (c) = 0, i.e. f (c) = α.
Posons J = f (I) et soient u < v deux éléments de J, alors il existe a, b ∈ I (distincts) tels que f (a) = u et f (b) = v. Soit
α ∈ [u, v], alors il existe c entre a et b tel que f (c) = α donc α ∈ J, ce qui prouve que J est un intervalle. 

MPSI3 (2015-16) LYCÉE M ONTAIGNE 112 ©Fradin Patrick – http://mpsi.tuxfamily.org


Fonctions continues sur un intervalle Chapitre 12 : Continuité

2) Continuité sur un segment

Théorème 12.4

NE
L’image d’un segment [a; b] par une fonction continue est un segment [m; M].

Preuve : Soit f : [a; b] → R une fonction continue sur le segment [a; b], posons J = f ([a; b]), on sait que J est un intervalle.
Posons m = la borne de gauche de J, et M la borne de droite (dans R), il existe une suite (y n ) de J qui tend vers m,
or y n ∈ f ([a; b]), donc il existe x n ∈ [a; b] tel que f (x n ) = y n . La suite (x n ) est une suite de [a; b], elle est donc bornée,
d’après le théorème de Bolzano-Weierstrass on peut en extraire une suite convergente : x σ(n) → `, par passage à la limite
on a ` ∈ [a; b], mais alors f (x σ(n) ) → f (`) car f est continue, c’est à dire y σ(n) → f (`), or y σ(n) → m, donc m = f (`). Ceci
prouve que m est un réel et que m ∈ J, donc m = min(J). De même on montre que M est un réel que M ∈ J, finalement
J = [m; M]. 
Remarque 12.3 – Il en découle qu’une fonction continue sur un segment possède un maximum (M) et un
minimum (m). On dit aussi parfois qu’une fonction continue sur un segment est bornée et atteint ses bornes.

AIG
3) Uniforme continuité
Dans la définition de « f est continue en a », on a :

∀ ε > 0, ∃ α > 0, ∀ x ∈ I, |x − a| < α =⇒ | f (x) − f (a)| < ε.

Dans cette définition, le réel α dépend de a (et de ε bien entendu). On va distinguer dans la suite le cas où α
ne dépend que de ε :

Définition 12.3
On dit que la fonction f : I → R est uniformément continue sur I lorsque :
∀ ε > 0, ∃ α > 0, ∀ a, x ∈ I, |x − a| < α =⇒ | f (x) − f (a)| < ε.
NT
Remarque 12.4 –
a) Cette définition dépend aussi de l’ensemble I, on dit qu’elle a un caractère global, alors que la définition
de la continuité en un point est locale car elle ne dépend que du point (pas de l’ensemble I).
b) La définition d’uniforme continuité est plus forte que la définition de continuité. Autrement dit, une
fonction uniformément continue sur I est nécessairement continue sur I. Nous verrons que la réciproque
est fausse en général.

Définition 12.4 (fonction lipschitzienne)


On dit que la fonction f : I → R est lipschitzienne lorsqu’il existe une constante K ∈ R+ tel que :
∀ x, y ∈ I, | f (x) − f (y)| 6 K|x − y|.
MO

Ce qui signifie que tous les taux d’accroissements de f sont majorés en valeur absolue par K.

c) Soit k ∈ R+ , une fonction K-lipschitzienne sur I est nécessairement uniformément continue sur I. En effet,
ε
une telle fonction vérifie pour tout x, y ∈ I, | f (x) − f (y)| 6 K|x − y|n, par conséquent, si on prend α = k+1
k
alors on a | f (x) − f (y)| 6 k+1 ε < ε. Nous verrons dans le chapitre sur la dérivation, que si f est dérivable
et si f 0 est majorée en valeur absolue par une constante K, alors f est K-lipschitzienne (par contre si f 0
n’est pas bornée, alors la fonction ne peut pas être lipschitzienne). Par exemple, les fonctions sin et cos
sont 1-lipschitziennes.

ZExemples :
– La fonction x 7→ x 2 est uniformément continue sur tout segment [a; b] (car lipschitzienne). Pour la
même raison, les fonctions sin et cos sont uniformément continues sur R.
p p p p
– La fonction x 7→ x est uniformément continue sur [0; +∞[. Car pour x, y > 0, | x − y| 6 |x − y|,
il suffit donc de prendre α = ε2 dans la définition. Cependant nous verrons que cette même fonction
n’est pas lipschitzienne sur [0; +∞[ (dérivée non bornée).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 113 ©Fradin Patrick – http://mpsi.tuxfamily.org


Continuité et fonctions monotones Chapitre 12 : Continuité

– La fonction x 7→ x 2 n’est pas uniformément continue sur R. Si c’était le cas : avec ε = 1 il existe α > 0
p p
tel que ∀ x, y ∈ R, |x − y| < α =⇒ |x 2 − y 2 | < 1. Prenons x n = n + 1 et y n = n alors x n − y n ∼ 2p1 n → 0,
donc pour n assez grand on aura |x n − y n | < α d’où |x n2 − y n2 | < 1 i.e. 1 < 1 ce qui est absurde.

NE
p
FExercice 12.4 Étudier l’uniforme continuité des fonctions x 7→ cos( x) et x 7→ cos(x 2 ) sur [0; +∞[.

Théorème 12.5 (de Heine 1 )


Toute fonction continue sur un segment est uniformément continue.

Preuve : Par l’absurde : on suppose qu’il existe ε > 0 tel que :

∀ α > 0, ∃ x, y ∈ I, |x − y| < α et | f (x) − f (y)| > ε.


1 1
En prenant α = n+1 pour chaque valeur de n ∈ N, on construit deux suites (x n ) et (y n ) de I telles que |x n − y n | < n+1
et | f (x n ) − f (y n )| > ε. La suite (x n ) étant bornée (car I est un segment), on peut en extraire une suite convergente :

AIG
1
x σ(n) → `. Par passage à la limite on ` ∈ I. L’inégalité |x n − y n | < n+1 pour tout n entraîne que y σ(n) → `. La fonction f
étant continue en `, on a f (x σ(n) ) → f (`) et f (y σ(n) ) → f (`), donc | f (x σ(n) ) − f (y σ(n) )| → 0, ce qui donne par passage à
la limite, 0 > ε ce qui est absurde. Donc f est uniformément continue sur I. 
FExercice 12.5 Montrer qu’une fonction continue sur un segment strictement positive, est minorée par un réel stricte-
ment positif.

III CONTINUITÉ ET FONCTIONS MONOTONES

1) Image d’un intervalle

Théorème 12.6
Si f est strictement croissante et continue sur l’intervalle I, alors :
• lorsque I = [a; b], on a f (I) = [ f (a); f (b)],
• lorsque I = [a; b[, on a f (I) = [ f (a); lim f [,
NT
b
• lorsque I =]a; b], on a f (I) =] lim f ; f (b)],
a
• lorsque I =]a; b[, on a f (I) =] lim f ; lim f [.
a b

Preuve : Montrons par exemple le cas où I = [a; b[, on sait que J = f (I) est un intervalle car f est continue sur I. La borne
de droite de J est la limite de f en b (finie ou +i n f t y, la limite non atteinte car la monotonie est stricte), la borne de
gauche de J est f (a) qui le minimum de f , donc f (I) = [ f (a); lim f [. Les autres cas se traitent de la même façon, on a
b
évidemment un énoncé analogue lorsque f est strictement décroissante. 

Attention !
Lorsque la monotonie n’est pas stricte, il se peut que les limites aux bornes exclues soit atteintes.
MO

2) Monotonie et continuité

Théorème 12.7
Si f : I → R est monotone sur l’intervalle I et si f (I) est un intervalle, alors f est nécessairement
continue sur I.

Preuve : Quitte à changer f en − f , on peut supposons f croissante sur I. Soit a ∈ I un élément de I qui n’est pas la
borne inférieure de I. Si x ∈ I avec x < a, alors f (x) 6 lim

f 6 f (a), ce qui entraîne que lim

f ∈ f (I). D’autre part, si x > a,
a a
alors f (x) > f (a). On en déduit que l’intervalle ] lim

f , f (a)[ est inclus dans f (I) mais il ne contient aucun élément de
a
f (I), cet intervalle est donc vide, i.e. lim

f = f (a), ce qui prouve que f est continue à gauche en a. Le raisonnement est
a
analogue pour montrer la continuité à droite en a (si a n’est pas la borne de droite de I). 

1. HEINE Heinrich Eduard (1821 – 1881) : mathématicien allemand qui travailla sur la théorie des fonctions.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 114 ©Fradin Patrick – http://mpsi.tuxfamily.org


Extension aux fonctions à valeurs complexes Chapitre 12 : Continuité

Remarque 12.5 – Ce théorème énonce une réciproque du théorème des valeurs intermédiaires, mais elle n’est
valable que pour les fonctions monotones.

NE
Théorème 12.8
Si f : I → R est continue sur l’intervalle I et injective, alors f est strictement monotone.

Preuve : Soient a < b deux éléments de I, f étant injective, f (a) 6= f (b), quitte à changer f en − f , on peut supposer
f (a) < f (b), montrons alors que f est strictement croissante sur I :
– Étape 1 : soit x ∈]a; b[, si f (x) > f (b), alors un réel c ∈] f (b); f (x)[ aura un antécédent dans ]x; b[ (théorème des
valeurs intermédiaires), et un antécédent dans ]a; x[ car on a aussi c ∈] f (a); f (x)[, ce qui contredit l’injectivité
de f , donc f (x) < f (b). De la même façon, on montre que f (x) > f (a). En conclusion, si x ∈]a; b[, alors f (a) <
f (x) < f (b).
– Étape 2 : soit x ∈ I avec x < a, si f (x) > f (b) alors d’après l’étape 1 (appliquée à − f ), on devrait avoir f (x) >
f (a) > f (b) ce qui est absurde, donc f (x) < f (b), mais alors l’étape 1 (en échangeant a et x) nous dit que
f (x) < f (a) < f (b). En conclusion, si x < a alors f (x) < f (a).

AIG
– Étape 3 : soit x ∈ I avec x > b, comme ci-dessus, on montre que f (x) > f (b).
– Étape 4 : soient x < y deux éléments de I :
• Si x < y 6 a : on sait que f (x) < f (a), mais alors l’étape 1 entraîne que f (x) < f (y).
• Si x 6 a < y : on sait alors que f (x) 6 f (a) < f (y), donc f (x) < f (y).
• Si a < x < y : alors on sait que f (a) < f (y), mais alors l’étape 1 entraîne que f (x) < f (y).
Dans tous les cas, f (x) < f (y), f est strictement croissante.


3) Théorème des bijections


Soit f : I → R une fonction strictement monotone, alors f est injective, donc f induit une bijection f˜ de I
sur f (I), la bijection réciproque est :

f˜−1 : f (I) → I
x 7→ y défini par y ∈ I et f (y) = x
NT
De plus, la bijection a le même sens de variation que f , en effet, supposons f croissante et soient y < y 0 deux
éléments de f (I), alors il existe x, x 0 ∈ I, tels que f (x) = y et f (x 0 ) = y 0 ; si on avait x > x 0 alors on aurait y > y 0
ce qui est contradictoire, donc x < x 0 i.e. f˜−1 (y) < f˜−1 (y 0 ).
D’autre part, dans un repère orthonormé du plan, on a :
½ ½
x ∈ f (I) y ∈I
M(x, y) ∈ C f˜−1 ⇐⇒ ⇐⇒ ⇐⇒ M0 (y, x) ∈ C f .
y = f˜−1 (x) f (y) = x

On en déduit que les courbes représentatives des fonctions f et f˜−1 sont symétriques par rapport à la
première bissectrice.
Le théorème suivant apporte une précision sur la continuité de la réciproque :
MO

Théorème 12.9
Si f : I → R est strictement monotone sur l’intervalle I, alors f induit une bijection de I sur J = f (I). Si
de plus f est continue sur I, alors la bijection réciproque est continue sur J.

Preuve : I étant un intervalle et f continue, l’ensemble J = f (I) est un intervalle, donc la bijection réciproque f˜−1 est
monotone et transforme l’intervalle J en l’intervalle I, d’après un des théorèmes précédents, f˜−1 est continue sur J. 

IV EXTENSION AUX FONCTIONS À VALEURS COMPLEXES

1) Continuité
Soit f : I → C une fonction à valeurs complexes, on pose u = Re( f ) et v = Im( f ).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 115 ©Fradin Patrick – http://mpsi.tuxfamily.org


Extension aux fonctions à valeurs complexes Chapitre 12 : Continuité

Définition 12.5
On dira que f est continue sur I lorsque lim f = f (t 0 ). L’ensemble des fonctions continues sur I est
t0

NE
noté C 0 (I, C).

Remarque 12.6 – D’après le chapitre sur les limites, on a vu que :


lim f = f (t 0 ) si et seulement si lim u = u(t 0 ) et lim v = v(t 0 ), par conséquent on peut dire que :
t0 t0 t0
f est continue en t 0 si et seulement si Re( f ) et Im( f ) sont continues en t 0 .
1
ZExemple : La fonction t 7→ e i t est continue sur R, la fonction t 7→ 1+i t aussi.

2) Propriétés
Compte tenu de la définition, on retrouve des propriétés analogues au cas réel, à une exception près.

AIG
– On retrouve les mêmes théorèmes généraux, en particulier C 0 (I, C) est une C-algèbre.
– Si f est continue sur I, alors les fonctions f et | f | aussi.
– Si f : [a; b] → C est continue sur le segment [a; b], alors f est bornée et atteint ses bornes, c’est à dire, il
existe t 0 , t 1 ∈ [a; b] tels que :
| f (t 0 )| = sup | f (t )| et f (t 1 )| = inft ∈[a;b] | f (t )|.
t ∈[a;b]
En effet : la fonction | f | est continue sur [a; b] et à valeurs réelles, on sait donc qu’elle admet un
minimum et un maximum.
– Si f : [a; b] → C, est continue sur le segment [a; b], alors f est uniformément continue (théorème de
Heine). p
En effet : cela découle de l’égalité : | f (t ) − f (t 0 )| = |u(t ) − u(t 0 )|2 + |v(t ) − v(t 0 )|2 , et du théorème de
Heine pour les fonctions à valeurs réelles.

Attention ! (Le théorème des valeurs intermédiaires n’est plus vrai)


NT
Par exemple, la fonction f (t ) = e i t est continue sur [0; 2π], 0 est compris entre f (π) = −1 et f (0) = 1, mais 0 ∉
f ([0; 2π]) car f ne s’annule pas (ici f [0; 2π]) n’est pas un intervalle, mais un cercle !).
MO

MPSI3 (2015-16) LYCÉE M ONTAIGNE 116 ©Fradin Patrick – http://mpsi.tuxfamily.org


NE
Chapitre 13

Dérivation

Sommaire

AIG
I Dérivée première . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
2) Théorème généraux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
3) Dérivabilité à gauche et à droite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
4) Dérivée d’une bijection réciproque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
II Applications de la dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
1) Théorème de Rolle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
2) Les accroissements finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
3) Sens de variation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
III Dérivées successives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
1) Classe d’une application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
2) Formule de Leibniz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
3) Classe d’une composée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
NT
4) Classe d’une réciproque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
IV Extension aux fonctions à valeurs complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
3) Classe d’une fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126

I DÉRIVÉE PREMIÈRE

1) Définition
Origine géométrique :
MO

La droite qui joint les points M(t , f (t )) et


M0 (t 0 , f (t 0 )) (sécante) a pour équation :

f (t ) − f (t 0 )
M y= (x − t 0 ) + f (t 0 )
f (t ) t − t0
Lorsque l’on rapproche t de t 0 , cette droite pi-
vote autour du point M0 et, lorsque la courbe est
régulière, semble rapprocher d’une position « li-
M0 mite » qui nous définirons comme la tangente au
f (t 0 ) point M0 . Le coefficient directeur de cette droite
« limite » doit être la limite lorsque t tend vers t 0
t t0
du coefficient directeur de la sécante, c’est dire
f (t )− f (t )
lim t −t0 0 .
t →t 0

MPSI3 (2015-16) LYCÉE M ONTAIGNE 117 ©Fradin Patrick – http://mpsi.tuxfamily.org


Dérivée première Chapitre 13 : Dérivation

Définition 13.1
Soit f : I → R une fonction et soit t 0 ∈ I, on dit que f est dérivable en t 0 lorsque la fonction : t 7→

NE
f (t )− f (t 0 )
t −t 0 admet une limite finie en t 0 . Si c’est le cas, cette limite est notée f 0 (t 0 ) et appelée nombre
dérivé de f en t 0 . Lorsque f est dérivable en tout point de I on dit que f est dérivable sur I et la
df
fonction de I vers R qui à t associe f 0 (t ) est appelée dérivée de f sur I, on la note f 0 ou bien d t .
L’ensemble des fonctions dérivables sur I est noté D(I, R). Si le plan est muni d’un repère orthonormé
et si f est dérivable en t 0 , la droite d’équation y = f 0 (t 0 )(x − t 0 )+ f (t 0 ) est appelée tangente à la courbe
au point d’abscisse t 0 . Si le taux d’accroissement de f en t 0 a une limite infinie et si f est continue en
t 0 , alors on dit que la courbe admet une tangente verticale au point d’abscisse t 0 , d’équation x = t 0 .

Remarque 13.1 – Les fonctions trigonométriques, logarithme, exponentielle, polynomiales et rationnelles sont
dérivables sur leur ensemble de définition. Mais :

AIG
Attention !
La fonction valeur absolue et la fonction x 7→ x α avec 0 < α < 1, ne sont pas dérivables en 0.

Théorème 13.1 (définition équivalente)


f est dérivable en t 0 et f 0 (t 0 ) = a si et seulement si f (t ) = f (t 0 ) + a(t − t 0 ) + (t − t 0 )o (1).
t0
On dit alors que f admet un développement limité d’ordre 1 en t 0 .

Preuve : Celle-ci est simple et laissée en exercice. 

2) Théorème généraux
NT
Théorème 13.2 (Dérivabilité et continuité)
Si f est dérivable en t 0 , alors f est continue en t 0 mais la réciproque est fausse.

Preuve : Il suffit d’appliquer la définition équivalente ci-dessus pour voir que lim f = f (t 0 ). Pour la réciproque, on a par
t0
exemple la fonction t 7→ |t | qui est continue en 0 mais non dérivable. 

Théorème 13.3 (Théorèmes généraux)


• Si f et g sont dérivables sur I et si α ∈ R alors les fonctions f + g , f × g et α f sont dérivables sur I
avec les formules :
– ( f + g )0 = f 0 + g 0 .
– ( f × g )0 = f 0 × g + f × g 0 .
MO

– (α f )0 = α f 0 . ³ ´0
−f 0
• Si f est dérivable sur I et ne s’annule pas alors 1f est dérivable sur et 1f = f 2 .
• Si f est dérivable sur I et si g est dérivable sur J avec Im( f ) ⊂ J, alors g ◦ f est dérivable sur I et
(g ◦ f )0 = f 0 × [g 0 ◦ f ].

Preuve : Les deux premiers points ne posent pas de difficultés, passons au troisième : soit x 0 = f (t 0 ), posons :
( g (x)−g (x
0)
x−x 0 si x 6= x 0
h(x) = 0
g (x 0 ) si x = x 0

g ( f (t ))−g ( f (t 0 )) f (t )− f (t )
alors h est continue en x 0 et pour t 6= t 0 on a : t −t 0 = h[ f (t )] × t −t0 0 , même si f (t ) = f (t 0 ), comme f est
g ( f (t ))−g ( f (t 0 ))
continue en t 0 , on a : lim t −t 0 = h(x 0 ) × f 0 (t 0 ) = f 0 (t 0 ) × g 0 ( f (t 0 )). 
t →t 0
Du troisième point découlent les formules de dérivation usuelles :

MPSI3 (2015-16) LYCÉE M ONTAIGNE 118 ©Fradin Patrick – http://mpsi.tuxfamily.org


Dérivée première Chapitre 13 : Dérivation

Fonction Dérivée
sin(u) u 0 cos(u)
cos(u) −u 0 sin(u)

NE
u0
tan(u) u 0 (1 + tan(u)2 ) = cos(u) 2
0
sh(u) u ch(u)
ch(u) u 0 sh(u)
u0
th(u) u 0 (1 − th(u)2 ) = ch(u) 2

eu ue 0 u
u0
ln(|u|) u
uα 0 α−1
αu u

Remarque 13.2 – Il découle des théorèmes généraux que pour les opérations usuelles sur les fonctions D(I, R)
est un anneau et un R-espace vectoriel.

AIG
FExercice 13.1
(
x 2 sin( x1 ) si x 6= 0
1/ Étudier la dérivabilité de : f (x) = .
0 si x = 0
2/ Étudier la dérivabilité de : f (x) = |x ln(|x|)|.

3) Dérivabilité à gauche et à droite

Définition 13.2
Soit f : I → R une fonction, et soit t 0 ∈ I :
• Si t 0 6= inf(I) : on dit que f est dérivable à gauche en t 0 lorsque le taux d’accroissement de f a une
limite finie à gauche en t 0 . Si c’est le cas, cette limite est notée f g0 (t 0 ) et la demi-droite d’équation
(
y = f g0 (t 0 )(x − t 0 ) + f (t 0 )
, est appelée demi-tangente à la courbe au point d’abscisse t 0 .
x 6 t0
NT
• Si t 0 6= sup(I) : on dit que f est dérivable à droite en t 0 lorsque le taux d’accroissement de f a une
limite finie à droite en t 0 . Si c’est le cas, cette limite est notée f d0 (t 0 ) et la demi-droite d’équation
(
y = f d0 (t 0 )(x − t 0 ) + f (t 0 )
, est appelée demi-tangente à la courbe au point d’abscisse t 0 .
x > t0

ZExemples :
– La fonction valeur absolue est dérivable à gauche en 0, et f g0 (0) = −1, elle est dérivable à droite en 0 et
f d0 (0) = 1, mais elle n’est pas dérivable en 0 car −1 6= 1, on dit que le point de la courbe d’abscisse 0 est
un point anguleux.
p
– La fonction f (t ) = |t | n’est pas dérivable en 0, le taux d’accroissement tend vers +∞ en 0+ et vers
−∞ en 0− , on dit que le point de la courbe d’abscisse 0 est un point de rebroussement de première
MO

espèce.

Théorème 13.4
Soit t 0 un point intérieur à I, f est dérivable en t 0 ssi f est dérivable à gauche et à droite en t 0 avec
f g0 (t 0 ) = f d0 (t 0 ).

Preuve : Cela découle des propriétés des limites. 

4) Dérivée d’une bijection réciproque

MPSI3 (2015-16) LYCÉE M ONTAIGNE 119 ©Fradin Patrick – http://mpsi.tuxfamily.org


Applications de la dérivation Chapitre 13 : Dérivation

Théorème 13.5
Si f : I → R est une fonction continue strictement monotone, alors f induit une bijection de I sur

NE
J = Im( f ). Soit y 0 = f (t 0 ) ∈ J (t 0 ∈ I), si f est dérivable en t 0 et si f 0 (t 0 ) 6= 0, alors la bijection réciproque,
1 1
φ, est dérivable en y 0 et φ0 (y 0 ) = f 0 (t 0)
= f 0 ◦φ(y 0)
. Si f est dérivable en t 0 et f 0 (t 0 ) = 0, alors φ n’est pas
dérivable en y 0 mais la courbe représentative de φ admet une tangente verticale au point d’abscisse
y0.

φ(y)−φ(y 0 ) t −t 0
Preuve : Soit t 0 ∈ I et y 0 = f (t 0 ), pour y ∈ J \{y 0 }, on a y−y 0 = f (t )− f (t 0 ) en posant t = φ(y), φ étant continue, lorsque
t −t 0 1
y t oy 0 , on a t → t 0 et donc f (t )− f (t 0 ) → f 0 (t 0 )
car f 0 (t 0 ) 6= 0. Ce qui prouve le premier résultat.
t −t 0
Si f 0 (t 0 ) = 0, comme f est monotone la fraction f (t )− f (t 0 ) garde un signe constant, donc sa limite lorsque y → y 0 est
infinie, ce qui prouve le second résultat. 
Remarque 13.3 –
– Si f : I → J est bijective, continue, dérivable et si f 0 ne s’annule pas sur I, alors d’après le théorème

AIG
précédent, f −1 est dérivable sur J et on a la formule :
¢0 1
f −1 =
¡
.
f f −1
0◦

– Si f n’est pas dérivable en t 0 mais si sa courbe a une tangente verticale en ce point, alors f −1 est dérivable
¢0
en y 0 = f (t 0 ) et f −1 (y 0 ) = 0 (car le taux d’accroissement de f en t 0 a une limite infinie en t 0 ).
¡

ZExemples :
– La fonction ln :]0; +∞[→ R est une fonction continue, strictement croissante, dérivable et sa dérivée ne
s’annule pas. Sa bijection réciproque, la fonction exponentielle, est donc dérivable sur R et :
1
∀ x ∈ R, exp(x)0 = = exp(x).
ln0 ◦ exp(x)

– La fonction f : [− π2 ; π2 ] → [−1; 1] définie par f (x) = sin(x) est bijective, continue, dérivable et sa dérivée
( f 0 (x) = cos(x)) ne s’annule pas sur ] − π2 ; π2 [, donc la bijection réciproque arcsin, est dérivable sur
NT
] − 1; 1[ et :
1 1 1
arcsin0 (x) = 0 = =p .
f (arcsin(x)) cos(arcsin(x)) 1 − x2
– La fonction f : [0; π] → [−1; 1] définie par f (x) = cos(x) est bijective, continue, dérivable et sa dérivée
( f 0 (x) = − sin(x)) ne s’annule pas sur ]0; π[, donc la bijection réciproque arccos, est dérivable sur ]−1; 1[
et :
1 −1 −1
arccos0 (x) = 0 = =p .
f (arccos(x)) sin(arccos(x)) 1 − x2
Par contre la fonction arccos n’est pas dérivable en ±1 (une tangente verticale en ces points).
– La fonction f : ] − π/2; π/2[→ R définie par f (x) = tan(x) est bijective, continue, dérivable et sa dérivée
( f 0 (x) = 1 + tan(x)2 ) ne s’annule pas, donc la bijection réciproque arctan, est dérivable sur R et :
MO

1 1 1
arctan0 (x) = = = .
f 0 (arctan(x)) 1 + tan2 (arctan(x)) 1 + x 2

II APPLICATIONS DE LA DÉRIVATION

1) Théorème de Rolle

Théorème 13.6
Soit f : [a; b] → R dérivable sur ]a; b[ et soit t 0 ∈]a; b[. Si f admet un extremum local en t 0 , alors
f 0 (t 0 ) = 0, mais la réciproque est fausse.

f (t )− f (t 0 )
Preuve : Supposons que f présente un maximum local en t 0 , alors à gauche en t 0 on a t −t 0 > 0, d’où par passage à
f (t )− f (t 0 )
la limite en t 0 : f 0 (t 0 ) > 0. À droite en t 0 on a : t −t 0
0
6 0, d’où par passage à la limite en t 0 : f (t 0 ) 6 0, par conséquent
3
f 0 (t 0 ) = 0. Pour la réciproque il suffit de considérer la fonction x 7→ x en 0. 

MPSI3 (2015-16) LYCÉE M ONTAIGNE 120 ©Fradin Patrick – http://mpsi.tuxfamily.org


Applications de la dérivation Chapitre 13 : Dérivation

Remarque 13.4 – Dans le théorème ci-dessus, il est essentiel que t 0 ne soit pas une borne de l’intervalle. Par
exemple la fonction f (t ) = 1 + t admet un maximum sur [0; 1] en t 0 = 1 mais f 0 (t 0 ) 6= 0.

NE
Théorème 13.7 (de Rolle 1 )
Si f : [a; b] → R est continue sur [a; b], dérivable sur ]a; b[ et si f (a) = f (b), alors :
il existe c ∈]a; b[, f 0 (c) = 0.

Preuve : Si f est constante alors il n’y a rien à montrer. Si f n’est pas constante, Im( f ) = [m; M] ( f est continue sur le
segment [a; b]) avec m < M. Supposons f (a) 6= M, alors f (b) 6= M or il existe c ∈ [a; b] tel que f (c) = M donc c ∈]a; b[,
d’après la proposition précédente (maximum global en c) on a f 0 (c) = 0. Si f (a) = M alors f (a) 6= m et le même
raisonnement s’applique avec le minimum. 
Remarque 13.5 –
– Ce théorème est faux si f n’est pas continue en a ou en b (prendre f (x) = x sur [0; 1[ et f (1) = 0).
– Ce théorème est faux si f est à valeurs complexes, par exemple f (t ) = e i t , on a f (0) = f (2π) mais

AIG
f 0 (t ) = i e i t ne s’annule jamais.
FExercice 13.2 Soit f : R → R une fonction dérivable qui admet n racines distinctes, alors f 0 admet au moins n −1 racines
distinctes.

Solution 13.2 Il suffit d’appliquer le théorème de Rolle à la fonction f entre deux racines consécutives. On montre
ainsi qu’entre deux racines de f il y a toujours une racine de f 0 .

2) Les accroissements finis

Théorème 13.8 (égalité de accroissements finis)


Si f : [a; b] → R est continue sur [a; b] et dérivable sur ]a; b[ alors :
∃c ∈]a; b[, f (b) − f (a) = (b − a) f 0 (c).
NT
Preuve : Soit φ(t ) = t f (b) − f (a) − (b − a) f (t ), la fonction φ est continue sur [a; b] et dérivable sur ]a; b[, de plus
¡ ¢

φ(a) = a f (b) − b f (a) = φ(b), d’après le théorème de Rolle, il existe c ∈]a; b[ tel que φ0 (c) = 0, ce qui donne la relation. 

Remarque 13.6 –
– De même, si f et g sont continues sur [a; b] et dérivables sur ]a; b[, il existe c ∈]a; b[ tel que :
( f (b) − f (a))g 0 (c) = (g (b) − g (a)) f 0 (c).
f (b)− f (a)
– L’égalité s’écrit aussi : f 0 (c) = b−a , ce qui signifie géométriquement qu’il existe un point de la courbe
(d’abscisse c) où la tangente est parallèle à la corde définie par le point d’abscisse a et le point d’abscisse
b.
f (b)− f (a)
– Autre preuve : soit g la fonction affine prenant la même valeur que f en a et b, g (x) = b−a (x − a) +
f (a). On a f (a) − g (a) = f (b) − g (b), d’après le théorème de Rolle il existe c ∈]a; b[ tel que f 0 (c) = g 0 (c) ce
f (b)− f (a)
qui donne f 0 (c) = b−a .
MO

a c1 c2 b

1. ROLLE Michel (1652 – 1719) : mathématicien français.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 121 ©Fradin Patrick – http://mpsi.tuxfamily.org


Applications de la dérivation Chapitre 13 : Dérivation

Théorème 13.9 (inégalité des accroissements finis)


Si f : [a; b] → R est continue sur [a; b], dérivable sur ]a; b[ et s’il existe deux réels m et M tels que

NE
∀ x ∈]a; b[, m 6 f 0 (x) 6 M, alors :
m(b − a) 6 f (b) − f (a) 6 M(b − a).

Preuve : Celle-ci découle directement de l’égalité des accroissement finis. 


Applications :
– Si ∀ t ∈]a; b[, | f 0 (t )| 6 M, alors | f (b) − f (a)| 6 M(b − a), et plus généralement :
∀ x, y ∈ [a; b], | f (x) − f (y)| 6 M|x − y|, la fonction f est M-lipschitzienne.
Réciproquement, si f est M-lipschitzienne sur un intervalle I, alors tous les taux d’accroissements sont majorés
en valeur absolue par M, et donc par passage à la limite, | f 0 | 6 M.
– Si f : [a; b] → [a; b] est continue sur [a; b], dérivable sur ]a; b[ et si | f 0 | 6 k < 1, alors la suite définie par u 0 ∈ [a; b]
et u n+1 = f (u n ) est convergente, et converge vers un point fixe de f , et ce point fixe est unique.
Preuve : La suite u est parfaitement définie. La fonction f possède un point fixe ` dans [a; b] (on montre que

AIG
g : x 7→ f (x) − x s’annule car continue et change de signe), on a alors |u n+1 − `| = | f (u n ) − f (`)| 6 k|u n − `|, on en
déduit que |u n − `| 6 k n |u 0 − `| → 0 car |k| < 1, et donc u n → `. 
p p
ZExemple : Pour tout x, y de [1; +∞[, on a | x − y| 6 12 |x − y|. ∀x > 0, x+1
1
6 ln(x + 1) − ln(x) 6 x1 .

Théorème 13.10 (limite de la dérivée)


Soit f : [a; b] → R continue sur [a; b] et dérivable sur [a; b[. Si f 0 admet une limite ` en b, alors :
• Si ` ∈ R alors f est dérivable en b et f 0 (b) = `.
• Si ` = ±∞ alors f n’est pas dérivable en b, mais il y a une tangente verticale pour la courbe réprésen-
tative.

Preuve : D’après l’égalité des accroissements finis, pour t ∈ [a; b[, il existe c t ∈]t ; b[ tel que f (b)− f (t ) = (b−t ) f 0 (c t ) = (b−
f (t )− f (b) f (t )− f (b)
t ) f 0 (c t ), d’où t −b = f 0 (c t ), mais si t tend vers b, alors c t tend vers b et donc f 0 (c t ) tend vers `, d’où : lim t −b = `,
t →b
ce qui termine la preuve. 
NT
Remarque 13.7 – Si f 0 n’a pas de limite en b, on ne peut rien dire en général.
On a un résultat analogue pour f : [a; b] → R continue sur [a; b], dérivable sur ]a; b], avec lim f 0 (t ) = `.
t →a

ZExemple : La fonction arcsin est dérivable sur ] − 1; 1[ et arcsin (x) = 0 p 1 ,


cette dérivée a pour limite +∞
1−x 2
quand x → 1. On retrouve ainsi que arcsin n’est pas dérivable en 1 et qu’il y a une tangente verticale en ce
point pour la courbe.

3) Sens de variation

Théorème 13.11

MO

Soit f : I → R une fonction continue sur l’intervalle I, et dérivable sur I privé des ses bornes (noté I,
intérieur de I), on a les résultats suivants :

• f est croissante si et seulement si ∀ t ∈ I, f 0 (t ) > 0.

• f est décroissante si et seulement si ∀ t ∈ I, f 0 (t ) 6 0.

• f est constante si et seulement si ∀ t ∈ I, f 0 (t ) = 0.

• f est strictement croissante si et seulement si ∀ t ∈ I, f 0 (t ) > 0 et il n’existe aucun intervalle ouvert
non vide inclus dans I sur lequel f 0 est constamment nulle.

• f est strictement décroissante si et seulement si ∀ t ∈ I, f 0 (t ) 6 0 et il n’existe aucun intervalle ouvert
non vide inclus dans I sur lequel f 0 est constamment nulle.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 122 ©Fradin Patrick – http://mpsi.tuxfamily.org


Dérivées successives Chapitre 13 : Dérivation


Preuve : Si f est croissante sur I, soit t 0 ∈ I, le taux d’accroissement de f en t 0 est toujours positif, donc par passage à la

limite, on a f 0 (t 0 ) > 0. Réciproquement, si f 0 > 0 sur I, soit t < t 0 deux éléments de I, d’après l’égalité des accroissements
finis, il existe c compris entre t et t 0 (strictement) tel que f (t ) − f (t 0 ) = f 0 (c)(t − t 0 ) 6 0, donc f (t ) 6 f (t 0 ) i.e. f est

NE
croissante. Pour f décroissante on applique ce qui précède à − f . Pour f constante, il suffit de dire que f est à la fois
croissante et décroissante.

Si f est strictement croissante, alors on sait que f 0 > 0 sur I. Si f 0 est nulle sur un intervalle J ⊂ I, alors f est

constante sur J, ce qui est absurde. Réciproquement, si ∀ t ∈ I, f 0 (t ) > 0 et il n’existe aucun intervalle ouvert non vide
inclus dans I sur lequel f 0 est constamment nulle, soit t < t 0 deux éléments de I, on sait que f (t ) 6 f (t 0 ), si on avait
f (t ) = f (t 0 ) alors ∀ c ∈ [t ; t 0 ], f (t ) = f (c) = f (t 0 ), donc f est constante sur [t ; t 0 ], ce qui entraîne que f 0 est nulle sur
]t ; t 0 [ : absurde, donc f (t ) < f (t 0 ) i.e. f est strictement croissante. 
1
Remarque 13.8 – Ce théorème est faux si I n’est pas intervalle, par exemple la fonction f (t ) = t est dérivable
sur R∗ avec f 0 < 0, mais f n’est pas monotone sur R∗ .

III DÉRIVÉES SUCCESSIVES

AIG
1) Classe d’une application

Définition 13.3
Soit f : I → R une fonction et soit n ∈ N∗ . On dit que f est de classe C n sur I lorsque f est n fois
dérivable sur I et que la dérivée n e de f est continue sur I. L’ensemble des fonctions de classe C n sur I
dn f
est noté C n (I, R). La dérivée n e de f est notée f (n) où d t n . Par convention, on pose f (0) = f , on a alors
0
∀ n ∈ N, f (n+1) = f (n) .
¡ ¢

Remarque 13.9 –
– C n+1 (I, R) ⊂ C n (I, R).
– Si f ∈ C n (I, R) avec n > 1, alors ∀ k ∈ J0; n K , f (k) ∈ C n−k (I, R).
NT
ZExemples :
1 (−1)n n!
– ∀ n ∈ N, f (t ) = t est de classe C n sur R∗ et pour n > 0, f (n) (t ) =
t n+1
.
n−1
– ∀n ∈ N, f (t ) = ln(t ) est de classe C sur ]0; +∞[ et pour n > 1, f (t ) = (−1) t n(n−1)! .
n (n)

– ∀n ∈ N, cos et sin sont de classe C n sur R et cos(n) (t ) = cos(t + n π2 ), sin(n) (t ) = sin(t + n π2 ).

Définition 13.4
Lorsque f est de classe C n pour tout entier n, on dit que f est de classe C ∞ , l’ensemble des ces
T n
fonctions est noté C ∞ (I, R), et on a donc C ∞ (I, R) = C (I, R).
n∈N

Remarque 13.10 –
MO

– ∀ n ∈ N, C ∞ (I, R) ⊂ C n (I, R).


– Dire que f est C ∞ sur I revient à dire que f est dérivable autant de fois que l’on veut (infiniment
T n
dérivable), autrement dit C ∞ (I, R) = D (I, R).
n∈N

ZExemples :
– Toute fonction polynomiale est C ∞ sur R (car la dérivée d’un polynôme est un polynôme).
– Toute fonction rationnelle est C ∞ sur son ensemble de définition (car la dérivée d’une fonction
rationnelle est une fonction rationnelle).
– Les fonctions ln, exp, cos, sin et tan sont C ∞ sur leur ensemble de définition.
FExercice 13.3 Étudier la classe sur R de la fonction f : x 7→ x 2 |x|.

Théorème 13.12 (prolongement de classe C n )


Soit f : [a; b[→ R une fonction de classe C n sur [a; b[ telle que toutes ses dérivées k e ont une limite

MPSI3 (2015-16) LYCÉE M ONTAIGNE 123 ©Fradin Patrick – http://mpsi.tuxfamily.org


Dérivées successives Chapitre 13 : Dérivation

finie en b : ∀k ∈ J0; n K, ∃`k ∈ R, lim f (k) (x) = `k . Alors le prolongement de f obtenu en posant f (b) = `0 ,
x→b
est un prolongement de classe C n sur [a; b], et on a ∀k ∈ J0; n K, f (k) (b) = `k .

NE
Preuve : Par récurrence sur n. Pour n = 0, c’est un prolongement par continuité de f en b. Supposons le théorème établi
au rang n et que f vérifie les hypothèses au rang n + 1, en appliquant (HR), le prolongement de f obtenu en posant
f (b) = `0 , est un prolongement de classe C n sur [a; b], et on a ∀k ∈ J0; n K, f (k) (b) = `k . Soit g = f (n) , alors g est continue
sur [a; b], de classe C 1 sur [a; b[ et lim g 0 (x) = `n+1 ∈ R, on en déduit que g est dérivable en b et que g 0 (b) = `n+1 , ce qui
x→b
entraîne que g 0 est continue en b. Finalement le prolongement de f est bien de classe C n+1 sur [a; b], et f (k) (b) = `k
pour k ∈ J0; n + 1K. 

2) Formule de Leibniz

Théorème 13.13 (généraux)


Si f et g sont de classe C n sur I alors :

AIG
• f + g est de classe C n sur I et ( f + g )(n) = f (n) + g (n) .
• ∀λ ∈ R, λ. f est de classe C n sur I et (λ. f )(n) = λ. f (n) .
¢(n) Pn ¡ ¢
n (k)
• f × g est de classe C n sur I et on a la formule (de Leibniz) : f × g × g (n−k) .
¡
= k f
k=0

Preuve : Pour n = 0 le théorème est vrai. Supposons le théorème démontré au rang n > 0 avec la formule de Leibniz, et
¢(n) P n ¡ ¢
n (k)
supposons que f et g sont de classe C n+1 . En particulier f et g sont C n , donc f × g aussi et f × g
¡
= k f ×
k=0
¢(n)
g (n−k) , on en déduit donc que f × g
¡
est dérivable sur I (somme de produits de fonctions dérivables) et sa dérivée est
¢(n+1) P n ¡ ¢ n ¡ ¢ n ¡¡ ¢ ¡
n (k+1) (n−k) n (k) n n ¢¢ (k)
× g (n+1−k) , ce qui donne f (n+1) × g + f × g (n+1) +
¡ P P
f ×g = k f ×g + k f k + k−1 f ×
k=0 k=0 k=1
n+1
P ¡n+1¢ (k)
(n+1−k) (n+1−k)
g , c’est à dire k f ×g , ce qui donne la formule au rang n + 1, de plus cette somme est une somme
k=0
n+1
de fonctions continues, ce qui prouve que f × g est bien de classe C sur I. 
NT
Théorème 13.14
∀ n ∈ N ∪ {+∞}, C n (I, R) est un R-espace vectoriel et un anneau.

Preuve : Cela découle du théorème précédent (s.e.v et sous-anneau de F (I, R)). 


2 n
FExercice 13.4 Calculer de deux façons la dérivée n-ième en 0 de la fonction x 7→ (1 − x ) . Quelle relation obtient-on ?

3) Classe d’une composée

Théorème 13.15
Soient f : I → R et g : J → R deux fonctions de classe C n avec Im( f ) ⊂ J, alors g ◦ f est de classe C n sur
I. En particulier, si f et g sont C ∞ alors g ◦ f aussi.
MO

Preuve : Le théorème est vrai pour n = 0 (composée de deux fonctions continues), supposons le vrai au rang n > 0 et
supposons f et g de classe C n+1 , comme n + 1 > 1, f et g sont dérivables, donc g ◦ f est dérivable avec la formule
(g ◦ f )0 = f 0 × g 0 ◦ f , d’après l’hypothèse de récurrence, g 0 ◦ f est de classe C n (car g 0 et f sont de classe C n ), or f 0 est
également de classe C n , par conséquent f 0 × g 0 ◦ f est de classe C n , ce qui signifie que g ◦ f est de classe C n+1 . 
Remarque 13.11 –
– Il existe une formule qui exprime (g ◦ f )0 en fonction des dérivées de f et de g , mais ce n’est pas une
formule simple.
– La fonction inverse g : x 7→ x1 est C ∞ sur R∗ , si f : I → R est une fonction de classe C n qui ne s’annule,
alors la composée, i.e. la fonction 1f , est de classe C n (même si n = ∞).
– On retrouve donc les mêmes théorèmes généraux que pour la continuité et la dérivabilité.

4) Classe d’une réciproque

MPSI3 (2015-16) LYCÉE M ONTAIGNE 124 ©Fradin Patrick – http://mpsi.tuxfamily.org


Extension aux fonctions à valeurs complexes Chapitre 13 : Dérivation

Théorème 13.16
Soit f : I → J une bijection de I sur J = Im( f ), de classe C n avec n ∈ N∗ ∪ {∞}. Si f 0 ne s’annule pas sur

NE
I, alors la bijection réciproque f −1 est de classe C n sur J (i.e. de même classe que f ).

1
Preuve : On sait déjà que f −1 est dérivable sur J et que ( f −1 )0 = f 0 ◦ f −1
, on voit alors que f −1 est de classe C 1 sur J, le
théorème est donc vrai pour n = 1, supposons le vrai au rang n > 1 et supposons que f est C n+1 , par hypothèse de
récurrence f −1 est de classe C n , mais alors f 0 ◦ f −1 est une fonction de classe C n qui ne s’annule pas, donc son inverse
est de classe C n , i.e. ( f −1 )0 est C n , ce qui signifie que f −1 est de classe C n+1 sur J. 
ZExemples :
– Les fonctions arcsin et arccos sont de classe C ∞ sur ] − 1; 1[.
– La fonction arctan est de classe C ∞ sur R.

IV EXTENSION AUX FONCTIONS À VALEURS COMPLEXES

AIG
1) Définition
On adopte la même définition que dans le cas réel :

Définition 13.5
f (t )− f (t )
On dira que f : I → C est dérivable en t 0 ∈ I si et seulement si la fonction t 7→ t −t0 0 définie sur
I \ {t 0 }, admet une limite finie (dans C) en t 0 . Si celle-ci existe, elle est notée f 0 (t 0 ). L’ensemble des
fonctions dérivables sur I est noté D(I, C).

2) Propriétés

Théorème 13.17 (caractérisation)


NT
Soit f : I → C une fonction, soit u = Re( f ) et v = Im( f ), alors f est dérivable en t 0 ∈ I si et seulement si
u et v sont dérivables en t 0 . Si tel est le cas, alors f 0 (t 0 ) = u 0 (t 0 ) + i v 0 (t 0 ).

Preuve : Il suffit d’écrire que :


f (t ) − f (t 0 ) u(t ) − u(t 0 ) v(t ) − v(t 0 )
= +i
t − t0 t − t0 t − t0
avec u = Re( f ) et v = Im( f ). 

À retenir
Il découle de ce théorème, que lorsque f est dérivable sur I, on a : Re( f 0 ) = Re( f )0 et Im( f 0 ) = Im( f )0 .
MO

Comme la caractérisation nous ramène aux fonctions à valeurs réelles, on peut déduire les propriétés des
fonctions dérivables à valeurs complexes :
– On retrouve les mêmes théorèmes généraux, à savoir :
• Toute fonction f : I → C dérivable est continue (réciproque fausse).
• Si f , g : I → C sont dérivables, alors f + g , f × g et λ f (λ ∈ C) sont dérivables avec les formules :
( f + g )0 = f 0 + g 0 , ( f × g )0 = f 0 × g + f × g 0 , (λ f )0 = λ f 0 .
g0
• Si g : I → C est dérivable et ne s’annule pas, alors g1 est dérivable sur I et ( g1 )0 = − g 2 . On en déduit que
³ ´0
f f 0 ×g − f ×g 0
si f est également dérivable sur I alors g = g2
.
• Si f : I → R et g : J → C sont dérivables avec Im( f ) ⊂ J, alors g ◦ f est dérivable sur I et (g ◦ f )0 =
f 0 ×g0 ◦ f .
• Si f : I → C est dérivable alors exp( f ) est dérivable sur I et [exp( f )]0 = f 0 × exp( f ).
– Cependant, le théorème de Rolle n’est plus valable, par exemple la fonction f (t ) = exp(i t ) est dérivable
sur R et f 0 (t ) = i exp(i t ), on a f (0) = f (2π) mais f 0 ne s’annule pas. Par conséquent l’égalité des
accroissements finis n’est plus valable non plus, mais on conserve les inégalités.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 125 ©Fradin Patrick – http://mpsi.tuxfamily.org


Extension aux fonctions à valeurs complexes Chapitre 13 : Dérivation

Théorème 13.18 (inégalité des accroissements finis généralisée)


Si f : I → C est une fonction C 1 sur [a; b], et si ∀ t ∈]a; b[, | f 0 (t )| 6 g 0 (t ) où g : [a; b] → R est une

NE
fonction C 1 sur [a; b], alors :
| f (b) − f (a)| 6 |g (b) − g (a)|.

Remarque 13.12 –
– Si ∀ t ∈]a; b[, | f 0 (t )| 6 M, alors en prenant la fonction g (t ) = Mt , et en appliquant le théorème ci-dessus,
on obtient :
| f (b) − f (a)| 6 M|b − a|.
– Sous les mêmes hypothèses du théorème, on a ∀x, y ∈ [a; b], | f (x) − f (y)| 6 |g (x) − g (y)|.
ZExemple : Avec f (t ) = exp(αt ) où α = a + i b ∈ C avec a 6= 0, on a | f 0 (t )| = |α| exp(at ) = g 0 (t ), par conséquent :
|α|

AIG
∀ t , t 0 ∈ R, | exp(αt ) − exp(αt 0 )| 6 | exp(at ) − exp(at 0 )|.
|a|

3) Classe d’une fonction


On donne la même définition avec les mêmes notations que pour les fonctions à valeurs réelles, à savoir :
f : I → C est de classe C n ssi f est n fois dérivable et f (n) est continue sur I, ce qui revient à dire que les
parties réelle et imaginaire de f sont de classe C n . L’ensemble des fonctions de classe C n sur I est noté
C n (I, C), et on pose C ∞ (I, C) =
T n
C (I, C) : ensemble des fonctions de classe C ∞ .
n∈N
On retrouve les mêmes théorèmes généraux : C n (I, C) est une C-algèbre (n ∈ N ∪ {∞}). La formule de
Leibniz reste valable, et la composée de deux fonctions de classe C n est également de classe C n .
p
FExercice 13.5 Soit f (t ) = cos(t ) exp(t 3), calculer f (n) (t ).
p p
Solution 13.5 On a f (t ) = Re(g (t )) avec g (t ) = exp(t (i + 3)) = exp(αt ) en posant α = 3 + i = 2 exp(i π6 ). On a donc
p
g (n) (t ) = αn exp(αt ) et f (t ) = Re(αn exp(αt )) = 2n cos(t + n π6 ) exp(t 3).
NT
MO

MPSI3 (2015-16) LYCÉE M ONTAIGNE 126 ©Fradin Patrick – http://mpsi.tuxfamily.org


NE
Chapitre 14

Développements limités

AIG
Sommaire
I Développements limités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
2) Formule de Taylor-Young . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
3) Développements usuels en 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
II Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
1) Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
2) Règles de calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
3) Développements usuels (compléments) . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
III Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
1) Recherche d’une limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
2) Étude locale d’une fonction au voisinage d’un point . . . . . . . . . . . . . . . . . . . . 132
3) Étude locale au voisinage de l’infini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
4) Recherche d’un équivalent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
NT
I DÉVELOPPEMENTS LIMITÉS

1) Définition

Définition 14.1
Soit f : I → C une fonction et soit a ∈ I ou une borne réelle de I. Soit n ∈ N, on dit que f admet un
développement limité d’ordre n en a (ou un dln (a)) lorsqu’il existe un polynôme P de degré au plus n
tel que :
f (x) = P(x − a) + o (x − a)n .
¡ ¢
a
MO

Si c’est le cas, alors le polynôme P(x − a) est appelé partie régulière du dln (a).

Remarque 14.1 –
– On notera Cn [X] l’ensemble des polynômes de degré au plus n et à coefficients complexes.
n
a k (x − a)k , dans la pratique on ne développe jamais les termes (x − a)k .
P
– On a P(x − a) =
k=0
– Le reste du dln (a) , c’est à dire o ((x − a)n ) peut aussi se mettre sous la forme (x − a)n ε(x) où lim ε(x) = 0.
a x→a
– C’est le reste qui donne l’ordre du dln (a).

2) Formule de Taylor-Young

MPSI3 (2015-16) LYCÉE M ONTAIGNE 127 ©Fradin Patrick – http://mpsi.tuxfamily.org


Développements limités Chapitre 14 : Développements limités

Définition 14.2 (polynôme de Taylor et reste)


Soit f : I → C une fonction, et soit a ∈ I, si f possède des dérivées jusqu’à l’ordre n en a, alors on

NE
appelle polynôme de Taylor de f en a à l’ordre n, la fonction polynomiale notée Tn, f ,a définie par :
n f (k) (a)
P k
Tn, f ,a (x) = k! (x − a) .
k=0
La différence f (x) − Tn, f ,a (x) est notée Rn, f ,a (x) est appelée reste de f en a à l’ordre n.

£ ¤0
Remarque 14.2 – Si f est n + 1 fois dérivable en a, alors Tn+1, f ,a (x) = Tn, f 0 ,a (x).

Théorème 14.1 (formule de Taylor-Young)


Soit n ∈ N, soit f : I → C une fonction de classe C n sur l’intervalle I et a ∈ I, on a : Rn, f ,a (x) = o ((x − a)n ),
a
n f (k) (a)
P k n
c’est à dire : f (x) = k! (x − a) + o ((x − a) ). a

AIG
k=0

f (x)−Tn, f ,a (x)
Preuve : Il s’agit de montrer que lim (x−a)n = 0. Par récurrence sur n : pour n = 0 il s’agit de la définition de
x→a
continuité en a. Supposons le théorème démontré au rang n, et supposons f de classe C n+1 sur I, supposons a < x
et pour t ∈ [a; x] posons h(t ) = f (t ) − Tn+1, f ,a (t ), on a h dérivable et h 0 (t ) = f 0 (t ) − Tn, f 0 ,a (t ). On se donne ε > 0,
l’hypothèse de récurrence appliquée à f 0 permet d’affirmer qu’il existe un voisinage V de a tel que t ∈ V ∩ I =⇒
n+1
|h 0 (t )| 6 ε(t − a)n = g 0 (t ) avec g (t ) = ε (t −a)
n+1 , l’inégalité des accroissements finis généralisée nous donne alors pour
n+1
x ∈ V : |h(x) − h(a)| 6 g (x) − g (a), c’est à dire x ∈ V ∩ I =⇒ | f (x) − Tn+1, f ,a (x)| 6 ε (x−a)
n+1 6 ε(x − a)n+1 , ce qu’il fallait
démontrer. Le raisonnement est similaire pour x < a. 
Remarque 14.3 – Sous les mêmes hypothèses, on peut écrire qu’il existe une fonction ε telle que :
f (x) = Tn, f ,a (x) + (x − a)n ε(x) avec lim ε(x) = 0.
x→a

Théorème 14.2
NT
Soit f : I → C et soit a ∈ I, si f est de classe C n sur l’intervalle I, alors f admet un dln (a) et sa partie
régulière est Tn, f ,a (x), c’est à dire son polynôme de Taylor en a à l’ordre n. Si f est de classe C ∞ sur I,
alors f admet un dl en tout point de I et à n’importe quel ordre.

3) Développements usuels en 0

À retenir
n
xk
+ o (x n ).
P
– exp(x) = k!
k=0 0
n k
MO

(−1)k−1 xk + o (x n ).
P
– ln(1 + x) =
k=1 0
n 2k+1
x
(−1)k (2k+1)! + o x 2n+2 (il s’agit du dl2n+2 (0)).
P ¡ ¢
– sin(x) =
k=0 0
n 2k
x
(−1)k (2k)! + o x 2n+1 (il s’agit d’un dl2n+1 (0)).
P ¢ ¡
– cos(x) =
k=0 0
n
x 2k+1 2n+2
P ¡ ¢
– sh(x) = (2k+1)! +o x (il s’agit du dl2n+2 (0)).
k=0 0
n
x 2k
+ o x 2n+1 (il s’agit d’un dl2n+1 (0)).
P ¡ ¢
– ch(x) = (2k)!
k=0 Ã !0 Ã !
n α α α(α − 1) · · · (α − k + 1)
– (1 + x)α = x k + o x n , où
P ¡ ¢
= , formule des coefficients du binôme
k=0 k 0 k k!
n
1
(−1)k x k + o (x n ).
P
généralisée. En particulier : 1+x =
k=0 0

MPSI3 (2015-16) LYCÉE M ONTAIGNE 128 ©Fradin Patrick – http://mpsi.tuxfamily.org


Propriétés Chapitre 14 : Développements limités

II PROPRIÉTÉS

1) Généralités

NE
Théorème 14.3 (troncature)
Si f admet un dln (a) alors pour tout entier p ∈ J0; n K, f admet un dlp (a) dont la partie régulière
s’obtient en tronquant la partie régulière du dln (a) au degré p.

Preuve : Celle-ci est simple et laissée en exercice. 

Théorème 14.4 (unicité du dl)


Si f admet un dln (a) alors celui-ci est unique.

Preuve : Par récurrence sur n. Au rang 0 c’est évident avec un passage à la limite. Supposons l’unicité montrée au rang

AIG
n − 1. Si f a deux dln (a), alors par troncature elle a deux dln−1 (a), ils sont donc égaux, ce qui donne après simplification
αn (x − a)n + o ((x − a)n ) = βn (x − a)n + o ((x − a)n ), en simplifiant par (x − a)n (pour x 6= a), et par passage à la limite en
a a
a, on obtient αn = βn et on a bien l’unicité au rang n. 

Changement de variable
On peut toujours se ramener en a = 0 :
– On pose u = x − a, on a alors f (x) = f (u + a) = g (u), d’où :

f admet un dln (a) ⇐⇒ ∃ P ∈ Cn [X], f (x) = P(x − a) + o (x − a)n


¡ ¢
a
¡ n¢
⇐⇒ ∃ P ∈ Cn [X], g (u) = P(u) + o u
0
⇐⇒ g admet un dln (0).

– Si f est définie au voisinage de ±∞ : on pose u = x1 , on a alors f (x) = f ( u1 ) = g (u). Si g admet un dln (0) ;
alors il existe un polynôme P ∈ Cn [X] tel queg (u) = P(u) + o (u n ), ce qui donne f (x) = P( x1 ) + o x1n , on
¡ ¢
NT
0 ±∞
1
dit alors que f admet un développement asymptotique en x d’ordre n en ±∞, on remarquera que la
partie régulière n’est pas un polynôme en x mais en x1 .

Théorème 14.5
• f admet un dl0 (a) si et seulement si f admet une limite finie en a.
• f admet un dl1 (a) si et seulement si f admet un prolongement continu dérivable en a.
• Si f admet un dln (0), alors la partie régulière a la même parité que f .

Preuve : Celle-ci est simple et laissée en exercice. 

Attention !
MO

Une fonction peut avoir un dl2 (a) sans être deux fois dérivable en a.

FExercice 14.1 Soit f (x) = exp(− x12 ) sin(exp( x12 )), montrer que f admet des développements limités à n’importe quel
ordre en 0, mais qu’elle n’est pas deux fois dérivable en 0.
Solution 14.1 On a pour tout entier n, f (x) = o (x n ), donc f admet des dl en 0 à n’importe quel ordre et la partie
0
régulière est nulle, en particulier f se prolonge par continuité en 0 en posant f (0) = 0, et ce prolongement est dérivable
en 0 avec f 0 (0) = 0. Pour x 6= 0, on a f 0 (x) = x23 f (x) − x23 cos(exp( x12 )), or la fonction x 7→ x14 cos(exp( x12 )) n’a pas de limite
f 0 (x)
en 0 (considérer par exemple la suite u n = p 1 ), on en déduit que x n’a pas de limite en 0 et donc que f n’est pas
ln(nπ)
deux fois dérivable en 0.
Plus simplement, on peut montrer que la fonction définie par f (x) = x 3 sin( x1 ) avec f (0) = 0, admet un dl2 (0) (dont
la partie régulière est nulle), mais f 0 n’est pas dérivable en 0, donc f n’est pas deux fois dérivable en 0.

2) Règles de calculs

MPSI3 (2015-16) LYCÉE M ONTAIGNE 129 ©Fradin Patrick – http://mpsi.tuxfamily.org


Propriétés Chapitre 14 : Développements limités

Théorème 14.6
Si f , g admettent un dln (0), f (x) = P(x) + o (x n ) et g (x) = Q(x) + o (x n ), avec P, Q ∈ Cn [X].
0 0

NE
– DL d’une combinaison linéaire : ∀ λ ∈ C, λ f + g admet un dln (0) dont la partie régulière en λP(x) +
Q(x).
– DL d’un produit : f (x) × g (x) admet un dln (0) dont la partie régulière est [P(x)Q(x)]n (polynôme
P(x) × Q(x) tronqué au degré n).
– DL d’une composée : si lim g (x) = 0, alors f (g (x)) admet un dln (0) dont la partie régulière est
x→0
[P(Q(x))]n .
– Intégration des DL : si f 0 admet un dln (0) dont la partie régulière est P(x), alors f admet un dln+1 (0)
Rx
dont la partie régulière est : f (0) + 0 P(t ) d t .
1
– Inversion d’un DL : si lim f (x) = a 6= 0, alors f (x) admet un dln (0) qui s’obtient en composant le
x→0
1 f (x)−a
dln (0) de 1+u avec celui de a , et en multipliant par a1 .

AIG
Preuve : Donnons un exemple pour la composition avec n = 2 : f (x) = a + bx + c x 2 + x 2 u(x) et g (x) = αx + βx 2 + x 2 v(x),
avec u et v de limite nulle en 0, on en déduit en composant : f (g (x)) = a + b(αx + βx 2 + x 2 v(x))) + c(αx + βx 2 +
v(x))2 + (αx + βx 2 + x 2 v(x))2 u(g (x)), ce qui donne après
¡ ¢avoir développer et regrouper les puissances de x strictement
supérieures à 2 : f (g (x)) = a + bαx + [bβ + cα2 ]x 2 + o x 2 , on peut vérifier que la partie régulière est la troncature au
0
degré 2 de P(Q(x)).
Pour l’intégration : on a f 0 (t ) = P(t ) + t n u(t ) avec lim u(x) = 0. On se donne ε > 0, au voisinage de 0 on aura
x→0
| f 0 (t ) − P(t )| 6R |t |n ε, en appliquant l’inégalité des accroissements finis généralisée, on obtient pour x au voisinage de 0,
x
| f (x) − f (0) − 0 P(t ) d t | 6 ε|x|n+1 , ce qui prouve le résultat.
1 1 1 1 f (x)−a
Pour f (x) : comme a 6= 0, on a f (x) = a 1+ f (x)−a , et a −→ 0, donc la règle de composition s’applique. 
a x→0

Attention !
Il n’y a pas de propriété de dérivation de DL. Par exemple, on vérifiera que la fonction définie par f (x) = x 2 sin( x1 )
avec f (0) = 0, admet un dl1 (0) (dont la partie régulière est nulle), mais f 0 n’a pas de limite fine en 0, donc f 0 n’a pas
NT
de dl0 (0).

3) Développements usuels (compléments)


n
1−x n+1
xk =
P
Pour x 6= 1, on a 1−x , on en déduit :
k=0

1 n x n+1 Xn
xk + xk + o xn .
X ¡ ¢
= =
1 − x k=0 1 − x k=0 0

En substituant −x à x, on obtient :
MO

1 n
(−1)k x k + o x n .
X ¡ ¢
=
1 + x k=0 0

En intégrant ce dernier développement entre 0 et x, on obtient :


n x k+1
(−1)k + o x n+1 .
X ¡ ¢
ln(1 + x) =
k=0 k +1 0

En substituant x 2 à x dans l’avant dernier, on obtient :

1 n
k 2k
X ¡ 2n+1 ¢
= (−1) x + o x c’est un dl2n+1 (0).
1 + x 2 k=0 0

En intégrant ce dernier développement entre 0 et x, on obtient :


n x 2k+1
(−1)k + o x 2n+2 .
X ¡ ¢
arctan(x) =
k=0 2k + 1 0

MPSI3 (2015-16) LYCÉE M ONTAIGNE 130 ©Fradin Patrick – http://mpsi.tuxfamily.org


Applications Chapitre 14 : Développements limités

On a : Ã !
n −1/2
1
xk + o xn .
X ¡ ¢
p =
1 + x k=0 k

NE
0

(2kk )
= (−1)k 1×3×...×(2k−1)
¡−1/2¢
Or k k!2k
= (−1)k 4k
, on a finalement :
¡2k ¢
1 n
(−1)k kk x k + o x n .
X ¡ ¢
p =
1 + x k=0 4 0

On en déduit que :
¡2k ¢
1 n
k
x 2k + o x 2n+1 .
X ¡ ¢
p = k
1 − x 2 k=0 4 0

En intégrant entre 0 et x, obtient :

AIG
¡2k ¢
n
k
x 2k+1 + o x 2n+2 .
X ¡ ¢
arcsin(x) = k (2k + 1)
k=0 4
0

et :
¡2k ¢
π Xn
k
x 2k+1 + o x 2n+2 .
¡ ¢
arccos(x) = − k
2 k=0 4 (2k + 1) 0

ZExemples :
– Calculer un dl3 (0) de exp(sin(x)).
3 2 3
On a sin(x) = x − x6 + o x 3 et exp(u) = 1 + u + u2 + u6 + o u 3 . Comme lim sin(x) = 0, on peut appli-
¡ ¢ ¡ ¢
0 0 x→0
quer le théorème de composition, et composer les parties régulières jusqu’à l’ordre 3, ce qui donne
2
exp(sin(x)) = 1 + x + x2 + o x 3 .
¡ ¢
0
– Calculer un dl4 (0) de (1 + sin(x))x .
NT
3
L’expression est égale à exp[x ln(1 + sin(x))]. Un dl3 (0) de sin(x) est sin(x) = x − x6 + o x 3 , et ln(1 + u) =
¡ ¢

u u3
¡ 3¢ x2 x3
¡ 03 ¢
u − 2 + 3 + o u , on obtient par composition, ln(1 + sin(x)) = x − 2 + 6 + o x et donc x ln(1 +
0
2 x3 x4
¡ 4¢ v2
¡ 2¢ 0
sin(x)) = x − 2 + 6 + o x . On a également exp(v) = 1 + v + 2 + o v , d’où par composition :
0 0
3 4
exp[x ln(1 + sin(x))] = 1 + x 2 − x2 + 2 x3 + o x 4 .
¡ ¢
0
– Calculer un dl5 (0) de tan(x) :
3
x5
1
. sin(x) = x − x6 + 120 1
+ o x 5 . D’autre part cos(x) 1
¡ ¢
On a tan(x) = sin(x) × cos(x) = 1+u avec u = cos(x) − 1,
0
2 4
comme u → 0, on pourra donc composer, cos(x) − 1 = − x2 + 24 x 1
+ o x 5 et 1+u = 1 − u + u 2 + o u 2 , ce
¡ ¢ ¡ ¢
0 0
2
x4
1
= 1 + x2 + 5 24 + o x 5 . On effectue ensuite le produit avec le dl de sin(x), ce qui donne
¡ ¢
qui donne : cos(x)
0
3 5
tan(x) = x + x3 + 2x
¡ 5¢
MO

15 + o x .
0
Autre méthode : on a tan(x) = 0 + o (1), d’où 1 + tan(x)2 = 1 + o (1), en intégrant, on obtient tan(x) =
0 0
3
x + o (x). Puis on recommence : 1 + tan(x)2 = 1 + x 2 + o x 2 et donc tan(x) = x + x3 + o x 3 , mais alors
¡ ¢ ¡ ¢
0 0 0
4 3 5
1 + tan(x)2 = 1 + x 2 + 2x3 + o x 4 , et donc tan(x) = x + x3 + 2x
¡ ¢ ¡ 5¢
15 + o x ... etc
0 0

III APPLICATIONS

1) Recherche d’une limite


x 2 −1−2x ln(x)
– Soit f (x) = lim f
x(x−1) ln(x) , calculer x→1 (x).
Il s’agit bien d’une forme indéterminée, on ramène le problème en 0 en posant u = x − 1, ce qui
2 2
donne f (x) = u +2u−2(1−u) ln(1+u)
u(1+u) ln(1+u) ∼ u +2u−2(1+u)
u2
ln(1+u)
. On cherche alors un dl2 (0) du numérateur, ce
¡ 2¢ 0
qui donne o u , on a donc f (x) = f (1 + u) ∼ o (1) et donc la limite cherchée est nulle.
0 0 0

MPSI3 (2015-16) LYCÉE M ONTAIGNE 131 ©Fradin Patrick – http://mpsi.tuxfamily.org


Applications Chapitre 14 : Développements limités

x
– Calculer lim x 2 ln( 1+x ) + x − 1.
x→+∞
Il s’agit bien d’une forme indéterminée, on se ramène en 0 en posant u = 1/x, on a alors f (x) = f ( u1 ) =

NE
−1
u2
ln(1 + u) + u1 − 1, ce qui donne f ( u1 ) = −1 −1
2 + o (1), et donc la limite cherchée est 2 .
0

2) Étude locale d’une fonction au voisinage d’un point


Si f a un dl2 (a), f (x) = a 0 + a 1 (x − a) + a 2 (x − a)2 + o (x − a)2 , alors on voit que lim f (x) = a 0 , on peut
¡ ¢
a x→a
donc prolonger f par continuité en a, en posant f (a) = a 0 (si ce n’est pas déjà fait !). Le taux d’accroissement
f (x)−a
en a s’écrit : x−a 0 = a 1 + o (1), donc ce prolongement est dérivable en a et f 0 (a) = a 1 . L’équation de la
a
tangente à la courbe au point d’abscisse a est y = a 1 (x − a) + a 0 , et l’étude de la position courbe-tangente se
fait en étudiant le signe de f (x) − [a 0 + a 1 (x − a)] = (x − a)2 [a 2 + o (1)], d’où la discussion :
a
– si a 2 > 0 : alors au voisinage de a on a [a 2 + o (1)] > 0 et donc f (x) > a 0 + a 1 (x − a), i.e. la courbe est
a
au-dessus de sa tangente au voisinage de a.

AIG
– si a 2 < 0 : c’est la situation inverse.
– si a 2 = 0 : on ne peut rien dire, il faut aller plus loin dans le développement limité. Dans la pratique on
s’arrête au premier terme non nul de degré supérieur ou égal à 2.
x ln(x)
ZExemple : Soit f (x) = x 2 −1
effectuons une étude locale en a = 1 : on pose u = x − 1 d’où f (x) = f (1 + u) =
,
ln(1+u) 2
1
le calcul donne f (x) = f (1 + u) = 12 − u12 + o u 2 . On en déduit que f se prolonge par
¡ ¢
u (1 + u) 2[1+u/2] ,
0
continuité en 1 en posant f (1) = 12 , ce prolongement est dérivable en 1 et f 0 (1) = 0, de plus, au voisinage de 1,
la courbe est en-dessous de la tangente. On a donc un maximum local en 1.

3) Étude locale au voisinage de l’infini


Si f est définie au voisinage de ∞ et admet une limite infinie, alors on peut étudier la branche infinie
f (x)
de f de la manière suivante : on pose g (x) = x , on se ramène en 0 en posant u = 1/x, ce qui donne
g (x) = g (1/u) = u f (1/u), et on cherche un dl2 (0) de cette expression : u f (1/u) = a 0 + a 1 u + a 2 u 2 + o u 2 ,
¡ ¢
0
NT
ce qui donne en revenant à x, f (x) = a 0 x + a 1 + a 2 x1 + o x1 , d’où lim f (x) − [a 0 x + a 1 ] = 0, donc la droite
¡ ¢
∞ x→∞
d’équation y = a 0 x + a 1 est asymptote à C f au voisinage de ∞. Pour la position courbe-asymptote, on étudie
la différence : f (x) − [a 0 x + a 1 ] = x1 [a 2 + o (1)], l’étude du signe se fait comme dans le paragraphe précédent si

a 2 6= 0. Lorsque a 2 = 0 il faut aller plus loin dans le développement pour avoir le signe.
q
x4
ZExemple : f (x) = 3 x−3 au voisinage de +∞.
On voit que f est définie au voisinage de +∞ et que f (x) ∼ x, il y a donc une branche infinie de direction
+∞
f (x)
asymptotique y = x. Posons u = 1/x, on a alors x = u f ( u1 ) = 1+u +2u 2 +o u 2 , d’où f (x) = x +1+ x2 + o x1 .
¡ ¢ ¡ ¢
0 +∞
Donc la droite d’équation y = x + 1 est asymptote à la courbe de f en +∞, et au voisinage de +∞ la courbe
de f est au-dessus.
MO

4) Recherche d’un équivalent

Théorème 14.7
Si f admet un dln (a), alors f (x) est équivalente en a au terme non nul de plus bas degré de la partie
régulière, s’il existe.

Preuve : Soit a p (x − a)p le premier terme non nul, on a alors f (x) = a p (x − a)p + o ((x − a)p ) = (x − a)p [1 + o (1)], ce qui
a a
prouve l’équivalence annoncée. 
Remarque 14.4 –
– En se ramenant en 0, on peut également trouver un équivalent d’une fonction en ±∞.
– Avec ce théorème, on retrouve tous les équivalents dits « classiques ».

MPSI3 (2015-16) LYCÉE M ONTAIGNE 132 ©Fradin Patrick – http://mpsi.tuxfamily.org


Applications Chapitre 14 : Développements limités

FExercice 14.2 Équivalent en 0 de la fonction f (x) = arcsin(x)


p
2
3x
− 3−2x 2.
1−x
2 4 3 5
Solution 14.2 On a p 1 2 = 1+ x2 + 3x8 +o x 5 , en intégrant on obtient arcsin(x) = x + x6 + 3x x 5 , en effectuant le
¡ ¢ ¡ ¢
40 +o

NE
1−x 0 0
3 5 2x 2 4x 4
produit, il vient que : arcsin(x) = x + 2x3 + 8x 3x 1
¡ 5¢ ¡ 4¢
15 + o x . D’un autre côté, on a 3−2x 2 = x 1−2x 2 /3 = x[1 + 3 + 9 + o x ]=
p
1−x 2 0 0
3 5 5 5
x + 2x3 + 4x9 + o x 5 . Finalement, on a f (x) = 4x x 5 , et donc f (x) ∼ 4x
¡ ¢ ¡ ¢
0 45 + o 0 0 45
.

AIG
NT
MO

MPSI3 (2015-16) LYCÉE M ONTAIGNE 133 ©Fradin Patrick – http://mpsi.tuxfamily.org


NE
Chapitre 15

Structures algébriques

AIG
Sommaire
I Lois de composition interne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
2) Élément neutre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
II Structure de groupe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
2) Sous-groupes d’un groupe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
III Anneaux et corps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
1) Anneaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
2) Corps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139

I LOIS DE COMPOSITION INTERNE


NT
1) Définitions

Définition 15.1 (loi de composition interne)


Soit E un ensemble non vide. On appelle loi de composition interne (ou lci) dans E toute application
de E × E vers E. L’image d’un couple (x, y) ∈ E2 par une telle application est en général noté sous la
forme d’une opération avec un symbole : x + y ou x × y ou x ∗ y ou x.y ou xTy, ... Et on écrira (E, ∗)
pour dire que l’ensemble E est muni d’une lci notée ∗.

ZExemples :
– L’addition et la multiplication des nombres sont des lci dans N, dans Z, dans Q, dans R, dans C mais
pas dans [−2; 2] par exemple.
MO

– L’addition et la multiplication des fonctions dans (F (A, C) sont des lci (A étant un ensemble non vide).
En particulier l’addition et la multiplication des suites sont des lci dans F (N, C).
– L’addition et la multiplication des polynômes sont des lci dans K[X]. Si n ∈ N, l’addition est une lci
dans Kn [X] mais pas la multiplication.
© ª
– Soit E un ensemble non vide, on note S E = f : E → E | f est bijective (ensemble des permutations de
E). La composition des applications (dite loi ◦) est une lci dans S E .
x+y
FExercice 15.1 Soit E =] − 1; 1[. Pour x, y ∈ E, on pose x ∗ y = 1+x y . Montrer que l’on définit ainsi une lci dans E.

Définition 15.2 (associativité, commutativité)


Soit (E, ∗) un ensemble muni d’une lci.
• On dit que la loi est associative lorsque : ∀x, y, z ∈ E, x ∗ (y ∗ z) = (x ∗ y) ∗ z.
• On dit que deux éléments x et y de E commutent lorsque x∗y = y ∗x. Si tous les éléments commutent
deux à deux, non dit que la lci est commutative.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 134 ©Fradin Patrick – http://mpsi.tuxfamily.org


Lois de composition interne Chapitre 15 : Structures algébriques

ZExemples :
– L’addition et la multiplication des nombres dans N, Z, Q, R, C, sont associatives et commutatives.
– L’addition et la multiplication des fonctions dans (F (A, C) (A étant un ensemble non vide) sont asso-

NE
ciatives et commutatives.
– L’addition et la multiplication des polynômes sont associatives et commutatives.
– Dans (S E , ◦), la loi est associative mais non commutative en général.
– Dans (R, ∗) avec x ∗ y = x − y pour tout x, y ∈ R, la loi est une lci non commutative (2 ∗ 3 = −1 mais
3 ∗ 2 = 1) et non associative ( (1 ∗ 2) ∗ 3 = (−1) ∗ 3 = −4 et 1 ∗ (2 ∗ 3) = 1 ∗ (−1) = 2).
x+y
FExercice 15.2 Soit E =] − 1; 1[. Pour x, y ∈ E, on pose x ∗ y = 1+x y . Montrer que l’opération ∗ est associative et commuta-
tive.

2) Élément neutre

Définition 15.3

AIG
Soit (E, ∗) un ensemble muni d’une lci et soit e ∈ E, on dit que e est un élément neutre pour la loi
∗ lorsque ∀x ∈ E, x ∗ e = e ∗ x = x. Dans le cas où l’opération est notée additivement, l’élément
neutre (s’il existe) est appelé noté en général 0E (zéro de E). Dans le cas où l’opération est notée
multiplicativement, l’élément neutre (s’il existe) est noté en général 1E (un de E).

ZExemples :
– L’élément neutre de l’addition des nombres est 0. Celui de la multiplication des nombres est 1.
– L’élément neutre de l’addition des fonctions dans (F (A, C) est la fonction constamment nulle. Celui de
la multiplication est la fonction constante x 7→ 1.
– L’élément neutre de l’addition des polynômes est le polynôme nul, celui de la multiplication est la
polynôme constant 1.
– Dans (S E , ◦), idE est élément neutre.
– Dans (R, ∗) avec x ∗ y = x − y il y a un élément neutre à droite qui est 0 car ∀x ∈ R, x − 0 = x, mais il n’y
NT
a pas d’élément neutre à gauche.
x+y
FExercice 15.3 Soit E =] − 1; 1[. Pour x, y ∈ E, on pose x ∗ y = 1+x y . Montrer qu’il y a un élément neutre pour cette
opération.
Remarque 15.1 – Si (E, ∗) possède un élément neutre, alors celui-ci est unique. En effet, si on a deux éléments
neutre e et e 0 , alors e ∗ e 0 = e car e 0 est neutre, et e ∗ e 0 = e 0 car e est neutre, d’où e = e 0 .

Définition 15.4
Soit (E, ∗) un ensemble muni d’une lci possédant un élément neutre e. On dit que x ∈ E est symétri-
sable lorsqu’il existe x 0 ∈ E tel que x ∗ x 0 = x 0 ∗ x = e. Si c’est le cas, on dit que x 0 est un symétrique
de x. Dans le cas où l’opération est notée additivement, le symétrique de x est appelé opposé de x
et noté −x. Dans le cas où l’opération est notée multiplicativement, le symétrique de x est appelé
MO

inverse de x et noté x −1 .

ZExemples :
– Dans (C, +), (R, +), (Q, +) et (Z, +), chaque élément possède un opposé, mais pas dans (N, +).
– Dans (C∗ , ×), (R∗ , ×), (Q∗ , ×), chaque élément possède un inverse, mais pas dans (Z∗ , ×).
– Dans (F (A, C), +) chaque fonction possède un opposé.
– Dans (F (A, C), ×), seules les fonctions qui ne s’annulent jamais ont un inverse.
– Dans (K[X], +) chaque polynôme possède un opposé.
– Dans (K, ×), seuls les polynômes constants non nuls ont un inverse.
– Dans (S E , ◦), chaque permutation f de E a un symétrique qui est la bijection réciproque f −1 .

MPSI3 (2015-16) LYCÉE M ONTAIGNE 135 ©Fradin Patrick – http://mpsi.tuxfamily.org


Structure de groupe Chapitre 15 : Structures algébriques

Théorème 15.1
Soit (E, ∗) un ensemble muni d’une lci associative et possédant un élément neutre e. Si un élément x

NE
possède un symétrique x 0 dans E, alors celui-ci est unique.

Preuve : Si x 0 et x 00 sont deux symétriques de x, alors x 0 = x 0 ∗ e = x 0 ∗ (x ∗ x 00 ) = (x 0 ∗ x) ∗ x 00 = e ∗ x 00 = x 00 . 


x+y
FExercice 15.4 Soit E =] − 1; 1[. Pour x, y ∈ E, on pose x ∗ y = 1+x y . Montrer que chaque élément a un symétrique dans E.

II STRUCTURE DE GROUPE

1) Définitions

Définition 15.5
Un groupe est un ensemble non vide G muni d’une opération ∗ (ou loi de composition) qui vérifie les

AIG
propriétés suivantes :
– elle doit être interne : ∀ x, y ∈ G, x ∗ y ∈ G.
– elle doit être associative : ∀ x, y, z ∈ G, x ∗ (y ∗ z) = (x ∗ y) ∗ z.
– elle doit posséder un élément neutre : ∃ e ∈ G, ∀ x ∈ G, e ∗ x = x ∗ e = x. Si la loi est une addition
l’élément neutre sera noté 0G et on parlera de groupe additif. Si la loi est une multiplication,
l’élément neutre sera noté 1G et on parlera de groupe multiplicatif. Dans le cas général l’élément
neutre est souvent noté e G .
– tout élément de G doit avoir un symétrique dans G : ∀ x ∈ G, ∃ x 0 ∈ G, x ∗ x 0 = x 0 ∗ x = e G . En notation
additive, le symétrique de x est appelé opposé de x et noté −x, en notation multiplicative on
l’appelle inverse de x et on le note x −1 .
Lorsque toutes ces conditions sont remplies, on dit (G, ∗) est un groupe. Si en plus la loi ∗ est commu-
tative (∀ x, y ∈ G, x ∗ y = y ∗ x), alors on dit que (G, ∗) est un groupe abélien (ou groupe commutatif).
NT
ZExemples :
– (Z, +), (Q, +), (R, +), (C, +), (Q∗ , ×), (R∗ , ×), (C∗ , ×) sont des groupes abéliens.
– (N, +) et (Z∗ , ×) ne sont pas des groupes.
– (F (I, C), +) est un groupe abélien pour l’addition des fonctions (ou des suites si I = N).
– (K[X], +) est un groupe abélien.
– Si E est un ensemble non vide, (S E , ◦) est un groupe (non abélien en général), on appelle groupe des
permutations de E.

À retenir : Règles de calculs


Soit (G, ∗) un groupe :
– Soient x, y ∈ G, le symétrique de x ∗ y est : (x ∗ y)0 = y 0 ∗ x 0 .
MO

– Soient a, b ∈ G, l’équation a ∗ x = b admet comme unique solution dans G, x = a 0 ∗ b.


– Soient a, b, c ∈ G, si a ∗ b = a ∗ c alors b = c (régularité à gauche).
– Soient a, b, c ∈ G, si b ∗ a = c ∗ a alors b = c (régularité à droite).

FExercice 15.5 Soit n > 2, dans Kn (K = R ou C) on définit l’addition :


(x 1 , . . . , x n ) + (y 1 , . . . , y n ) = (x 1 + y 1 , . . . , x n + y n ).
Montrer que (Kn , +) est un groupe abélien.

2) Sous-groupes d’un groupe

Définition 15.6
Soit (G, .) un groupe et H un ensemble, on dit que H est un sous-groupe de (G, .) lorsque :
H ⊂ G; H 6= ; et ∀ x, y ∈ H, x.y ∈ H, x −1 ∈ H.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 136 ©Fradin Patrick – http://mpsi.tuxfamily.org


Anneaux et corps Chapitre 15 : Structures algébriques

ZExemples :
– {e} et G sont des sous-groupes de (G, .), ils sont appelés sous-groupes triviaux de (G, .).
– Si (H, .) est un groupe inclus dans un groupe (G, .) pour la même loi, alors H est un sous-groupe de G,

NE
car on vérifie facilement que l’élément neutre de G est forcément égal à l’élément neutre de H, ce qui
entraîne pour x ∈ H, que son symétrique dans G et son symétrique dans H sont les mêmes.
– (U, ×) et (Un , ×) sont des sous-groupes de (C∗ , ×).
– L’ensemble des fonctions définies sur R et 2π-périodiques est un groupe additif, car c’est un sous-
groupe de (F (R, R), +).
– L’ensemble des entiers pairs est un groupe additif, car c’est un sous-groupe de (Z, +).
– Z[i ] = {a + i b | a, b ∈ Z} est un sous-groupe de (C, +).
Remarque 15.2 – Si H est un sous-groupe de (G, .) alors (H, .) lui-même est un groupe (de même élément neutre
que G). Ceci est souvent utilisé dans la pratique pour montrer qu’un ensemble est un groupe pour une loi, on
essaie de montrer (quand c’est possible) que c’est un sous-groupe d’un groupe connu pour cette même loi.

AIG
Théorème 15.2 (sous-groupes de (Z, +))
H est un sous-groupe de (Z, +) si et seulement si il existe un entier n tel que H = n Z (ensemble des
multiples entiers de n). L’entier n est unique au signe près et si H 6= {0}, alors n = min H∗+ .

Preuve : Il est facile de vérifier que pour n ∈ Z, nZ est un sous-groupe de Z. Si H = {0}, alors on peut prendre n = 0 et
c’est le seul entier qui convienne. Si H 6= {0}, posons, n = min H∗+ (n existe dans N, c’est la propriété fondamentale de
N), on a n ∈ H, comme H est un sous-groupe de (Z, +), tout multiple de n est dans H, i.e. nZ ⊂ H. Soit k ∈ H effectuons
la division euclidienne de k par n (n 6= 0) : k = nq + r avec 0 6 r < n. On a donc r = k − nq ∈ H+ , si r 6= 0 alors r > n
ce qui est absurde, donc r = 0 ce qui donne k = nq ∈ nZ, finalement H = nZ. Si on a aussi H = mZ avec m ∈ N, alors
nZ = mZ, donc n et m se divisent mutuellement dans N, donc n = m. 

Théorème 15.3 (sous-groupes de (R, +))


Soit G un sous-groupe de (R, +) non réduit à {0}, alors soit G est dense dans R, soit G est de la forme
NT
G = αZ avec α > 0.

Preuve : G∗+ est non vide, soit α = inf G∗+ .


– Si α > 0 : supposons α ∉ G, alors on peut trouver deux éléments de G, g 1 et g 2 tels que α < g 1 < g 2 < 2α, mais ¥g ¦
alors 0 < g 2 − g 1 < α avec g 2 − g 1 ∈ G∗+ : absurde., donc α ∈ G. On en déduit alors que αZ ⊂ G. Soit g ∈ G et n = α ,
alors nα 6 g < ((n + 1)α et donc 0 6 g − nα < α, on en déduit que g − nα est nul car c’est un élément positif de G,
d’où G = αZ. j k
– Si α = 0 : soit x ∈ R et ε > 0, il existe g ∈ G tel que 0 < g < ε, soit n = gx alors ng 6 x < ng + g < ng + ε, donc
|x − ng | < ε avec ng ∈ G, donc G est dense dans R.

a
FExercice 15.6 Soient a, b ∈ R∗ , montrer que G = aZ + bZ est un sous-groupe de (R, +) dense dans R si et seulement si b
est irrationnel. En déduire que {cos(n) | n ∈ N} est dense dans [−1; 1].
MO

Théorème 15.4 (propriétés des sous-groupes)


Une intersection de sous-groupes de (G, .), est un sous-groupe de (G, .), mais ceci n’est pas vrai pour
la réunion.

Preuve : Celle-ci est laissée en exercice. Donnons cependant un contre-exemple pour la réunion : 2Z ∪ 3Z n’est pas
un sous-groupe de (Z, +), car 2 et 3 sont dans la réunion, mais pas 2 + 3 = 5, cet ensemble n’est donc pas stable pour
l’addition (les autres conditions sont néanmoins remplies). 

III ANNEAUX ET CORPS

1) Anneaux

MPSI3 (2015-16) LYCÉE M ONTAIGNE 137 ©Fradin Patrick – http://mpsi.tuxfamily.org


Anneaux et corps Chapitre 15 : Structures algébriques

Définition 15.7
Un anneau est un ensemble A muni de deux lois de composition internes : une addition et une

NE
multiplication, qui vérifient :
– (A, +) est un groupe abélien.
– La multiplication :
• est associative,
• admet un élément neutre (noté 1).
• est distributive sur l’addition.
Si de plus la multiplication est commutative, on dit que (A, +, ×) est un anneau commutatif.

ZExemples :
– (Z, +, ×) est un anneau commutatif mais ce n’est pas un corps.
– (F (N, C), +, ×) est un anneau commutatif.

AIG
– Si E est un ensemble non vide, l’ensemble des fonctions de E dans C muni des opérations usuelles sur
les fonctions, est un anneau commutatif, i.e. (F (E, C), +, ×) est un anneau commutatif.
– Plus généralement, si (A, +, ×) est un anneau et E est un ensemble non vide, alors (F (E, A), +, ×) est un
anneau.

À retenir : Règles de calculs dans un anneau


Soit (A, +, ×) un anneau :
– ∀ x ∈ A, x × 0 = 0 × x = 0.
– ∀ x, y ∈ A, −(x × y) = (−x) × y = x × (−y).
– ∀ x, y ∈ A, si x et y sont inversibles (pour la multiplication), alors x × y est inversible est (x × y)−1 =
y −1 × x −1 .
– Si x ∈ A et p ∈ Z alors on note p.x = 0 si p = 0, p.x = x +· · ·+x, p fois si p > 0, et p.x = (−x)+· · ·+(−x),
−p fois si p < 0. On note également x p = 1A si p = 0, x p = x × · · · × x, p fois si p > 0, et x p =
x −1 × · · · × x −1 , −p fois si p < 0 et x inversible.
NT
– ∀ x, y ∈ A, si x et y commutent (x × y = y × x), alors on peut utiliser la formule du binôme, c’est à
dire : ∀ n ∈ N, (x + y)n = nk=0 nk .x k × y n−k = nk=0 nk .x n−k × y k .
P ¡ ¢ P ¡ ¢

– Si x, y ∈ A avec x × y = y × x alors ∀n ∈ N∗ : x n − y n = (x − y) n−1 a k b n−1−k .


P
k=0

Pn Pn
FExercice 15.7 Si x ∈ A, simplifier (1 − x) k=0
x k et (1 + x) k=0
(−1)k x k .

Théorème 15.5 (groupe des inversibles)


Soit (A, +, ×) un anneau, l’ensemble des inversibles de A est noté U(A), cet ensemble est un groupe
multiplicatif. (U(A), ×) est appelé groupe des unités de A.
MO

Preuve : Celle-ci est simple et laissée en exercice. 


ZExemples :
– U(Z) = {±1}.
– Si A est l’anneau des suites complexes, alors U(A) est l’ensemble des suites complexes qui ne s’annulent
pas.

Définition 15.8 (anneau intègre)


Soit (A, +, ×) un anneau. On dit que A est un anneau intègre lorsque le produit de deux éléments non
nuls est toujours non nul, sinon on dit que A est un anneau non intègre.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 138 ©Fradin Patrick – http://mpsi.tuxfamily.org


Anneaux et corps Chapitre 15 : Structures algébriques

Remarque 15.3 –
– Dans un anneau intègre, un produit de facteurs est nul si et seulement si au moins un des facteurs est
nul.

NE
– (Z, +, ×) est un anneau intègre.
– L’ensemble des suites complexes est un anneau non intègre.

Définition 15.9 (sous-anneaux d’un anneau)


Soit (A, +, ×) un anneau, et soit H un ensemble, on dit que H est un sous-anneau de A lorsque :
– H ⊂ A.
– 1A ∈ H.
– ∀ x, y ∈ H, x + y ∈ H, x × y ∈ H et −x ∈ H.
Si c’est le cas, alors (H, +, ×) est lui-même un anneau.

ZExemple : Z[i ] est un sous-anneau de (C, +, ×).

AIG
Théorème 15.6
Une intersection de sous-anneaux de (A, +, ×) est un sous-anneau de A.

Preuve : Celle-ci est simple et laissée en exercice.

2) Corps

Définition 15.10
Un corps est un ensemble E muni de deux opérations (ou deux lois de composition), une addition et


une multiplication. Ces deux opérations doivent vérifier les propriétés suivantes :
– (E, +, ×) est un anneau.
NT
– U(E) = E \ {0}, i.e. : ∀ x ∈ E \ {0}, x a un inverse dans E. Si de plus la multiplication est commutative,
on dit que (E, +, ×) est un corps commutatif.

ZExemples :
– (R, +, ×), (Q, +, ×), (C, +, ×) sont des corps commutatifs, mais (Z, +, ×) n’est pas un corps.
– Il existe des corps non commutatifs (corps des quaternions).
Remarque 15.4 –
– Un corps est toujours intègre.
– Les règles de calculs sont les mêmes que dans un anneau.
MO

Définition 15.11 (sous-corps d’un corps)


Soit (K, +, ×) un corps et soit H un ensemble, on dit que H est un sous-corps de K lorsque :
– H ⊂ K.
– 1K ∈ H.
– ∀ x, y ∈ H, x + y ∈ H, −x ∈ H et x × y ∈ H.
– ∀ x ∈ H \ {0}, x −1 ∈ H.
Si c’est le cas alors (H, +, ×) est lui-même un corps.

ZExemples :
– Q est un sous-corps de R qui est lui-même un sous-corps de C.
– Q[ip] = {a + i b /pa, b ∈ Q} est un sous-corps de (C, +, ×).
– Q[ 2] = {a + b 2 / a, b ∈ Q} est un sous-corps de R.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 139 ©Fradin Patrick – http://mpsi.tuxfamily.org


NE
Chapitre 16

Polynômes

AIG
Sommaire
I Ensemble des polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
2) Opérations sur les polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
II Division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
1) Degré d’un polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
2) Algorithme de la division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
3) Divisibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
III Fonctions polynomiales, racines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
1) Substitution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
2) Fonctions polynomiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
3) Racines d’un polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
4) Corps algébriquement clos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
5) Relations racines coefficients . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
NT
IV Formule de Taylor des polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
1) Dérivation des polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
2) Formule de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148

Dans tout ce chapitre, K désigne un corps inclus dans C.

I ENSEMBLE DES POLYNÔMES

1) Définition

Définition 16.1
MO

On appelle polynôme à coefficients dans K toute somme de la forme : P = a 0 + a 1 X + · · · + c n X n , où


n ∈ N, a 0 , . . . , a n ∈ K, et où X est un symbole appelé indéterminée. Les a i sont appelés coefficients du
polynôme. Si tous les coefficients sont nuls, on dit que P est le polynôme nul. Si tous les coefficients
sont nuls sauf un, le polynôme est appelé monôme. Si tous les coefficients sont nuls à partir de l’indice
1, on dit que le polynôme est constant. L’ensemble des polynômes à coefficients dans K est noté K[X].

a k X k avec la convention que les


P
Remarque 16.1 – Il est commode de noter les polynômes sous la forme
k∈N
coefficients sont tous nuls à partir d’un certain rang. Ainsi on peut dire que les coefficients d’un polynôme
forment une suite (a k ) d’éléments de K, nulle à partir d’un certain rang.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 140 ©Fradin Patrick – http://mpsi.tuxfamily.org


Division euclidienne Chapitre 16 : Polynômes

Définition 16.2 (égalité de deux polynômes)


ak Xk = b k X k ⇐⇒ ∀k ∈ N, a k = b k (mêmes coefficients).
P P
On pose :

NE
k∈N k∈N

2) Opérations sur les polynômes


a k X k et Q = b k X k deux polynômes. Il existe deux entiers N et N0 tels que : n > N =⇒ a n =
P P
Soient P =
k∈N k∈N
0, et n > N0 =⇒ b n = 0, par conséquent si n > max(N, N0 ), alors a n + b n = 0. Si λ ∈ K, alors n > N =⇒ λa n = 0.

Définition 16.3 (Somme et produit par un scalaire)


(a k +b k )X k , et pour λ ∈ K, on pose λ.P = λa k X k . On définit ainsi une addition
P P
On pose : P +Q =
k∈N k∈N
interne dans K[X] et un produit par les scalaires.

AIG
Propriétés : (K[X], +, .) est un K-espace vectoriel.
n
Avec les notations précédentes, pour n ∈ N, on pose c n = a k b n−k , si n > N + N0 − 1, alors il est facile de
P
k=0
voir que pour toute valeur de k dans J0; n K, le produit a k b n−k est nul, et donc c n est nul.

Définition 16.4 (Produit de deux polynômes)


n
c n X n où la suite (c n ) est définie par : c n =
P P
On pose P × Q = a k b n−k . On définit ainsi une
n∈N k=0
multiplication interne dans K[X].

n
P P
Remarque 16.2 – On a aussi c n = a n−k b k = ap bq .
k=0 p+q=n
NT
Propriétés : on vérifie que cette multiplication :
– est commutative,
– est associative,
– possède un élément neutre qui est le polynôme constant 1.
– est distributive sur l’addition.

Par conséquent : (K[X], +, ×)est un anneau.


On a également : ∀P, Q ∈ K[X], ∀λ ∈ K, λ.(P × Q) = (λ.P) × Q = P × (λ.Q).

À retenir
an Xn = b n X n ⇐⇒ ∀ n ∈ N, a n = b n .
P P
µn∈N ¶ n∈N
MO

µ ¶
n n
(a n + b n )X n .
P P P
an X + bn X =
µ n∈N ¶ µ n∈N ¶ n∈N
µ ¶
an Xn × bn Xn = a p b q Xn .
P P P P
n∈N n∈N n∈N p+q=n
a n X n ∈ K ⇐⇒ ∀ n > 1, a n = 0.
P
n∈N

II DIVISION EUCLIDIENNE

1) Degré d’un polynôme


Soit P ∈ K[X], si P = 0 alors tous les coefficients de P sont nuls, si P 6= 0, alors l’ensemble des indices des
coefficients non nuls de P n’est pas vide, et il est majoré (les coefficients sont nuls à partir d’un certain rang),
donc cet ensemble admet un plus grand élément.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 141 ©Fradin Patrick – http://mpsi.tuxfamily.org


Division euclidienne Chapitre 16 : Polynômes

Définition 16.5
Soit P ∈ K[X], si P = 0 alors on pose deg(P) = −∞, sinon on pose deg(P) = max{k ∈ N / a k 6= 0}. Si P est

NE
non nul de degré n, alors le coefficient a n est appelé coefficient dominant de P, si ce coefficient vaut
1, alors on dit que le polynôme P est unitaire (ou normalisé).

Remarque 16.3 – Caractérisations du polynôme nul et des polynômes constants non nuls
– P = 0 ⇐⇒ deg(P) = −∞.
– P ∈ K∗ ⇐⇒ deg(P) = 0.

Théorème 16.1
Soient P, Q ∈ K[X], deg(P + Q) 6 max(deg(P), deg(Q)), et deg(P × Q) = deg(P) + deg(Q).

AIG
Preuve : Si l’un des deux polynômes est nul, alors le théorème est évident. Supposons les deux polynômes non nuls : P =
a n X n et Q = b n X n , si a n +b n 6= 0 alors a n 6= 0 ou b n 6= 0, donc n 6 deg(P) ou n 6 deg(Q) i.e. n 6 max(deg(P), deg(Q)),
P P
n n
ce qui prouve le premier résultat.
P × Q = c n X n où c n = a p b q . Posons N = deg(P) et N0 = deg(Q), il est clair que c N+N0 = a N b N0 6= 0, d’autre
P P
n p+q=n
part si n > N + N0 , alors si p + q = n on a p > N ou q > N0 donc a p b q = 0 ce qui entraîne c n = 0. Par conséquent,
deg(P × Q) = N + N0 = deg(P) + deg(Q). 
Remarque 16.4 – Lorsque P et Q ont des degrés distincts, ou bien lorsque P et Q ont même degré mais des
coefficients dominants non opposés, alors deg(P + Q) = max(deg(P), deg(Q)).

Théorème 16.2
L’anneau (K[X], +, ×) est un anneau intègre, et seuls les polynômes constants non nuls ont un inverse
dans K[X].
NT
Preuve : Si P et Q sont deux polynômes non nuls, alors deg(P × Q) = deg(P) + deg(Q) ∈ N, donc P × Q 6= 0, ce qui prouve
que K[X] est intègre.
Si P est inversible dans K[X], alors il existe un polynôme Q tel que P × Q = 1, d’où deg(P) + deg(Q) = 0, ce qui
entraîne deg(P) = deg(Q) = 0 et donc P ∈ K∗ . La réciproque est évidente. 
Notation : Soit n ∈ N, on note Kn [X] l’ensemble des polynômes de degré inférieur ou égal à n :

Kn [X] = {P ∈ K[X] / deg(P) 6 n}

2) Algorithme de la division euclidienne

Théorème 16.3 (de la division euclidienne)


Soient A et B deux polynômes avec B 6= 0, alors il existe deux polynômes Q et R uniques tels que :
MO

A = B × Q + R avec deg(R) < deg(B)

Preuve : Pour l’existence : si deg(A) < deg(B), alors on peut prendre Q = 0 et R = A ; si deg(A) = deg(B) = d : soit a d
a
le coefficient dominant de A, et b d celui de B, posons Q = b d , alors le coefficient dominant de B × Q est a d , donc
d
deg(A − B × Q) < d = deg(B), on peut donc prendre R = A − B × Q. Supposons maintenant l’existence démontrée
a
pour deg(A) 6 n avec n > d , et soit A de degré n + 1, notons a n+1 son coefficient dominant, soit Q0 = bn+1 X n+1−d ,
d
alors deg(B × Q0 ) = n + 1 et le coefficient dominant de B × Q0 est a n+1 , donc deg(A − B × Q0 ) 6 n, d’après l’hypothèse
de récurrence, il existe deux polynômes Q00 et R tels que A − B × Q0 = B × Q" + R avec deg(R) < deg(B), mais alors
A = B × (Q0 + Q00 ) + R, ce qui prouve l’existence au rang n + 1.
Pour l’unicité : supposons que A = B×Q+R = B×Q0 +R0 avec deg(R) < deg(B) et deg(R0 ) < deg(B), alors B×(Q−Q0 ) =
R − R, d’où deg(B) + deg(Q − Q0 ) = deg(R0 − R) < deg(B), comme deg(B) > 0, on a nécessairement deg(Q − Q0 ) = −∞ =
0

deg(R0 − R), et donc Q = Q0 , R = R0 . 

MPSI3 (2015-16) LYCÉE M ONTAIGNE 142 ©Fradin Patrick – http://mpsi.tuxfamily.org


Fonctions polynomiales, racines Chapitre 16 : Polynômes

Remarque 16.5 – La démonstration est constructive, en ce sens qu’elle donne un algorithme de calcul du
quotient (Q) et du reste (R).

NE
ZExemple : Avec A = X4 + aX2 + bX + c et B = X2 + X + 1, on obtient le quotient Q = X2 − X + a et le reste
R = (b − a + 1)X + c − a. On peut vérifier que A = B × (X 2 − X + a) + (b − a + 1)X + c − a.

3) Divisibilité

Définition 16.6
Soient A, B ∈ K[X], on dit que B divise A lorsqu’il existe un polynôme Q tel que A = Q × B, notation B|A.

Remarque 16.6 – On définit ainsi une relation dans K[X], on peut vérifier que celle - ci est réflexive, transitive,
mais elle n’est ni symétrique, ni antisymétrique. Plus précisément, B|A et A|B ssi il existe λ ∈ K∗ tel que A = λB

AIG
(on dit que A et B sont associés).

Théorème 16.4
– Si B 6= 0, alors B|A si et seulement si le reste de la division euclidienne de A par B est nul.
– Si A 6= 0 et B|A, alors deg(B) 6 deg(A).
– Si B|A et B|C, alors ∀ U, V ∈ K[X], B|A × U + C × V.

Preuve : Celle-ci est simple et laissée en exercice. 


Remarque 16.7 – Il découle du dernier point que si B|A − C et B|D − E, alors B|(A + D) − (C + E) et B|AD − EC,
en particulier, si B|A − C alors ∀ n ∈ N, B|An − Cn .

III FONCTIONS POLYNOMIALES, RACINES


NT
1) Substitution

Théorème 16.5
Soit A une K-algèbre et soit a ∈ A , l’application : S a : K[X] → A , est un morphisme
n n
αk X k αk a k
P P
7 →
k=0 k=0
de K-algèbres, c’est à dire : ∀ P, Q ∈ K[X], ∀ λ ∈ K
– S a (P + Q) = S a (P) + S a (Q).
– S a (P × Q) = S a (P) × S a (Q).
– S a (λP) = λS a (P).
– S a (1) = 1.
MO

Preuve : Celle - ci repose sur les règles de calculs dans une algèbre. 
Remarque 16.8 – L’application S a est appelée substitution par a. Concrètement, le théorème ci - dessus dit que
la substitution par a consiste simplement à remplacer l’indéterminée X par a. Par exemple, si on a P = Q×B+R,
alors S a (P) = S a (Q) × S a (B) + S a (R).

2) Fonctions polynomiales

Définition 16.7
L’application : P e: K → K , est appelée fonction polynomiale associée au polynôme P. Si
x 7→ S x (P)
n n
a k X k , alors P a k x k où x est une variable qui décrit K.
P P
P= e : x 7→
k=0 k=0

MPSI3 (2015-16) LYCÉE M ONTAIGNE 143 ©Fradin Patrick – http://mpsi.tuxfamily.org


Fonctions polynomiales, racines Chapitre 16 : Polynômes

Remarque 16.9 – On prendra garde à ne pas confondre la variable x, qui est un élément de K, avec l’indéter-
minée X (qui n’appartient pas à K).

NE
Remarque 16.10 – On a P
„ +Q = P
e + Q,
e P„×Q = P e λ.P
e × Q, g = λ.P.
e

3) Racines d’un polynôme

Définition 16.8
n
a k X k ∈ K[X], on appelle racine de P dans K tout élément a ∈ K tel que P(a)
P
Soit P = e = 0, c’est à dire
k=0
n
toute solution dans K à l’équation a k x k = 0.
P
k=0

AIG
Théorème 16.6
Soit P ∈ K[X] :
– Soit a ∈ K, a est racine de P ssi X − a|P.
– Si deg(P) 6 n et si P admet au moins (n + 1) racines dans K, alors P = 0.

Preuve : Soit a ∈ K, on effectue la division euclidienne de P par X − a : P = Q × (X − a) + R avec deg(R) < 1, donc R est
un polynôme constant R = λ, finalement P = Q × (X − a) + λ. Substituons a à X : P(a)e = Q(a)
e × (a − a) + λ, c’est à dire :
λ = P(a), ce qui prouve la première assertion.
e
La deuxième assertion se démontre par récurrence sur n : pour n = 0, l’hypothèse dit que P est une constante et
que P a au moins une racine, donc cette constante est nulle, i.e. P = 0. Supposons le résultat démontré au rang n, et soit
deg(P) 6 n + 1 avec P ayant au moins n + 2 racines, soit a l’une d’elles, alors il existe Q ∈ K[X], tel que P = Q × (X − a),
mais alors deg(Q) 6 n et Q a au moins n + 1 racines dans K, donc Q = 0 (HR) et par conséquent, P = 0. 
Conséquences :
a) Si a 1 , . . . , a n sont des racines distinctes de P alors (X − a 1 ) · · · (X − a n )|P.
NT
b) Si P est non nul de degré n, alors P admet au plus n racines distinctes.
c) L’application φ : K[X] → F (K, K) définie par φ(P) = P
e est injective. On pourrait donc identifier P et P
e la
fonction polynomiale associée à P.
FExercice 16.1 Soit P un polynôme de degré 2, on pose :
e + X(X−1) P(−1)
Q = (1 − X 2 )P(0) e + X(X+1) P(1)
e
2 2
Montrer que P = Q.
Remarque 16.11 – Pour montrer qu’un polynôme P est nul on dispose de trois méthodes :
– Montrer que tous les coefficients de P sont nuls.
– Montrer que le degré de P est −∞.
– Montrer que P a une infinité de racines.
Soit P un polynôme non nul et soit a ∈ K, on sait que que si (X − a)k |P alors k 6 deg(P) (car P 6= 0). Par
conséquent l’ensemble {k ∈ N / (X − a)k |P} est un ensemble non vide (contient 0) et majoré par deg(P),
MO

comme c’est une partie de N, cet ensemble admet un plus grand élément.

Définition 16.9 (multiplicité d’une racine)


Soit P ∈ K[X] un polynôme non nul et soit a ∈ K, on appelle multiplicité de a dans P le plus grand des
entiers k tels que (X − a)k |P. Notation : m P (a). Une racine de multiplicité 1 est appelée racine simple,
une racine de multiplicité 2 est appelée racine double...etc

Remarque 16.12 –
– a est racine de P équivaut à m P (a) > 1.
– Il est facile de vérifier que si q ∈ {k ∈ N / (X − a)k |P}, alors tout entier inférieur ou égal à q est également
dans l’ensemble, cela signifie que l’ensemble {k ∈ N / (X − a)k |P} est un intervalle d’entiers, on peut donc
énoncer : m = m P (a) ⇐⇒ (X − a)m divise P et (X − a)m+1 ne divise pas P.
FExercice 16.2 Calculer la multiplicité de 1 dans les polynômes P = X3 − 3X 2 + 2 et Q = X3 − 4X 2 + 5X − 2.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 144 ©Fradin Patrick – http://mpsi.tuxfamily.org


Fonctions polynomiales, racines Chapitre 16 : Polynômes

Théorème 16.7
Soit P un polynôme non nul, soit a ∈ K, et soit m ∈ N, on a alors :

NE
m = m P (a) ⇐⇒ ∃ Q ∈ K[X], P = (X − a)m × Q et Q(a)
e 6= 0.

Preuve : Si on a P = (X − a)m × Q et Q(a)


e 6= 0, alors m P (a) > m, mais si (X − a)m+1 |P, il est facile de voir que X − a|Q ce
qui est absurde, donc m P (a) = m.
Réciproquement, si m = m P (a), alors il existe Q tel que P = (X−a)m ×Q, si Q(a)
e = 0 alors X−a|Q et donc (X−a)m+1 |P
ce qui contradictoire, donc Q(a)
e 6= 0. 

Théorème 16.8
Soient P, Q ∈ K[X], non nuls, et a ∈ K
a) m P×Q (a) = m P (a) + m Q (a).
b) si P + Q 6= 0, alors m P+Q (a) > min(m P (a); m Q (a)).

AIG
Preuve : Celle-ci est simple et laissée en exercice. 

4) Corps algébriquement clos


Soit P un polynôme non nul ayant des racines dans K, soient a 1 , . . . , a n toutes les racines distinctes de P de
multiplicités respectives : m 1 , . . . , m n . D’après ce qui précède il existe un polynôme Q tel que P = (X−a 1 )m1 ×Q
e 1 ) 6= 0, comme a 2 6= a 1 on peut affirmer que a 2 est racine de Q : Q = (X − a 2 )m ×T avec T(a
avec Q(a e 2 ) 6= 0, mais
alors P = (X−a 2 ) ×(X−a 1 ) ×T, on en déduit que m = m 2 , par conséquent on a P = (X−a 1 ) (X−a 2 )m2 ×T
m m1 m1

avec a 1 et a 2 qui ne sont pas racines de T. De proche en proche (récurrence sur n) on a arrive à : il existe un
polynôme S tel que P = (X − a 1 )m1 · · · (X − a n )mn × S, avec a 1 , . . . , a n qui ne sont pas racines de S, mais comme
P n’a pas d’autres racines on peut en déduire que S est sans racine dans K.

Théorème 16.9 (factorisation d’un polynôme connaissant toutes ses racines)


NT
Si a 1 , . . . , a n sont les racines distinctes de P de multiplicités respectives m 1 , . . . , m n , alors il existe un
n
polynôme Q sans racine dans K tel que P = Q × (X − a k )mk .
Q
k=1

Définition 16.10 (polynôme scindé)


Si a 1 , . . . , a n sont les racines distinctes de P de multiplicités respectives m 1 , . . . , m n , alors d’après le
Pn n
P
théorème précédent : m k 6 deg(P). La quantité m k (somme des multiplicités des racines) est
k=1 k=1
appelée nombre de racines de P comptées avec leur multiplicité. On dira que le polynôme P est
scindé sur K lorsque cette quantité est égale au degré de P, on dit aussi que P admet toutes ses racines
dans K (toutes : signifie que le nombre de racines comptées avec leur multiplicité, est égal au degré)
MO

n
(X − a k )mk , on voit que lorsque P est scindé, alors
Q
En reprenant la factorisation précédente : P = Q ×
k=1
deg(Q) = 0, le polynôme Q est donc une constante non nulle, en comparant les coefficients dominants de
chaque coté, on voit que Q est égal au coefficient dominant de P, d’où l’énoncé :

Théorème 16.10
Si P est scindé et si a 1 , . . . , a n sont les racines distinctes de P de multiplicités respectives m 1 , . . . , m n ,
n
alors P = λ (X − a k )mk , où λ est le coefficient dominant de P.
Q
k=1

ZExemples :
– X 2 − 2 est scindé sur R, mais pas sur Q.
– X 2 + 1 est scindé sur C, mais pas sur R.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 145 ©Fradin Patrick – http://mpsi.tuxfamily.org


Fonctions polynomiales, racines Chapitre 16 : Polynômes

Définition 16.11
On dit que le corps K est algébriquement clos lorsque tout polynôme non constant de K[X] admet au

NE
moins une racine dans K.

Remarque 16.13 – D’après les exemples précédents, les corps Q et R ne sont pas algébriquement clos.

Théorème 16.11
Si K est un corps algébriquement clos, alors tout polynôme non constant de K[X] est scindé sur K.

Preuve : On montre par récurrence sur n que si deg(P) = n alors P admet n racines dans K. Pour n = 1, P = aX + b =
a(X + b/a), une racine −b/a. Supposons le résultat démontré au rang n, et soit P de degré n + 1 : P est non constant,
donc P admet au moins une racine a, d’où P = (X − a) × Q, mais deg(Q) = n, il suffit alors d’appliquer l’hypothèse de
récurrence à Q pour terminer. 

AIG
Théorème 16.12 (de D’Alembert 1 )
C est un corps algébriquement clos.

ZExemples :
– Factoriser X 2n − 1 dans C[X] puis dans R[X].

2n−1 π
X 2n − 1 =
Y
(X − exp(i k ))
k=0 n
n−1
Y π π
= (X − 1)(X + 1) (X − exp(i k ))(X − exp(−i k ))
k=1 n n
n−1 π
(X 2 − 2 cos(k )X + 1).
Y
= (X − 1)(X + 1)
NT
k=1 n

– Factoriser dans R[X] : X 4 + X 2 + 1 et X 4 + X 2 − 1.

X 4 + X 2 + 1 = (X 2 + 1)2 − X 2 = (X 2 − X + 1)(X 2 + X + 1)
p p
4 2 2 1 2 5 2 1+ 5 2 5−1
X + X − 1 = (X + ) − = (X + )(X − )
2 4 2 2
p s p s p
2 1+ 5 5−1 5−1
= (X + )(X − )(X + )
2 2 2

FExercice 16.3
1/ Soit P ∈ C[X] avec P = a k X k , on appelle conjugué de P le polynôme P = a k X k . Montrer que P + Q = P + Q, que
P P
MO

k k
PQ = P × Q, et que P ∈ R[X] si et seulement si P = P. Vérifier que pour z ∈ C, P(z) = P(z).
2/ Soit P ∈ R[X] non constant, soit z une racine complexe de P de multiplicité m. Montrer que z est racine de P de
multiplicité m.

5) Relations racines coefficients


Soit P un polynôme scindé sur K, si deg(P) = n et si λ est le coefficient dominant de P, alors il existe
a 1 , . . . , a n ∈ K (racines de P) tels que P = λ(X − a 1 ) · · · (X − a n ), si on développe ensuite cette expression, on va
obtenir les coefficients de P en fonction des a k . Par exemple :
– P = λ(X − a 1 )(X − a 2 ) = λX 2 − λ(a 1 + a 2 )X + λa 1 a 2 .
– P = λ(X − a 1 )(X − a 2 )(X − a 3 ) = λX 3 − λ(a 1 + a 2 + a 3 )X 2 + λ(a 1 a 2 + a 1 a 3 + a 2 a 3 )X − λa 1 a 2 a 3 .
1. D’ALEMBERT J EAN Le Rond (1717 – 1783) : mathématicien français qui contribua notamment à l’étude des nombres
complexes, l’analyse et les probabilités.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 146 ©Fradin Patrick – http://mpsi.tuxfamily.org


Formule de Taylor des polynômes Chapitre 16 : Polynômes

Notation : On pose σ0 = 1, et pour k compris entre 1 et n : σk =


P
ai 1 · · · ai k .
16i 1 <···<i k 6n
σk est la somme des produits des racines (de P) par paquets de longueur k, par exemple : σ1 est la somme

NE
des racines, σ2 est la somme des produits deux à deux, · · · , σn est le produit des racines.
Par récurrence on peut alors établir que :
n
(X − a 1 ) · · · (X − a n ) = X n − σ1 X n−1 + σ2 X n−2 − · · · + (−1)n σn = (−1)k σk X n−k
X
k=0

On en déduit :

Théorème 16.13
n
Soient a 1 , . . . , a n ∈ K, si P = αk X k = αn (X − a 1 ) · · · (X − a n ), alors on a les relations racines - coeffi-
P
k=0
cients suivantes : αn−k = (−1)k αn σk .

AIG
αn−1
En particulier, la somme des racines est − αn et le produit des racines est (−1)n ααn0 .
FExercice 16.4 Calculer la somme et le produit des racines n-ièmes de l’unité.

IV FORMULE DE TAYLOR DES POLYNÔMES

1) Dérivation des polynômes


On reprend la dérivation usuelle des fonctions polynomiales :

Définition 16.12
a k X k , on appelle polynôme dérivé de P, le polynôme noté P 0 ou dd XP , et défini par :
P
Soit P =
k
P0 = ka k X k−1 .
P
NT
k >1
(
(n) (n) P si n = 0
Par récurrence, la dérivée n-ième de P, notée P , est : P = £ (n−1) ¤0
P si n > 1

Théorème 16.14 (propriétés)


Soient, P, Q ∈ K[X] et soit λ ∈ K :
– (P + Q)0 = P 0 + Q0 et (λP)0 = λP 0 .
– (P × Q)0 = P 0 × Q + P × Q0 , plus généralement, on a la formule de L EIBNIZ 2 :
à !
n n
(n)
P (k) × Q(n−k) .
X
(P × Q) =
k
MO

k=0

– P(Q)0 = Q0 × P 0 (Q) (dérivée d’une composée).

Preuve : La première propriété est simple à vérifier. Pour la deuxième propriété, on commence par montrer que
(X n × Q)0 = nX n−1 × Q + X n × Q0 , puis on applique la première propriété. La formule de L EIBNIZ se montre ensuite par
récurrence sur n (exactement comme la formule du binôme de N EWTON). Quant à la troisième, on commence par le
cas où P = X n , c’est à dire on commence par montrer que [Qn ]0 = nQ0 × Qn−1 , ce qui se fait par récurrence sur n, on
utilise ensuite la première propriété pour le cas général. 

2. LEIBNIZ Gottfried (1646 – 1716) : philosophe et mathématicien allemand.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 147 ©Fradin Patrick – http://mpsi.tuxfamily.org


Formule de Taylor des polynômes Chapitre 16 : Polynômes

Théorème 16.15
(
n! n−k
(n−k)! X si k 6 n
Si P = X n , alors P (k) = a n X n , alors

NE
P
. On en déduit que si P =
0 si k > n n

n!
P (k) = a n X n−k
X
n >k (n − k)!

En particulier si deg(P) = n alors P (n) = a n n! et si k > deg(P), alors P (k) = 0. D’autre part, lorsque
k 6 deg(P), alors deg(P (k) ) = deg(P) − k.

Preuve : Celle - ci est simple et laissée en exercice. 

2) Formule de Taylor

AIG
n n ¡k ¢
a k X k , soit r un entier compris entre 0 et n, alors P (r ) = a k X k−r , substituons 0 à X, on
P P
Soit P = r! r
k=0 k=r
obtient alors P (r ) (0) = r !a , on en déduit donc que :
r
g

P
g (r ) (0)
∀r ∈ J0; n K , a r = .
r!
Remarquons que la formule reste vraie pour r > n, finalement on obtient la formule de TAYLOR 3 en 0 :
(k) (0)
X Pg
P= Xk .
k k!
Soit a ∈ K, posons Q = P(X + a) (composée de P avec le polynôme X + a), d’après ce qui précède, on a :
XQ
g (k) (0)
Q= Xk .
k k!
NT
Or, il est facile de montrer que Q(k) = P (k) (X + a), par conséquent Q g (k) (0) = P
g (k) (a), et comme P = Q(X − a), on

obtient :
X Pg (k) (a)
P= (X − a)k .
k k!

Théorème 16.16
(k) (a)
P Pg
Si P ∈ K[X] et a ∈ K, alors P = k! (X − a)k . C’est la formule de TAYLOR pour le polynôme P en a.
k

Applications :
– Division euclidienne d’un polynôme P par (X − a)n : d’après la formule de TAYLOR en a appliquée à P, on a :
MO

(k) (a)
X Pg
P= (X − a)k
k k!
X Pg(k) (a) X Pg(k) (a)
= (X − a)k + (X − a)k
k >n k! k<n k!
X Pg(k) (a) X Pg(k) (a)
= (X − a)n × (X − a)k−n + (X − a)k ,
k >n k! k<n k!
(k) (a)
Pg
P k
comme deg( k! (X − a) ) < n, on en déduit que le quotient Q et le reste R dans la division euclidienne par
k<n
n
(X − a) sont :
X Pg(k) (a) X Pg(k) (a)
Q= (X − a)k−n et R = (X − a)k .
k >n k! k<n k!
– Calcul de la multiplicité d’une racine :

3. TAYLOR B ROOK (1685 – 1731) : mathématicien anglais qui a énoncé sa célèbre formule en 1715.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 148 ©Fradin Patrick – http://mpsi.tuxfamily.org


Formule de Taylor des polynômes Chapitre 16 : Polynômes

Théorème 16.17
a ∈ K est une racine de P de multiplicité n > 1 si et seulement si :

NE
(k) (a) = 0 et P
∀ k ∈ J0; n − 1K , Pg g (n) (a) 6= 0.

(k) (a)
Pg (k) (a)
Pg
Preuve : En effet, d’après ce qui précède, P = (X − a)n Q + R avec Q = k−n k
P P
k! (X − a) et R = k! (X − a) , d’où :
k >n k<n

n = m P (a) ⇐⇒ R = 0 et Q(a)
e 6= 0
⇐⇒ R(X + a) = 0 et Q(a)
e 6= 0
(k) (a) = 0, et P
⇐⇒ ∀k ∈ J0; n − 1K , Pg g (n) (a) 6= 0

AIG
NT
MO

MPSI3 (2015-16) LYCÉE M ONTAIGNE 149 ©Fradin Patrick – http://mpsi.tuxfamily.org


NE
Chapitre 17

Arithmétique des polynômes

AIG
Sommaire
I Divisibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
1) La division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
2) Congruences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
3) Diviseurs communs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
II Éléments premiers entre eux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
1) Théorème de Bézout . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
2) Conséquences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
III Le plus grand diviseur commun . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
3) Généralisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
IV Le plus petit multiple commun . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
NT
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
V Polynômes irréductibles, décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
2) Décomposition en facteurs irréductibles . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
3) Notion de P-valuation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
4) Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158

I DIVISIBILITÉ

1) La division euclidienne
MO

Théorème 17.1
Soient A ∈ K[X] et B ∈ K[X] non nul, il existe un unique couple de polynômes (Q, R) tel que A = BQ + R
avec deg(R) < deg(B), Q est appelé le quotient, et R le reste.

Définition 17.1
Soient A, B ∈ K[X], on dit que B divise A lorsqu’il existe un polynôme Q tel que A = Q × B, notation B|A.

Remarque 17.1 – On définit ainsi une relation dans K[X], on peut vérifier que celle - ci est réflexive, transitive,
mais elle n’est ni symétrique, ni antisymétrique. Plus précisément, B|A et A|B ssi il existe λ ∈ K∗ tel que A = λB
(on dit que A et B sont associés).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 150 ©Fradin Patrick – http://mpsi.tuxfamily.org


Divisibilité Chapitre 17 : Arithmétique des polynômes

Théorème 17.2
– Si B 6= 0, alors B|A si et seulement si le reste de la division euclidienne de A par B est nul.

NE
– Si A 6= 0 et B|A, alors deg(B) 6 deg(A).
– Si B|A et B|C, alors ∀ U, V ∈ K[X], B|A × U + C × V.

Preuve : Celle-ci est simple et laissée en exercice. 


Remarque 17.2 – Il découle du dernier point que si B|A − C et B|D − E, alors B|(A + D) − (C + E) et B|AD − EC,
en particulier, si B|A − C alors ∀ n ∈ N, B|An − Cn .
Notation : Soit P ∈ K[X], on note P K[X] l’ensemble des multiples de P : P K[X] = {P × Q / Q ∈ K[X]}.
On vérifie facilement la propriété suivante :
(P K[X], +) est un groupe commutatif et ∀B ∈ K[X], ∀U ∈ P K[X], BU ∈ P K[X].

2) Congruences

AIG
Définition 17.2 (congruences)
Soient A, B, P ∈ K[X], on dit que A est congru à B modulo P lorsque P | A − B.
Notation : A ≡ B (mod P).

Théorème 17.3
• La relation de congruence modulo P est une relation d’équivalence.
• Soient A, B, C, D, P ∈ K[X], si A ≡ B (mod P) et C ≡ D (mod P) alors :
AC ≡ BD (mod P) et A + C ≡ B + D (mod P).
On dit que la relation de congruence est compatible avec les opérations.
NT
3) Diviseurs communs

Définition 17.3 (polynôme normalisé)


Soit A un polynôme non nul, on appelle A normalisé le polynôme noté A e obtenu en divisant A par son
coefficient dominant, ce polynôme est donc unitaire et associé à A. C’est l’unique polynôme unitaire
associé à A.

Définition 17.4 (diviseurs communs)


Pour A ∈ K[X], on note DA l’ensemble des diviseurs de A. Cet ensemble contient toujours K∗ . On
notera DA,B = DA ∩ DB l’ensemble des diviseurs communs à A et B.
MO

Remarque 17.3 –
© ª
– Si A 6= 0, alors DA est un ensemble infini, mais deg(P) / P ∈ DA est fini car inclus dans J0; deg(A)K.
– D0 = K[X], si λ ∈ K∗ , Dλ = K∗ .
– Si A est non nul, DA = DAe .

Théorème 17.4
Soient A, B, Q, R ∈ K[X], si A = BQ + R, alors DA ∩ DB = DB ∩ DR .

MPSI3 (2015-16) LYCÉE M ONTAIGNE 151 ©Fradin Patrick – http://mpsi.tuxfamily.org


Éléments premiers entre eux Chapitre 17 : Arithmétique des polynômes

Application – Le théorème ci-dessus fournit un algorithme pour la recherche des diviseurs communs à A et B basé sur
la division euclidienne : c’est l’algorithme d’Euclide, rappelons son principe :

NE
On remarque que si B = 0 alors DA,B = DA . On peut supposer désormais que B 6= 0 et on cherche à calculer
D = DA,B :
Étape 1 : on effectue la division euclidienne de A par B : A = BQ1 +R1 avec deg(R1 ) < deg(B). On a D = DB,R1 ,
donc si R1 = 0 alors D = DB , sinon on passe à l’étape 2 :

Étape 2 : on effectue la division euclidienne de B par R1 : B = R1 Q2 + R2 avec deg(R2 ) < deg(B). On a


D = DR1 ,R2 , donc si R2 = 0 alors D = DR1 , sinon on passe à l’étape 3 ...
La suite des degrés des restes obtenus est une suite strictement décroissante d’entiers positifs, elle est
donc nécessairement finie, i.e. il existe nécessairement un entier n > 1 tel que Rn = 0, l’ensemble cherché est
donc D = DRn−1 (avec la convention R0 = B).

II ÉLÉMENTS PREMIERS ENTRE EUX

AIG
1) Théorème de Bézout

Définition 17.5
Soient A, B ∈ K[X], on dit que a et b sont premiers entre eux (ou A est premier avec B) lorsque le seul
diviseur commun unitaire est 1, i.e. DA,B = K∗ .

Remarque 17.4 –
– Dire que A est premier avec B revient à dire que le dernier reste non nul dans l’algorithme d’Euclide est
égal à 1 une fois normalisé.
– Si A est premier avec B, alors au moins un des deux est non nul (sinon l’ensemble des diviseurs communs
est K[X]).
– A est premier avec A si et seulement si A ∈ K∗ .
NT
Théorème 17.5 (théorème de Bézout)
Soient A, B ∈ K[X], alors A et B sont premiers entre eux si et seulement si il existe U, V ∈ K[X] tels que
AU + BV = 1. Les polynômes U et V sont appelés coefficients de Bézout (non uniques en général).

Preuve : C’est l’algorithme d’Euclide étendu, comme dans Z. 

2) Conséquences

Théorème 17.6
• Si A est premier avec B et si A est premier avec C, alors A est premier avec le produit BC. On en
MO

déduit que si A est premier avec C1 , . . . , Cn , alors A est premier avec le produit C1 × . . . × Cn .
• Si A est premier avec C, si A | B et si C | B, alors AC | B.
• Si A | BC et si A est premier avec C, alors A | B.

Preuve : Identique à celle dans Z. 

III LE PLUS GRAND DIVISEUR COMMUN

1) Définition
Soient A, B ∈ K[X] non tous deux nuls, on sait que DA,B = DR où R est le dernier reste non nul dans
l’algorithme d’Euclide, on voit que les diviseurs communs à A et B ont un degré inférieur ou égal à celui de R.
Soit D un diviseur commn de même degré que R, alors comme D | R on a R = λQ avec λ ∈ K∗ , on en déduit
que les polynômes R et D normalisés sont égaux.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 152 ©Fradin Patrick – http://mpsi.tuxfamily.org


Le plus grand diviseur commun Chapitre 17 : Arithmétique des polynômes

Définition 17.6
Soient A, B ∈ K[X] non tous deux nuls, le pgcd de A et de B le plus grand diviseur commun unitaire.

NE
Notation : pgcd(A, B) ou A ∧ B, c’est le dernier reste non nul dans l’algorithme d’Euclide, une fois
normalisé.

Remarque 17.5 – Il en découle que deux éléments A et B de K[X], non tous deux nuls, sont premiers entre eux
si et seulement si pgcd(A, B) = 1. On remarquera au passage qu’un pgcd entre deux polynômes est unitaire.

Théorème 17.7
Soient A, B ∈ K[X] non tous deux nuls, et D = pgcd(A, B), alors D est l’unique polynôme unitaire dans
K[X] tel que AK[X] + BK[X] = DK[X].

Preuve : Unicité : si DK[X] = D0 K[X] alors D et D0 sont associés, mais comme ils sont unitaires, on a D = D0 .

AIG
Égalité : dans l’algorithme d’Euclide étendu, il existe U et V dans K[X] tel que AU + BV = D, ce qui entraîne que
DK[X] ⊂ AK[X] + BK[X]. Si R ∈ AK[X] + BK[X], alors D est diviseur de R donc AK[X] + BK[X] ⊂ DK[X], d’où l’égalité. 

Théorème 17.8 (Calcul pratique d’un pgcd)


Si A, B ∈ K[X] sont non tous deux nuls alors ∀Q ∈ K[X], pgcd(A, B) = pgcd(A − BQ, B).

FExercice 17.1 Calculer le pgcd entre X4 − 1 et X10 − 1.

2) Propriétés

Théorème 17.9 (caractérisations du pgcd)


Soient A, B ∈ K[X] non tous deux nuls, et soit D ∈ K[X] non nul et unitaire. On a alors :
D = pgcd(A, B) ⇐⇒ ∃ U, V ∈ K[X] premiers entre eux tels que A = DU et B = DV.
NT
Preuve : Si D = pgcd(A, B) alors il existe U, V ∈ K[X] tels que A = DU et B = DV, soit K = U ∧ V, alors KD divise A et B,
donc deg(KD) 6 deg(D) ce qui entraîne K = 1.
Si A = DU, B = DV avec U ∧ V = 1 : alors D est un diviseur commun à A et B, d’après le théorème de Bézout, il existe
α, β ∈ K[X] tels que αU + βV = 1, d’où D = αA + βB, on voit donc que tout diviseur commun à A et B est diviseur de D,
donc DA,B = DD i.e. D est le plus grand diviseur commun [car d est unitaire], i.e. D = A ∧ B. 

Théorème 17.10 (quelques propriétés du pgcd)


Soient A, B ∈ K[X] non tous deux nuls :
a) ∀ P ∈ K[X], si P | A et P | B, alors P | pgcd(A, B).
b) pgcd(A, B) = pgcd(A,
e B).
MO

e
c) ∀ K ∈ K[X], unitaire, pgcd(KA, KB) = Kpgcd(A, B).
d) ∀ n ∈ N, pgcd(An , Bn ) = pgcd(A, B)n .
e) Si A et C sont premiers entre eux, alors pgcd(A, BC) = pgcd(A, B).

Preuve : Pour le premier point : soit D = pgcd(A, B), alors DA,B = DD donc tout diviseur commun à A et B est un diviseur
de D.
Pour le deuxième point : soit D = pgcd(A, B), alors il existe U, V ∈ K[X] premiers entre eux tels que A = DU et B = DV,
d’où KA = KAU et KB = KDV, donc KD = pgcd(KA, KB) (KD est unitaire).
Pour le reste la preuve est identique à celle dans Z. 

MPSI3 (2015-16) LYCÉE M ONTAIGNE 153 ©Fradin Patrick – http://mpsi.tuxfamily.org


Le plus grand diviseur commun Chapitre 17 : Arithmétique des polynômes

NE
3) Généralisation
Soient A, B, C trois polynômes non tous nuls, l’ensemble des diviseurs communs à A, B et C est :

DA,B,D = DA ∩ DB ∩ DC = (DA ∩ DB ) ∩ DC = DA ∩ (DB ∩ DC )

or on sait que DA ∩ DB = DA∧B , donc DA,B,C = D(A∧B)∧C = DA∧(B∧C) . Ces deux polynômes étant unitaires, on a
(A ∧ B) ∧ C = A ∧ (B ∧ C) et ce polynôme est le plus grand (en degré) diviseur unitaire commun à A, B et C. Par
définition ce nombre est le pgcd de A, B et C, on le note : pgcd(A, B, C) .

Théorème 17.11 (associativité du pgcd)


Soient A, B, C trois polynômes avec B non nul, alors pgcd(A, B, C) = (A ∧ B) ∧ C = A ∧ (B ∧ C).

AIG
À retenir
L’associativité du pgcd permet de ramener le calcul au cas de deux polynômes.

Notons D1 = A ∧ B et R = pgcd(A, B, C), alors R = D1 ∧ C, donc il existe deux polynômes U1 et W tels que
R = D1 U1 + CW, de même, il existe deux polynômes U2 et V1 tels que D1 = AU2 + BV1 , d’où en remplaçant,
R = AU2 U1 + BV1 U1 + cW = AU + BV + CW avec U, V, W ∈ K[X].
Réciproquement, si R est un diviseur commun unitaire, et si R = AU + BV + CW, alors il est facile de voir
que tout diviseur commun à A, B et C est un diviseur de R et donc R = pgcd(A, B, C), d’où le théorème :

Théorème 17.12
Soient A, B, C trois polynômes non tous nuls et R unitaire, alors :
R = pgcd(A, B, C) ⇐⇒ R ∈ DA,B,C et ∃U, V, W ∈ K[X], R = AU + BV + CW.
NT
Définition 17.7
Soient A, B, C trois polynômes non tous nuls, on dira que ces trois polynômes sont :
• premiers entre eux dans leur ensemble lorsque pgcd(A, B, C) = 1.
• premiers entre eux deux à deux lorsque pgcd(A, B) = pgcd(B, C) = pgcd(A, C) = 1.

Attention !
Les deux notions ne sont pas équivalentes, la deuxième entraîne la première mais la réciproque est fausse comme
le montre l’exemple suivant :
pgcd((X + 1)X, (X + 1)(X + 2), X(X + 2)) = 1 mais pgcd(X(X + 1), (X + 1)(X + 2)) = X + 1, pgcd(X(X + 1), X(X + 2)) = X et
pgcd((X + 1)(X + 2), X(X + 2)) = X + 2.
MO

Il découle du théorème précédent :

Théorème 17.13 (de Bézout)


Soient A, B, C trois polynômes non tous nuls, alors A, B et C sont premiers entre eux dans leur ensemble
si et seulement si :
∃U, V, W ∈ K[X], AU + BV + CW = 1.

Théorème 17.14 (caractérisation)


Soient A, B, C trois polynômes non tous nuls et R unitaire, alors :
R = pgcd(A, B, C) ⇐⇒ ∃U, V, W ∈ K[X], A = RU, B = RV et C = RW avec pgcd(U, V, W) = 1.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 154 ©Fradin Patrick – http://mpsi.tuxfamily.org


Le plus petit multiple commun Chapitre 17 : Arithmétique des polynômes

NE
Preuve : Si R = pgcd(A, B, C) alors il existe ∃U, V, W ∈ K[X], A = RU, B = RV et C = RW. Il existe également des polynômes
U1 , V1 et W1 tels que R = AU1 + BV1 + CW1 d’où 1 = UU1 + VV1 + WW1 et donc pgcd(U, V, W) = 1.
Réciproquement, si A = RU, B = RV et C = RW avec pgcd(U, V, W) = 1. Il existe des polynômes U1 , V1 et W1 tels
1 = UU1 + VV1 + WW1 , en multipliant par R il vient alors que R = RUU1 + RVV1 + RWW1 = AU1 + BV1 + CW1 , ce qui
entraîne que R = pgcd(A, B, C) (car R est unitaire et diviseur commun à A, B et C). 
Remarque 17.6 – La notion de pgcd s’étend de la même manière à n polynômes.

IV LE PLUS PETIT MULTIPLE COMMUN

1) Définition

Théorème 17.15

AIG
Si A et B sont non nuls, il existe un unique polynôme M unitaire dans K[X] tel que :
AK[X] ∩ BK[X] = MK[X].

© ª
Preuve : deg(P) / P ∈ AK[X] ∩ BK[X], P 6= 0 contient deg(AB), il existe donc un multiple commun non nul de degré
minimal, quitte à le normaliser, on peut le supposer unitaire, et on le note M. Il est facile de voir que MK[X] ⊂
AK[X] ∩ BK[X]. Si P ∈ AK[X] ∩ BK[X], on effectue la division de P par M, P = MQ + R avec deg(R) < deg(M), d’où
R = P − MQ, on vérifie alors que R est aussi dans AK[X] ∩ BK[X] . Si R 6= 0 alors deg(R) > deg(M) car M est de degré
minial, ceci est absurde, donc R = 0 et P = MQ, d’où AK[X] ∩ BK[X] ⊂ MK[X], et finalement on a bien l’inégalité.
Si M0 K[X] = MK[X] avec M0 unitaire, alors M et M0 se divisent mutuellement, ils sont donc associés et unitaires
d’où M = M0 . 
Il découle de ce théorème que C est un multiple commun à A et B si et seulement si C ∈ AK[X] ∩ BK[X],
ce qui équivaut à C ∈ MK[X], c’est à dire M | C. Ceci entraîne en particulier : deg(M) 6 deg(C).

Définition 17.8
Soit A, B ∈ K[X], non nuls, et soit M ∈ K[X] unitaire, on dit que M est le ppcm de A et B lorsque
NT
AK[X] ∩ BK[X] = MK[X]. Notation : M = ppcm(A, B) ou encore M = A ∨ B.

Théorème 17.16 (caractérisation du ppcm)


Soient A, B ∈ K[X], non nuls, et soit M ∈ K[X] unitaire alors :
M = ppcm(A, B) ⇐⇒ ∃ U, V ∈ K[X] premiers entre eux tels que M = AU = BV.

Preuve : On suppose a, b ∈ K[X], non nuls.


Si m = ppcm(a, b) : alors a | m et b | m. Donc il existe u, v ∈ K[X] tels que m = au = bv, soit d = pgcd(u, v) alors il
existe α, β ∈ K[X] premiers entre eux tels que u = d α et v = d β, d’où m = ad α = bd β, mais alors m 0 = aα = bβ est un
multiple commun à a et b donc deg(m) 6 deg(m 0 ) ce qui entraîne d = 1 (car d est unitaire et m = m 0 d ).
Si ∃u, v ∈ K[X] premiers entre eux tels que m = au = bv, alors a | m et b | m, il existe α, β tels que uα + vβ = 1, soit
m 0 un multiple commun non nul, alors m 0 = m 0 uα + m 0 vβ, on en déduit que m | m 0 et donc deg(m) 6 deg(m 0 ), ce qui
prouve que m = ppcm(a, b). 
MO

2) Propriétés

Théorème 17.17
Soient a, b ∈ K[X], non nuls :
a) ∀ P ∈ K[X], si A | P et B | P alors ppcm(A, B) | P.
b) Si A et B sont premiers entre eux, alors ppcm(A, B) = A
e B.
e
c) ∀ K ∈ K[X], unitaire, ppcm(KA, KBb) = Kppcm(A, B).
d) ppcm(A, B) × pgcd(A, B) = A
e B.
e
e) ∀ n ∈ N, ppcm(An , Bn ) = ppcm(A, B)n .

MPSI3 (2015-16) LYCÉE M ONTAIGNE 155 ©Fradin Patrick – http://mpsi.tuxfamily.org


Polynômes irréductibles, décomposition Chapitre 17 : Arithmétique des polynômes

Preuve : Analogue au cas des entiers. 

NE
V POLYNÔMES IRRÉDUCTIBLES, DÉCOMPOSITION

1) Définition

Définition 17.9
Un polynôme P ∈ K[X] est dit irréductible sur K lorsque P est non constant et que ses seuls diviseurs
e L’ensemble des éléments irréductibles normalisés de K[X] est noté IK[X] .
unitaires sont 1 et P.

ZExemples :
– Tout polynôme de degré 1 est irréductible, donc ∀ λ ∈ K, X + λ ∈ IK[X] .
– Tout polynôme de degré 2 sans racine dans K est irréductible dans K[X]. Cependant cette propriété

AIG
ne se généralise pas au delà du degré
p 2, par exemple
p : X 4 + 1 est sans racine dans R, mais ce polynôme
4 2 2
est réductible car X + 1 = (X − 2X + 1)(X + 2X + 1).
– La notion de polynôme irréductible dépend du corps K, par exemple, X 2 + 1 est irréductible dans R[X],
mais pas dans C[X]. De même, le polynôme X 2 − 2 est irréductible dans Q[X], mais pas dans R[X].

Théorème 17.18
Dans C[X], les polynômes irréductibles unitaires sont les polynômes unitaires de degré 1, c’est à dire :
IC[X] = {X + a / a ∈ C}.
Dans R[X], les polynômes irréductibles sont les polynômes unitaires de degré 1, plus les polynômes
unitaires de degré 2 sans racines réelles. C’est à dire :
IR[X] = {X + a / a ∈ R} ∪ X 2 + pX + q / p, q ∈ R, p 2 − 4q < 0 .
© ª

Preuve : Pour C[X] cela découle du théorème de D’Alembert.


NT
Dans R[X] : les polynômes annoncés sont bien irréductibles unitaires. Soit P ∈ IK[X] , avec deg(P) > 2 alors P admet
des racines complexes, et celles-ci sont non réelles (P est irréductible de degré supérieur à 1), soit α l’une d’elles, alors α
est également racine de P (et distincte de α), donc dans C[X] le polynôme P est divisible par (X −α)(X −α) = X 2 +pX +q ∈
R[X] avec p 2 − 4q < 0. Mais alors P est divisible dans R[X] par X 2 + pX + q (unicité du quotient et du reste), or P ∈ IK[X] ,
donc nécessairement P = X 2 + pX + q. 
Propriétés élémentaires :
a) Si P est irréductible, alors pour tout polynôme Q, soit P | Q soit pgcd(P, Q) = 1.
Preuve : Soit D = pgcd(P, Q), D | P donc D = 1 ou D = P.
e 

b) Si P ∈ K[X] est non constant, alors P possède au moins un diviseur irréductible.


Preuve : Soit B = {deg(d ) / d | P et d ∉ K∗ }, alors B est une partie de N non vide (deg(P) ∈ B), soit Q un diviseur
de P avec deg(P) ∈ B minimal, si D | Q avec D normalisé et D ∉ K∗ , alors D | P et donc deg(D) ∈ B, d’où deg(D) >
deg(Q), or D | Q, donc deg(D) 6 deg(Q) et finalement deg(D) = deg(Q), d’où D = Q e et donc Q est irréductible. 
MO

c) L’ensemble IK[X] est infini, puisque tout polynôme X + a où a ∈ K est irréductible unitaire.
d) Si P est irréductible et si P | AB, alors P | A ou P | B.
Preuve : Supposons que P ne divise pas A, alors pgcd(P, A) = 1 et par conséquent P | B (d’après le théorème de
Gauss). 

2) Décomposition en facteurs irréductibles

Théorème 17.19 (décomposition en produit de facteurs irréductibles)


Tout élément Q ∈ K[X] non constant, est un produit d’éléments irréductibles. Plus précisément, il
existe r > 1, il existe P1 , . . . , Pr ∈ IK[X] , il existe des entiers α1 , . . . , αr ∈ N∗ , il existe λ ∈ K∗ tels que :
α α α
Q = λ × P1 1 × P2 2 × . . . × Pr r .

MPSI3 (2015-16) LYCÉE M ONTAIGNE 156 ©Fradin Patrick – http://mpsi.tuxfamily.org


Polynômes irréductibles, décomposition Chapitre 17 : Arithmétique des polynômes

Preuve : On a Q = λ × Qe avec λ le coefficient dominant de Q. On se ramène ainsi au cas où Q est unitaire.


Par récurrence sur deg(Q) : pour deg(Q) = 1 il n’y a rien à montrer. Supposons le théorème démontré jusqu’au
rang k, si deg(Q) = k + 1 alors Q admet au moins un diviseur irréductible unitaire P, donc Q = PR, si R = 1 alors Q est

NE
irréductible, sinon R est un produit de facteurs irréductibles (HR), donc Q aussi. 

Théorème 17.20 (unicité de la décomposition)


α α β β
Si Q ∈ K[X] s’écrit sous la forme : Q = λ × P1 1 × . . . × Pr r = µ × Q1 1 × . . . × Qs s ,
avec P1 , . . . , Pr ∈ IK[X] , α1 , . . . , αr ∈ N∗ , Q1 , . . . , Qs ∈ IK[X] , β1 , . . . , βs ∈ N∗ , et λ, µ ∈ K∗ , alors r = s, λ = µ
et il existe une permutation σ de J1; r K telle que pour i ∈ J1; r K , Pi = Qσ(i ) , αi = βσ(i ) . La décomposition
est unique [à l’ordre près].

Preuve : Identique à celle des entiers. 

AIG
3) Notion de P-valuation
Si Q est un polynôme non nul et P un polynôme irréductible, alors l’ensemble k ∈ N / P k | Q est non
© ª

vide (contient 0) et majoré par deg(Q), cet ensemble admet donc un maximum :

Définition 17.10
Soit P ∈ IK[X] et Q olynôme non nul, on appelle P-valuation de Q, notée v P (Q), le plus grand entier k
tel que P k | Q. La définition s’étend au polynôme nul en posant v P (0) = +∞.

Remarque 17.7 :
– v P (Q) = k ⇐⇒ P k | Q et P k+1 - Q ⇐⇒ ∃ T ∈ K[X], Q = P k T avec P - Q .
– v P (Q) > 1 ⇐⇒ P | Q, auquel cas v P (Q) est la puissance de P dans la décomposition de Q en facteurs
irréductible.
– k ∈ N / P k | Q = J0; v P (Q)K.
© ª
NT
À retenir
Pour tout polynôme Q non constant, la décomposition de Q en produit de facteurs irréductible s’écrit :
Q = λQ P v P (Q) .
Q
P∈IK[X]

En effet, seul un nombre fini de valuations sont non nulles (les autres donnent un facteur égal à 1).

Théorème 17.21 (Propriétés)


Soient Q, R deux polynômes, on a :
MO

a) ∀P ∈ IK[X] , v P (QR) = v P (Q) + v P (R).


b) ∀P ∈ IK[X] , v P (Q + R) > min(v P (Q); v P (R)).
c) Q | R ⇐⇒ ∀P ∈ IK[X] , v P (Q) 6 v P (R).
d) Si Q et R sont non nuls alors ∀P ∈ IK[X] :
v P (Q ∧ R) = min(v P (Q); v P (R)) et v P (Q ∨ R) = max(v P (Q); v P (R)).

Preuve : Analogue au cas des entiers. 

À retenir : formules du pgcd et du ppcm


Il découle du théorème ci-dessus que :
P min(v P (Q);v P (R)) et ppcm(Q, R) = P max(v P (Q);v P (R)) .
Q Q
pgcd(Q, R) =
P∈IK[X] P∈IK[X]

MPSI3 (2015-16) LYCÉE M ONTAIGNE 157 ©Fradin Patrick – http://mpsi.tuxfamily.org


Polynômes irréductibles, décomposition Chapitre 17 : Arithmétique des polynômes

4) Applications
Comme dans Z :

NE
– Si P est non constant, alors la décomposition de P en produit de facteurs irréductibles permet de
trouver tous les diviseurs de P.
– Si P, Q sont non constants, alors à partir de leur décomposition en produit de facteurs irréductibles, on
peut calculer pgcd(P, Q) et ppcm(P, Q).
FExercice 17.2 Dans C[X], montrer que z ∈ C est racine commune de P et Q si et seulement si z est racine de pgcd(P, Q).
FExercice 17.3 Dans C[X], montrer que pour n, m ∈ N∗ , on a pgcd(X n − 1, Xm − 1) = Xd − 1 où d = pgcd(n, m).
Solution 17.3 Il existe u, v ∈ Z tels que nu + mv = d , on en déduit que z n = z m = 1 si et seulement si z d = 1, les racines
du pgcd sont donc les racines d es de l’unité, ce qui donne le résultat.

AIG
NT
MO

MPSI3 (2015-16) LYCÉE M ONTAIGNE 158 ©Fradin Patrick – http://mpsi.tuxfamily.org


NE
Chapitre 18

Fractions rationnelles

Sommaire

AIG
I Construction de l’ensemble des fractions rationnelles . . . . . . . . . . . . . . . . . . . . . . 159
1) Définition d’une fraction rationnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
2) Opérations sur les fractions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
3) Représentants irréductibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
II Degré, pôles et racines d’une fraction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
1) Notion de degré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
2) Pôles et racines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
3) Fonctions rationnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
4) Dérivation d’une fraction rationnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
III Décomposition d’une fraction rationnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
1) Partie entière . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
2) Éléments simples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
3) Existence de la décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
NT
IV Décomposition dans le cas complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
1) Forme de la décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
2) Calcul d’une partie polaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
3) Cas particuliers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
V Décomposition dans le cas réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
1) Forme de la décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
2) Calcul des éléments simples de seconde espèce . . . . . . . . . . . . . . . . . . . . . . . 168
VI Applications de la décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
1) Calcul de la dérivée n-ième d’une fraction . . . . . . . . . . . . . . . . . . . . . . . . . . 168
2) Primitives d’une fraction rationnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
MO

I CONSTRUCTION DE L’ENSEMBLE DES FRACTIONS RATIONNELLES

Le corps K désigne un sous-corps de C, i.e. un corps inclus dans C.

1) Définition d’une fraction rationnelle


Dans l’ensemble K[X] × (K[X] \ {0}) = {(P, Q) / P, Q ∈ K[X], Q 6= 0}, on définit la relation R en posant :

(P, Q)R(R, S) ⇐⇒ P × S = Q × R.

On vérifie que la relation R est une relation d’équivalence dans K[X]×(K[X]\{0}). La transitivité de la relation
utilise l’intégrité de K[X].

MPSI3 (2015-16) LYCÉE M ONTAIGNE 159 ©Fradin Patrick – http://mpsi.tuxfamily.org


Construction de l’ensemble des fractions rationnelles Chapitre 18 : Fractions rationnelles

Définition 18.1
On appelle fraction rationnelle à coefficients dans K toute classe d’équivalence pour la relation R. La

NE
P
classe de (P, Q) est notée Q [avec P le numérateur et Q le dénominateur], on a donc :

P
= {(R, S) ∈ K[X] × (K[X] \ {0}) / PS = QR}.
Q
P
On dit que (P, Q) est un représentant de la fraction Q . L’ensemble des fractions rationnelles est noté
K(X) et la relation R est appelée égalité des fractions rationnelles.

2) Opérations sur les fractions

AIG
Définition 18.2 (addition, multiplication, produit par un scalaire)
P R
Soient Q, S deux fractions rationnelles et soit λ ∈ K, on pose :

P R PS + QR P R PR P λP
+ = , × = , et λ = .
Q S QS Q S QS Q Q

Pour que la définition ait un sens il faut le résultat ne dépende pas des représentants choisis pour les
P P0 R R0
fractions, c’est à dire si Q =Q 0 et S = S 0 , alors :

PS + QR P 0 S 0 + Q0 R0 PR P 0 R0 P P0
= ; = et λ = λ .
QS Q0 S 0 QS Q0 S 0 Q Q0

Cette vérification est simple et laissée en exercice.


Propriétés :
NT
a) Pour l’addition :
– elle est associative, commutative,
– elle admet un élément neutre, la fraction Q0 (∀ Q 6= 0), appelée fraction nulle. On remarquera qu’une
fraction est nulle ssi son numérateur est nul.
P P P
– toute fraction Q admet un opposé et − Q = −PQ = −Q .
b) Pour la multiplication :
– elle est associative, commutative,
P
– elle admet un élément neutre qui est la fraction (∀ P 6= 0), appelée fraction unité.
P ³ ´−1
P P Q
– toute fraction non nulle (i.e. P 6= 0) admet un inverse, et Q
Q = P.
– elle est distributive sur l’addition.
c) Pour le produit par un scalaire : ∀ λ, µ ∈ K, ∀ F, G ∈ K(X) :
MO

1.F = F λ.(F + G) = λ.F + λ.G (λ + µ).F = λ.F + λ.G µ.(µ).F = (λµ).F

et
λ.(F × G) = (λ.F) × G = F × (λ.G).

Par conséquent, (K(X), +, ×) est un corps commutatif et (K(X), +×, .) est une K-algèbre commutative.

3) Représentants irréductibles

Théorème 18.1 (plongement des polynômes dans K(X))


P
L’application φ : K[X] → K(X) définie par φ(P) = 1 est un morphisme d’algèbres injectif.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 160 ©Fradin Patrick – http://mpsi.tuxfamily.org


Degré, pôles et racines d’une fraction Chapitre 18 : Fractions rationnelles

Preuve : Celle-ci est simple et laissée en exercice. 


P
Par conséquent on peut identifier le polynôme P avec la fraction 1 , ce qui fait que l’on peut considérer
que K[X] ⊂ K(X). En particulier la fraction nulle (en vertu de l’égalité des fractions) est identifiée au polynôme

NE
nul 0, et la fraction unité est identifiée au polynôme constant 1.

Définition 18.3
P P
Soit F = Q une fraction, on dit que Q est un représentant irréductible lorsque pgcd(P, Q) = 1.

3
X 2 +X+1 X 2 +X+1
ZExemple : Soit F = XX2 −1
−1
, un représentant irréductible est X+1 , c’est à dire F = X+1 .

Remarque 18.1 – Toute fraction admet des représentants irréductibles. Si on impose en plus que le dénomina-
teur doit être unitaire, alors il y a un seul représentant irréductible.

AIG
II DEGRÉ, PÔLES ET RACINES D’UNE FRACTION

1) Notion de degré
P R P
Soit F une fraction non nulle et Q , S deux représentants de F (i.e. F = Q = RS ), on a donc PS = QR, d’où
deg(P) − deg(Q) = deg(R) − deg(S). Autrement dit, la différence entre le degré du numérateur et le degré du
dénominateur, ne dépend pas du représentant de F, mais seulement de F.

Définition 18.4 (degré d’une fraction)


P
Soit F = Q une fraction, on pose deg(F) = −∞ si F = 0, et deg(F) = deg(P) − deg(Q) sinon. Le degré
d’une fraction est donc un élément de Z ∪ {−∞}.

Remarque 18.2 – Soit P un polynôme, en tant que polynôme son degré est deg(P), mais en tant que fraction,
son degré est deg( P1 ) = deg(P) − deg(1) = deg(P), on trouve bien la même chose.
NT
2
ZExemple : deg( X X+1
+X+1 X
) = 1 et deg( X3 −X 2 +2 ) = −2.

Théorème 18.2 (propriétés du degré)


Soient F, G ∈ K(X), on a : deg(F+G) 6 max(deg(F), deg(G)), et deg(F×G) = deg(F)+deg(G). On retrouve
les mêmes propriétés que pour les polynômes.

P
Preuve : Posons F = Q et G = RS , alors F × G = QS
PR
, donc deg(F × G) = deg(PR) − deg(QS) = deg(P) − deg(Q) + deg(R) −
deg(S) = deg(F) + deg(G). De même, deg(F + G) = deg(PS + QR) − deg(QS), or deg(PS + QR) 6 max(deg(PS), deg(QR)),
donc on a deg(F + G) 6 deg(PS) − deg(QS) ou deg(F + G) 6 deg(QR) − deg(QS), c’est à dire deg(F + G) 6 deg(F) ou
deg(F + G) 6 deg(G), finalement, deg(F + G) 6 max(deg(F), deg(G)). 
MO

Remarque 18.3 :
– Une fraction rationnelle constante non nulle a un degré nul, mais la réciproque est fausse, par exemple :
X
F = X+1 .
– Si deg(F) 6= deg(G) alors deg(F + G) = max(deg(F), deg(G)).
– Une fraction F est nulle ssi son degré vaut −∞.

2) Pôles et racines

Définition 18.5
P
Soit F ∈ K(X) non nulle, et soit Q un représentant irréductible de F. On dit que a ∈ K est racine de F
de multiplicité m ∈ N∗ lorsque a est racine du numérateur P de multiplicité m. On dit que a ∈ K est
pôle de F de multiplicité m ∈ N∗ lorsque a est racine du dénominateur Q de multiplicité m.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 161 ©Fradin Patrick – http://mpsi.tuxfamily.org


Degré, pôles et racines d’une fraction Chapitre 18 : Fractions rationnelles

Remarque 18.4 :
P
– Puisque Q est irréductible, on voit qu’un scalaire a ne peut pas être à la fois pôle et racine de F, sinon P et
Q seraient divisibles par X − a.

NE
– a est un pôle de F de multiplicité m ∈ N∗ revient à dire que a est racine de multiplicité m de F1 .
X 3 −1
– Par exemple, la fraction F = X 2 −1
possède deux racines complexes simples j et j 2 , un pôle simple −1,
mais pas racine réelle.

3) Fonctions rationnelles

Définition 18.6
P
Soit F ∈ K(X) et Q un représentant irréductible de F. On pose DF = K \ {pôles de F}, c’est à dire
DF = {x ∈ K / Q(x) 6= 0}. On appelle fonction rationnelle de K dans K associée à la fraction F, la
e de DF vers K définie par F(x)
fonction notée F = P(x) .
e
e
Q(x)

AIG
e

Remarque 18.5 – Avant d’étudier une fonction rationnelle, il faut la mettre sous forme irréductible.

Théorème 18.3
Soient F, G ∈ K(X), si les fonctions rationnelles F e sont égales sur une partie infinie I de DF ∩ DG ,
e et G
alors les fractions rationnelles sont égales, i.e. F = G.

Preuve : Le corps K est infini, l’ensemble des pôles de F et celui de G sont finis, donc DF ∩ DG est un ensemble infini.
P
Posons F = Q et G = RS irréductibles, alors ∀ x ∈ I, on a P(x)S(x) − R(x)Q(x) = 0, donc le polynôme PS − QR est nul
(infinité de racines) ce qui signifie exactement que F = G. 

4) Dérivation d’une fraction rationnelle


NT
P R
Soit F ∈ K(X) une fraction rationnelle et Q = S deux représentants de F, on a PS = QR, d’où (P 0 Q−PQ0 )S 2 =
P 0 QS 2 −PQ0 S 2 = P 0 QS 2 −Q0 QRS = QS(P 0 S −Q0 R), mais en dérivant la relation polynomiale PS = QR on obtient
P 0 S + PS 0 = Q0 R + QR0 , d’où (P 0 Q − PQ0 )S 2 = QS(QR0 − PS 0 ) = Q2 SR0 − QPSS 0 = Q2 SR0 − Q2 RS 0 = Q2 (SR0 − RS 0 ),
ce qui traduit l’égalité des fractions :
P 0 Q − PQ0 R0 S − RS 0
= .
Q2 S2

Définition 18.7
P dF
Soit F = Q ∈ K(X), on appelle fraction dérivée de F la fraction notée F0 (ou d X ) définie par :

P 0 Q − PQ0
MO

F0 = ,
Q2

Le résultat ne dépend pas du représentant de F choisi. On définit également les dérivées successives
¢0
de F en posant F(0) = F et pour tout n ∈ N, F(n+1) = F(n) .
¡

Remarque 18.6 –
¡ ¢0 0 0
– Soit P un polynôme, la dérivée de P en tant que fraction rationnelle est P1 = P 1−P1
12
= P 0 , on retrouve
bien la dérivée de P en tant que polynôme.
X
– Contrairement aux polynômes le degré de F0 n’est pas toujours égal à deg(F) − 1, par exemple : F = X+1 ,
0 1 0
on a deg(F) = 0 et F = (X+1)2 donc deg(F ) = −2.
Par contre on a toujours deg(F0 ) 6 deg(F) − 1.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 162 ©Fradin Patrick – http://mpsi.tuxfamily.org


Décomposition d’une fraction rationnelle Chapitre 18 : Fractions rationnelles

Théorème 18.4 (propriétés)


On retrouve les propriétés usuelles de la dérivation avec les formules usuelles : (F + G)0 = F0 + G0 ; (F ×
¡ ¢0

NE
0
G)0 = F0 × G + F × G0 ; (λ.F)0 = λ.F0 ; F1 = −F
F2
, et la formule de Leibniz :
à !
n n
(n)
F(k) × G(n−k) .
X
(F × G) =
k=0 k

Preuve : Celle-ci est laissée en exercice. 

Définition 18.8 (Dérivée logarithmique)


P0
Soit P un polynôme non nul, la dérivée logarithmique de P est la fraction P.

AIG
Théorème 18.5
Si P est un polynôme non nul qui se factorise en P = P1 × · · · × Pn dans K[X], alors :
P0 P10 P0
P = P1 + · · · + Pnn .

P0 P10 P2 +P1 P20


Preuve : Par récurrence sur n en commençant par le cas n = 2. Si P = P1 P2 alors P 0 = P10 P2 + P1 P20 , d’où P = P1 P2 =
P10 P20
P1 + P2 . Le passage du rang n au rang n + 1 se ramène au cas n = 2. 

III DÉCOMPOSITION D’UNE FRACTION RATIONNELLE

1) Partie entière
Soit F = BA une fraction, on effectue la division euclidienne de A par B : A = BQ + R avec deg(R) < deg(B).
NT
On a alors F = Q + BR avec deg( BR ) < 0 et Q ∈ K[X]. Supposons qu’il existe un autre polynôme S et une fraction
G tels que F = S + G avec deg(G) < 0, alors deg(Q − S) = deg(G − BR ) < 0 donc Q = S car ce sont des polynômes,
et G = BR . On peut donc énoncer :

Théorème 18.6
Soit F ∈ K(X), il existe un unique polynôme Q tel que deg(F−Q) < 0, celui-ci est appelé partie entière
de F, c’est le quotient dans la division euclidienne du numérateur de F par le dénominateur.

Remarque 18.7 – Si deg(F) < 0 alors la partie entière de F est nulle (à cause de l’unicité).

2) Éléments simples
MO

Définition 18.9
A
Un élément simple de K(X) est une fraction du type Bn où B est un polynôme irréductible unitaire
(i.e. B ∈ IK[X] ), deg(A) < deg(B), et n > 1.

– Éléments simples dans C(X) :


on sait que IC[X] = {X − a / a ∈ C}, donc les éléments simples de C(X) sont les fractions :
α
avec α, a ∈ C et n > 1.
(X − a)n

– Éléments simples de R(X) :


on sait que IR[X] = {X − a / a ∈ R} ∪ {X 2 + pX + q / p, q ∈ R, p 2 − 4q < 0}, donc les éléments simples de
R(X) sont de deux types :

MPSI3 (2015-16) LYCÉE M ONTAIGNE 163 ©Fradin Patrick – http://mpsi.tuxfamily.org


Décomposition d’une fraction rationnelle Chapitre 18 : Fractions rationnelles

• éléments simples de première espèce :


α
avec α, a ∈ R et n > 1.

NE
(X − a)n
• éléments simples de seconde espèce :
aX + b
avec a, b, p, q ∈ R, p 2 − 4q < 0, et n > 1.
(X 2 + pX + q)n

Définition 18.10
Décomposer une fraction rationnelle F non nulle, c’est l’écrire comme somme de sa partie entière et
d’éléments simples.

ZExemples :

AIG
3
– F = XX2 +1 , sa partie entière est X, et on a F = X + X−X
2 +1 : c’est la décomposition de F en éléments simples

dans R(X), mais pas dans C(X).


– Dans C(X) on a : F = X + −1/2 −1/2
X+i + X−i .

3) Existence de la décomposition
Soit F une fraction non nulle et non polynomiale : F = BA (forme irréductible), on calcule sa partie entière :
E, on a alors = E + BR avec deg( BR ) < 0, on est alors amené à décomposer une fraction de degré strictement
négatif en éléments simples.
r
m
Pi i (on peut
Q
On factorise le dénominateur B en produit de polynômes irréductibles unitaires : B =
i =1
supposer B unitaire).

Théorème 18.7
NT
A
Si T, S sont deux polynômes premiers entre eux et si deg( TS ) < 0, alors il existe deux polynômes U et
V tels que :
A U V
= + avec deg(U) < deg(T), deg(V) < deg(S).
TS T S

A AU 0 0
Preuve : Il existe deux polynômes U 0 , V 0 tels que U 0 S + V 0 T = 1 (théorème de Bezout), on a alors TS = T + AV
S , soit E1 la
AU 0 AV 0 AU 0 U
partie entière de T et E2 celle de
S , il existe deux polynômes U et V tels que T = E1 + T avec deg(U) < deg(T), et
AV 0 V A U V U V
S = E2 + S avec deg(V) < deg(S), d’où : TS = E1 + E2 + T + S , mais deg( T + S ) < 0, donc E1 + E2 est la partie entière de
A
TS , or celle-ci est nulle, donc E1 + E2 = 0, ce qui donne le résultat. 
Conséquence : Par récurrence on en déduit que si B1 , . . . , Bn sont premiers entre eux deux à deux et si
A
deg( B1 ×...×Bn
) < 0, alors il existe des polynômes U1 , . . . , Un tels que :
MO

A n U
X i
= avec deg(Ui ) < deg(Bi ).
B1 × . . . × Bn i =1 Bi

En appliquant ceci à notre fraction F, on peut affirmer qu’il existe des polynômes (Ui )16i 6r tels que :
r U
X i m
F=E+ mi avec deg(Ui ) < deg[Pi i ].
i =1 Pi

Théorème 18.8
Si T est un polynôme irréductible unitaire et si deg( TAn ) < 0 (n > 1), alors il existe des polynômes
V1 , . . . , Vn tels que :
A n V
X k
n
= k
avec deg(Vk ) < deg(T).
T k=1 T

MPSI3 (2015-16) LYCÉE M ONTAIGNE 164 ©Fradin Patrick – http://mpsi.tuxfamily.org


Décomposition dans le cas complexe Chapitre 18 : Fractions rationnelles

C’est une décomposition en éléments simples.

A
Preuve : Par récurrence sur n : pour n = 1 il n’y a rien à faire. Si le théorème est vrai au rang n et si deg( Tn+1 ) < 0, alors

NE
A Q V
on effectue la division euclidienne de A par T : A = QT + Vn+1 avec deg(Vn+1 ) < deg(T), ce qui donne T n+1
= Tn + Tn+1
n+1 , il
Q
est facile de voir que deg( Tn ) < 0, on peut donc appliquer l’hypothèse de récurrence, ce qui donne le résultat. 
U
On peut appliquer ce théorème à chacune des fractions mii : il existe des polynômes V1,i , . . . , Vmi ,i tels
Pi
que :
mi V
Ui X j ,i
mi = j
avec deg(V j ,i ) < deg(Pi ).
Pi j =1 P
i
Ce qui donne pour F : " #
r mi V
X X j ,i
F=E+ j
.
i =1 j =1 Pi

AIG
C’est une décomposition de F en éléments simples.

Théorème 18.9 (admis)


La décomposition en éléments simples est unique.

0
Théorème 18.10 (décomposition de PP )
m m
Soit P un polynôme non nul et P = λP1 1 × · · · × Pn n sa décomposition en facteurs irréductibles
P0 m 1 P10 m n Pn0
unitaires, alors P = P1 +···+ Pn (décomposition en éléments simples).

Preuve : Découle de la propriété de la dérivée logarithmique. 


NT
IV DÉCOMPOSITION DANS LE CAS COMPLEXE

1) Forme de la décomposition
r
A
∈ C(X), sous forme irréductible, soit E sa partie entière et soit B = (X − a k )mk la factorisa-
Q
Soit F = B
k=1
tion du dénominateur. Les complexes a k sont les pôles de F, et les entiers m k (> 1) sont les multiplicités
respectives.
D’après l’étude générale, la forme de la décomposition de F sera :
" #
r
X m
Xk b j ,k
F=E+ j
.
k=1 j =1 (X − a k )
MO

b j ,k
Chaque pôle de F va donc générer des éléments simples qui lui correspondent : ce sont les (X−a k ) j
pour
j ∈ J1; m k K.

Définition 18.11 (partie polaire)


La somme des éléments simples relatifs au pôle a k est appelée partie polaire de F relative au pôle a k ,
elle est notée PF (a k ).

m
Pk b j ,k
On a donc PF (a k ) = (X−a k ) j
, et la forme de la décomposition de F est :
j =1

F = E + PF (a 1 ) + · · · + PF (a r ).

C’est à dire : partie entière plus les parties polaires relatives aux pôles de F.

La décomposition dans C(X) consiste donc à calculer des parties polaires.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 165 ©Fradin Patrick – http://mpsi.tuxfamily.org


Décomposition dans le cas complexe Chapitre 18 : Fractions rationnelles

2) Calcul d’une partie polaire


Soit F = BA ∈ C(X) (sous forme irréductible) et soit a ∈ C un pôle de F de multiplicité m > 1.

NE
– Cas d’un pôle simple : on prend m = 1. On peut écrire B = (X − a)Q avec Q(a) 6= 0. Comme m = 1, la
c
partie polaire de F relative à a est PF (a) = X−a , en regroupant les parties polaires relatives aux autres
c U
pôles, on peut écrire F = E + X−a + V avec E la partie entière et deg( U V ) < 0. En multipliant par X − a
A
on obtient : Q = (X − a)E + c + (X − a) U
V , mais a n’étant pas un pôle de U
V , on peut évaluer en a, ce qui
A(a) 0
donne : c = Q(a) . Comme B = (X − a)Q, il est facile de voir que Q(a) = B (a), en conclusion :

Si a est un pôle simple de F = BA , alors la partie polaire de F relative à a est :

c A(a) A(a)
PF (a) = X−a avec c = B0 (a) = Q(a) où Q est tel que B = (X − a)Q.

ZExemple : Soit F = Xn1−1 avec n > 1. On a deg(F) < 0 donc la partie entière est nulle. Les pôles de F sont

AIG
les racines n-ièmes de l’unité : a k = exp(2i kπ/n) avec k ∈ J0; n − 1K, et ce sont des pôles simples. La
ck 1 ak
partie polaire de F relative à a k est X−a k avec c k = na kn−1
= n . La décomposition de F est :

1 n−1
X ak
n
= .
X − 1 k=0 n(X − a k )

– Cas d’un pôle double : on prend m = 2, on peut écrire B = (X − a)2 Q avec Q(a) 6= 0, la partie polaire de
α β
F relative à a est PF (a) = X−a + (X−a)2 , en regroupant les parties polaires relatives aux autres pôles, on
obtient :
α β U U
F=E+ + 2
+ avec deg( ) < 0.
X − a (X − a) V V
U A(a)
Si on multiplie le tout par (X − a)2 et que l’on évalue en a (a n’est pas un pôle de V ), on obtient β = Q(a) .
β α
Pour obtenir α, on peut poser G = F − (X−a)2 , on a alors G = E + X−a +UV , donc a est un pôle simple de
NT
G, ce qui nous ramène au cas précédent.
A
Autre méthode : on pose H = (X − a)2 × F = Q , on a en fait H = (X − a)2 E + α(X − a) + β + (X − a)2 U
V , en
évaluant en a on trouve β = H(a), et en évaluant la dérivée en a, on trouve α = H0 (a). En conclusion :

Si a est un pôle double de F = BA , alors la partie polaire de F relative à a est :

α β
PF (a) = X−a + (X−a)2 avec β = H(a) et α = H0 (a), en posant H = (X − a)2 × F.

Remarque 18.8 – Cette autre méthode se généralise au cas d’un pôle a de multiplicité m > 3 en posant
H = (X − a)m × F.
6
ZExemple : Soit F = (X−1)X2 (X3 +1) . La fraction est irréductible et son degré vaut 1, il y a donc une partie entière
MO

non nulle, on trouve E = X + 2 (le dénominateur est égal à X 5 − 2X 4 + X 3 + X 2 − 2X + 1). La fraction possède 4
pôles :
3
* 1 : c’est un pôle double, on pose H = (X − 1)2 × F = XX3 +1 , la partie polaire relative à 1 est :

9/4 1/2
PF (1) = + .
X − 1 (X − 1)2

Car H(1) = 1/2 et H0 (1) = 9/4.


* −1 : c’est un pôle simple, la partie polaire de F relative à −1 est :

1/12
PF (−1) = .
X+1
* − j : c’est un pôle simple, la partie polaire relative à − j est :

1/3
PF (− j ) = .
X+ j

MPSI3 (2015-16) LYCÉE M ONTAIGNE 166 ©Fradin Patrick – http://mpsi.tuxfamily.org


Décomposition dans le cas complexe Chapitre 18 : Fractions rationnelles

* − j 2 : est un pôle simple, la partie polaire relative à − j 2 est :

1/3
PF (− j 2 ) =

NE
.
X+ j2

Finalement, la décomposition de F en éléments simples dans C(X) est :

9/4 1/2 1/12 1/3 1/3


F = X+2+ + 2
+ + + .
X − 1 (X − 1) X+1 X+ j X+ j2

3) Cas particuliers
– Si F est à coefficients réels alors :
les parties polaires relatives aux pôles conjugués, sont conjuguées.
Preuve : Si a est un pôle complexe non réel de F de multiplicité m, alors on sait que a est un pôle de F de
même multiplicité car F ∈ R(X), en regroupant les parties polaires relatives aux pôles autres que a, on obtient :

AIG
F = E + PF (a) + U U
V , où E ∈ R[X] est la partie entière, si on conjugue l’expression, alors on obtient : F = E + PF (a) + V .
m m
P ck P ck
Si on pose PF (a) = (X−a)k
, alors PF (a) = (X−a)k
et donc :
k=1 k=1

m
X ck U
F=E+ + ,
k=1 (X − a)k V

U
mais a n’est pas un pôle de , donc PF (a) est la partie polaire de F relative à a, i.e. PF (a) = PF (a). 
V
1
ZExemple : Soit F = (X2 +X+1) 2 , deg(F) < 0 donc sa partie entière est nulle. F possède deux pôles doubles
H0 ( j ) H( j ) 1
j et j 2 . La partie polaire relative au pôle j est : PF ( j ) = X− j + (X− j )2 en posant H = (X − j )2 × F = (X− j 2 )2
,
p
on obtient H( j ) = −1/3 et H0 ( j ) = − 2i 9 3 . F étant à coefficients réels, la partie polaire relative à 2
j est la
conjuguée de celle relative à j , la décomposition de F est donc :
p p
NT
−1 2i 3 −1 2i 3
F= − + + .
3(X − j )2 9(X − j ) 3(X − j )2 9(X − j )

– Si F est paire ou impaire, alors en utilisant la relation entre F(X) et F(−X) et avec l’unicité de la décom-
position, on obtient des relations entre les coefficients à déterminer dans les parties polaires.
X 4 +1
ZExemple : Soit F = ,
deg(F) < 0 donc la partie entière est nulle. La fraction est irréductible,
X(X 2 −1)2
impaire, et possède un pôle simple : 0, et deux pôles doubles : 1 et −1. La forme générale de la
décomposition de F est :
a b c d e
F= + + + + .
X X − 1 (X − 1)2 X + 1 (X + 1)2
F étant impaire, on a F(X) = −F(−X), ce qui donne :
MO

a b −c d −e
+ +F= 2
+ + .
X X + 1 (X + 1) X − 1 (X − 1)2
(
d =b
L’unicité de la décomposition nous donne les relations : , ce qui fait deux coefficients en
e = −c
moins à calculer. La partie polaire relative à 0 est PF (0) = X1 (pôle simple). En substituant 1 à X dans
(X − 1)2 × F, on obtient c = 1/2, et en faisant tendre x vers +∞ dans la fonction rationnelle x 7→ xF(x),
on obtient la relation 1 = a + b + d i.e. 2b = 0 d’où b = 0, finalement la décomposition de F est :

1 1 1
F= + − .
X 2(X − 1)2 2(X + 1)2

MPSI3 (2015-16) LYCÉE M ONTAIGNE 167 ©Fradin Patrick – http://mpsi.tuxfamily.org


Décomposition dans le cas réel Chapitre 18 : Fractions rationnelles

V DÉCOMPOSITION DANS LE CAS RÉEL

1) Forme de la décomposition

NE
n r
A
∈ R(X) (sous forme irréductible), soit E sa partie entière et soit B = (X − a k )mk × (X 2 +
Q Q
Soit F = B
k=1 k=1
p k X + q k )αk la factorisation de B en produit de facteurs irréductibles unitaires (p k2 − 4q k < 0). D’après l’étude
générale, la forme de la décomposition de F est :

αk
" # " #
Xn m
Xk b j ,k Xr X c j ,k X + d j ,k
F=E+ j
+ 2 j
.
k=1 j =1 (X − a k ) k=1 j =1 (X + p k X + q k )

La première somme est en fait la somme des parties polaires de F relatives aux pôles réels de F. Les
techniques de calculs sont les mêmes dans le cas complexe.
La seconde somme est la somme des éléments simples de seconde espèce.

AIG
2) Calcul des éléments simples de seconde espèce
On se limitera au cas où X 2 + pX + q est un diviseur irréductible de B de multiplicité 1, en regroupant les
autres éléments simples, on obtient :
aX + b U
F=E+ 2 + .
X + pX + q V
Soient c et c les deux racines complexes (non réelles) de X 2 + pX + q, alors c et c ne sont pas pôles de U V , et c
α
et c sont pôles simples de F, on peut calculer la partie polaire de F relative à c dans C(X) : PF (c) = X−c , comme
α
F ∈ R(X) on a PF (c) = X−c , la somme de ces deux parties polaires donne : PF (c) + PF (c) = 2Re(α)X−2Re(αc)
X 2 +pX+q
, c’est
un élément simple de R(X), comme la décomposition dans R(X) est unique, il en résulte que :

aX + b 2Re(α)X − 2Re(αc)
= .
X 2 + pX + q X 2 + pX + q
NT
Autre méthode : Soit H = (X 2 + pX + q) × F, on a : H = (X 2 + pX + q) × E + aX + b + (X 2 + pX + q) × U
V . on obtient
½
H(c) = ac + b
alors le système : , en résolvant on trouve a et b.
H(c) = ac + b
4
ZExemple : Soit F = XX3 −1 , on a deg(F) = 1, il y a donc une partie entière non nulle, celle-ci vaut X, d’autre part
on a X 3 − 1 = (X − 1)(X 2 + X + 1), d’où la forme de la décomposition :

a bX + c
F=X+ + .
X − 1 X2 + X + 1
1 j2
La partie polaire relative à 1 est PF (1) = 3(X−1) . Dans C(X), la partie polaire relative à j est PF ( j ) = 3(X− j ) , et la
j
partie polaire relative à j 2 est la conjuguée, i.e. PF ( j 2 ) = 3(X− j 2 ) , la somme de ces deux parties polaires donne :
MO

−X+1
3(X 2 +X+1)
, la décomposition de F est donc :

1 −X + 1
F=X+ + .
3(X − 1) 3(X 2 + X + 1)

Remarque 18.9 – En évaluant en 0 on obtient c − a = 0 d’où c = a = 1/3. En faisant tendre x vers +∞ dans
2
x(F(x) − x) = x 3x−1 , on obtient a + b = 0 d’où b = −a = −1/3.

VI APPLICATIONS DE LA DÉCOMPOSITION

1) Calcul de la dérivée n-ième d’une fraction

ZExemple : Soit f (x) = x 21+1 , calculons f (n) (x). Dans C(X) on a 1


X 2 +1
= 1
2i (X−i )
1
− 2i (X+i ) , d’où :

1 (−1)n n! (−1)n n!
· ¸
f (n) (x) = − .
2i (x − i )n+1 (x + i )n+1

MPSI3 (2015-16) LYCÉE M ONTAIGNE 168 ©Fradin Patrick – http://mpsi.tuxfamily.org


Applications de la décomposition Chapitre 18 : Fractions rationnelles

Ce qui donne :
n
bP
2 c¡
n+1 ¢ k n−2k
2k+1 (−1) x
Im((x + i )n+1 )

NE
k=0
f (n) (x) = (−1)n n! n+1
= (−1)n n! .
2
(x + 1) (x 2 + 1)n+1
FExercice 18.1 Calculer la dérivée n-ième de la fonction f (x) = (x−1)(xx2 +x+1) .
X
Solution 18.1 Soit F = (X−1)(X 2 +X+1)
. La décomposition dans C(X) de F donne :

1 j2 j
F= + + .
3(X − 1) 3(X − j ) 3(X − j 2 )
On a donc :
(−1)n n! j2
· µ ¶¸
1
f (n) (x) = + 2Re ,
3 (x − 1)n+1 (x − j )n+1
j2 j 2 (x− j 2 )n+1
or (x− j )n+1
= (x 2 +x+1)n+1
, ce qui donne finalement :

AIG
n+1
 
P ¡n+1¢ k n+1−k
k (−1) cos(4(k + 1)π/3)x
(−1)n n!  1 k=0

f (n) (x) = +2 .
 
 (x − 1)n+1 (x 2 + x + 1)n+1

3 

2) Primitives d’une fraction rationnelle


Soit F ∈ R(X), on décompose F en éléments simples dans R(X), on est donc ramené à calculer des
primitives de trois types :
– La partie entière : c’est un polynôme.
1
– Les éléments simples de première espèce : (X−a) n avec n > 1, on sait les intégrer, car :

Z x (
dt ln(|x − a|) si n = 1
n
= −1
.
(t − a) si n > 2
(n−1)(x−a)n−1
NT
aX+b
– Les éléments simples de seconde espèce : X 2 +pX+q
, pour ceux-là la méthode est la suivante :
2
• on fait apparaître la dérivée du trinôme X + pX + q au numérateur et on compense les X en mul-
tipliant par un facteur adéquat, puis on compense les constantes en ajoutant ce qu’il faut, ce qui
donne :
aX + b a 2X + p ap 1
= + (b − ) .
X 2 + pX + q 2 X 2 + pX + q 2 X 2 + pX + q
0
La première de ces deux fractions est facile à intégrer (du type uu ).
• Pour la deuxième fraction : on met le trinôme X 2 + pX + q sous forme canonique afin de mettre la
u0
fraction sous la forme : α 1+u 2 où u est une fonction de x, cette fonction est s’intègre en α arctan(u).
R x dt
ZExemple : Calculons F(x) = t 3 +1 sur ] − 1; +∞[ :
On décompose la fraction rationnelle X31+1 en éléments simples dans R(X), ce qui donne :
MO

1 1 X−2
= − .
X3 + 1 2
3(X + 1) 3(X − X + 1)
On a :
X−2 1 2X − 1 3 1
= −
X2 − X + 1 2
2 X −X+1 2 X −X+1 2
et : p
1 1 2 2/ 3
= =p ³ ´2 .
X 2 − X + 1 (X − 1/2)2 + 3/4 3 2X−1
p +1
3
On en déduit alors : p
1 1 2 3 2x − 1
F(x) = ln(x + 1) − ln(x − x + 1) + arctan( p ).
3 6 3 3
C’est à dire : p
1 x +1 3 2x − 1
F(x) = ln( p )+ arctan( p ) + cte.
3 x2 − x + 1 3 3

MPSI3 (2015-16) LYCÉE M ONTAIGNE 169 ©Fradin Patrick – http://mpsi.tuxfamily.org


NE
Chapitre 19

Espaces vectoriels

AIG
Sommaire
I Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
2) Exemples de référence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
3) Règles de calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
4) Sous-espaces vectoriels d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . 171
II Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
1) Définition, noyau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
3) S.e.v. et applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
III S.e.v. d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
1) Sous-espace engendré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
2) Somme de sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
3) Sommes directes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
NT
4) S.e.v. supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
IV Projections, symétries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
1) Projecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
2) Symétries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178

Dans ce chapitre, K désigne un sous-corps de C.

I GÉNÉRALITÉS

1) Définition
MO

Définition 19.1
Soit E un ensemble non vide, on dit que E est un K - espace vectoriel (ou K-e.v.) lorsque E possède une
addition et un produit par les scalaires (loi de composition externe, notée « . », c’est une application :
K×E → E
), avec les propriétés suivantes :
(λ, x) 7→ λ.x
−→
– (E, +) est un groupe abélien (l’élément neutre est noté 0E ou 0E et appelé vecteur nul de E).
– La loi . (ou produit par les scalaires) doit vérifier : ∀ λ, µ ∈ K, ∀ x, y ∈ E :
• 1.x = x
• λ.(x + y) = λ.x + λ.y
• (λ + µ).x = λ.x + µ.x
• λ.(µ.x) = (λµ).x
Si ces propriétés sont vérifiées, on dit que (E, +, .) est un K - e.v., les éléments de K sont appelés les
scalaires et les éléments de E sont appelés vecteurs (parfois notés avec une flèche).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 170 ©Fradin Patrick – http://mpsi.tuxfamily.org


Généralités Chapitre 19 : Espaces vectoriels

NE
2) Exemples de référence

ZExemples :
– Un corps K est un K-e.v..
– R est un Q-e.v., C est un Q-e.v., C est un R-e.v. Plus généralement si K est corps inclus dans un autre
corps L, alors L est un K-e.v..
– L’ensemble Kn muni des opérations suivantes :

(x 1 , . . . , x n ) + (y 1 , . . . , y n ) = (x 1 + y 1 , . . . , x n + y n ) et λ.(x 1 , . . . , x n ) = (λx 1 , . . . , λx n ),

est un K-e.v., le vecteur nul est le n-uplet : (0, . . . , 0).


– Si I est un ensemble non vide, alors l’ensemble des applications de I vers K : F (I, K), pour les opérations
usuelles (addition de deux fonctions et produit par un scalaire) est un K-e.v., le vecteur nul étant

AIG
l’application nulle. En particulier (C n (I, K), +, .) sont des K-e.v., ainsi que l’espace des suites à valeurs
dans K.
Plus généralement, si E est un K-e.v., l’ensemble des applications de I vers E : F (I, E), pour les opéra-
tions usuelles sur les fonctions, est un K-e.v..
– (K[X], +, .), (K(X), +, .) sont des K-espaces vectoriels.
– Espace produit : Soient E et F deux K-e.v., on définit sur E × F l’addition : (x, y) + (x 0 , y 0 ) = (x + x 0 , y + y 0 ),
et un produit par les scalaires : λ.(x, y) = (λ.x, λ.y). On peut vérifier alors que (E × F, +, .) est un K-e.v., le
vecteur nul étant (0E , 0F ). Cela se généralise au produit cartésien d’un nombre fini de K-e.v.

3) Règles de calculs
Soit E un K-e.v.

− →
− → −
– ∀→−
x ∈ E, 0.→

x = 0 , et ∀ λ ∈ K, λ. 0 = 0 .
– ∀→−
x ∈ E, ∀ λ ∈ K, −(λ.→−
x ) = (−λ).→−
x = λ.(−→−
x ).

− →
− →
− →
− →

– ∀ x ∈ E, ∀ λ ∈ K, λ. x = 0 =⇒ λ = 0 ou x = 0 .
NT
4) Sous-espaces vectoriels d’un espace vectoriel

Définition 19.2
Soit E un K-e.v. et soit H un ensemble, on dit que H est un sous-espace vectoriel de E (ou s.e.v de E)
lorsque :
– H ⊂ E, H 6= ;.
– ∀ x, y ∈ H, x + y ∈ H (H est stable pour l’addition).
– ∀ x ∈ H, ∀ λ ∈ K, λ.x ∈ H (H est stable pour la loi .).
Si c’est le cas, alors il est facile de vérifier que (H, +, .) est lui-même un K-e.v.

ZExemples :
– L (E, F) est un s.e.v. de F (E, F).
MO

– L’ensemble des fonctions paires (respectivement impaires, bornées, T-périodiques, lipschitziennes)


définies sur R est un s.e.v. de F (R, R).
– L’ensemble (C n (I, C), +, .) est un sous-espace vectoriel de (F (I, C), +, .).
– L’ensemble (Kn [X], +, .) est un sous-espace vectoriel de (K[X], +, .).
– L’ensemble des suites complexes de limite nulle et un s.e.v de l’espace des suites complexes conver-
gentes, qui est lui-même un s.e.v de l’espace de suites complexes bornées, qui est lui-même un s.e.v de
l’espace des suites complexes.
– Soient a, b, c ∈ K, F = {(x, y, z) ∈ K3 / ax + b y + c z = 0} est un s.e.v de K3 .

Théorème 19.1 (intersection de sous-espaces vectoriels)


T
Soit (Hi )i ∈I une famille de s.e.v de E (I est un ensemble d’indices), alors Hi est un s.e.v de E.
i ∈I

MPSI3 (2015-16) LYCÉE M ONTAIGNE 171 ©Fradin Patrick – http://mpsi.tuxfamily.org


Applications linéaires Chapitre 19 : Espaces vectoriels

Preuve : Celle-ci est simple et laissée en exercice. 

NE
II APPLICATIONS LINÉAIRES

1) Définition, noyau

Définition 19.3
Soient E et F deux K-e.v. et soit f : E → F une application, on dit que f est une application linéaire (ou
morphisme de K-espaces vectoriels), lorsque :
∀ x, y ∈ E, ∀ λ ∈ K, f (x + y) = f (x) + f (y) et f (λ.x) = λ. f (x).
Si de plus, f est bijective, alors on dit que f est un isomorphisme (d’espaces vectoriels). L’ensemble
des applications linéaires de E vers F est noté L (E, F).

AIG
Remarque 19.1 – Les applications linéaires de K dans K sont les applications de la forme f (x) = ax (a ∈ K),
car f (x) = x f (1).
ZExemples :
– L’application nulle (notée 0) de E vers F est linéaire.
– L’application identité de E : idE : E → E définie par idE (x) = x, est linéaire bijective (et (idE )−1 = idE ).
– Soit λ ∈ K∗ , l’homothétie de rapport λ : h λ : E → E, définie par h λ (x) = λ.x, est linéaire et bijective. Sa
réciproque est l’homothétie de rapport 1/λ. L’ensemble des homothéties de E est un groupe pour la loi
◦ car c’est un sous-groupe du groupe des permutations de E.
– L’application f : K2 → K2 définie par f (x, y) = (x; −y) est un isomorphisme de K2 sur lui-même.

À retenir
f ∈ L (E, F) alors f (0E ) = 0F et ∀x ∈ E, f (−x) = − f (x).
NT
Définition 19.4 (vocabulaire)
– Une application linéaire de E vers E est appelée un endomorphisme de E. L’ensemble des endo-
morphismes de E est noté L (E) (on a donc L (E) = L (E, E)).
– Un isomorphisme de E vers E est appelé un automorphisme de E. L’ensemble des automorphismes
de E est noté GL(E) et appelé groupe linéaire de E.
– Une application linéaire de E vers K est appelée une forme linéaire sur E. L’ensemble des formes
linéaires sur E est noté E∗ et appelé dual de E (on a donc E∗ = L (E, K)).

ZExemples :
MO

– idE ∈ GL(E), ∀ λ ∈ K∗ , h λ ∈ GL(E).


R1
– Soit E = C 0 ([0; 1], R) et φ : E → R définie par φ( f ) = 0 f (t ) d t , alors φ est une forme linéaire sur E.
– Soit E = {u ∈ F (N, C) / (u n ) converge} est un C-e.v. et l’application φ : E → C définie par φ(u) = lim u n ,
est une forme linéaire sur E.
– Soient a, b, c ∈ K, l’application φ : K3 → K définie par φ(x, y, z) = ax + b y + c z, est une forme linéaire
sur K3 . En exercice, montrer la réciproque, c’est à dire que toutes les formes linéaires sur K3 sont de ce
type.

Définition 19.5 (Noyau d’une application linéaire)


Soit f ∈ L (E, F), on appelle noyau de f l’ensemble noté ker( f ) et défini par :
© ª
ker( f ) = x ∈ E / f (x) = 0F
Le noyau de f contient toujours 0E .

MPSI3 (2015-16) LYCÉE M ONTAIGNE 172 ©Fradin Patrick – http://mpsi.tuxfamily.org


Applications linéaires Chapitre 19 : Espaces vectoriels

ZExemples :
– Le noyau d’une application linéaire bijective est {0E }.
– Le noyau de l’application linéaire d : K[X] → K[x] définie par d (P) = P 0 est ker(d ) = K.

NE
– Le noyau de l’application linéaire f : K3 → K2 définie par f (x, y, z) = (x + y + z, x − 2y − z) est ker( f ) =
{(x, 2x, −3x / x ∈ K}.

2) Propriétés
Il est facile de vérifier les propriétés suivantes :
– f ∈ L (E, F) est injective si et seulement si ker( f ) = {0E }.
– La composée de deux applications linéaires est linéaire. On en déduit que GL(E) est stable pour la loi ◦.
– Si f ∈ L (E, F) est un isomorphisme, alors f −1 ∈ L (F, E). On en déduit que GL(E) est stable par symétri-
sation, i.e. si f ∈ GL(E), alors f −1 ∈ GL(E).
– (GL(E), ◦) est un groupe (non abélien en général), c’est en fait un sous-groupe du groupe des permuta-

AIG
tions de E : (S E , ◦).
– Si f , g ∈ L (E, F) et si λ ∈ K, alors f + g et λ. f sont linéaires. On en déduit que (L (E, F), +, .) est un K-e.v.
(s.e.v. de F (E, F)).
– (L (E), +, ◦) est un anneau, la loi ◦ jouant le rôle d’une multiplication.
Remarque 19.2 –
– En général, l’anneau L (E) n’est pas commutatif. Le groupe des inversibles de cet anneau est GL(E).
– La loi ◦ jouant le rôle d’une multiplication, on adopte les notations usuelles des anneaux pour les
puissances, i.e. si u ∈ L (E) et si n est entier, alors :

idE

 si n = 0
un = u ◦···◦u n fois si n > 0 ,

u −1 ◦ · · · ◦ u −1

−n fois si u est inversible et n < 0

de plus si u, v ∈ L (E) commutent (i.e. u ◦ v = v ◦ u), alors on peut utiliser le binôme de Newton :
NT
à !
n n
n
u k ◦ v n−k
X
(u + v) =
k=0 k

– Soit E = K2 et f : (x; y) 7→ (y; 0), on vérifie facilement que f ∈ L (E) et que f 2 = 0 (application nulle),
pourtant f 6= 0. Cet exemple montre qu’en général L (E) n’est pas un anneau intègre.

3) S.e.v. et applications linéaires

Théorème 19.2 (noyau et image d’une application linéaire)


Si f ∈ L (E, F) alors ker( f ) est un s.e.v de E et Im( f ) est un s.e.v de F.
MO

Preuve : Celle-ci est simple et laissée en exercice. 

À retenir
Soit f ∈ L (E, F) alors f est un isomorphisme si et seulement si ker( f ) = {0E } et Im( f ) = F.

Théorème 19.3 (image d’un s.e.v par une application linéaire)


Soit H un s.e.v de E et f ∈ L (E, F), alors f (H) (ensemble des images par f des éléments de H) est un
s.e.v de F.

Preuve : Il suffit de considérer la restriction de f à H : g : H → F définie par ∀ x ∈ H, g (x) = f (x), il est clair que g est
linéaire et que f (H) = Im(g ), on peut appliquer alors le théorème précédent. 

MPSI3 (2015-16) LYCÉE M ONTAIGNE 173 ©Fradin Patrick – http://mpsi.tuxfamily.org


S.e.v. d’un espace vectoriel Chapitre 19 : Espaces vectoriels

Théorème 19.4 (image réciproque d’un s.e.v par une application linéaire)
Soit H un s.e.v de F et soit f ∈ L (E, F) alors f −1 (H) (ensemble des antécédents des éléments de H par

NE
f ) est un s.e.v de E.

Preuve : Celle-ci est simple et laissée en exercice. 


ZExemples : Rb
– H = { f ∈ C 0 ([a; b], R) / 0 f = 0} est un s.e.v de C 0 ([a; b], R), car c’est le noyau de la forme linéaire
Rb
φ : f 7→ 0 f .
– H = {(x, y, z) ∈ K3 / ax +b y +cz = 0} est un s.e.v de K3 car c’est le noyau de la forme linéaire φ : (x, y, z) 7→
ax + b y + cz.
– H = {(x, y, z) ∈ K3 / 2x + y − z = 0 et 3x − 2z = 0} est un s.e.v de K3 car c’est l’intersection des noyaux des
deux formes linéaires : φ1 : (x, y, z) 7→ 2x + y − z et φ2 : (x, y, z) 7→ 3x − 2z.

AIG
Définition 19.6 (hyperplan)
Soit H un s.e.v de E, on dit que H est un hyperplan de E lorsqu’il existe une forme linéaire φ sur E,
non identiquement nulle, telle que H = ker(φ).

III S.E.V. D’UN ESPACE VECTORIEL

1) Sous-espace engendré

Définition 19.7 (combinaisons linéaires d’un nombre fini de vecteurs)


Soit E un K-e.v et soit x 1 , . . . , x n des vecteurs de E. On appelle combinaison linéaire de la famille
(x i )16i 6n , tout vecteur x de E pour lequel il existe des scalaires λ1 , . . . , λn tels que :
n
NT
λi x i .
P
x=
i =1
L’ensemble des combinaisons linéaires de la famille (x i )16i 6n est noté Vect [x 1 , . . . , x n ].
Deux vecteurs x et y de E sont dits colinéaires lorsque l’un des deux est combinaison linéaire de
l’autre, i.e. ∃ λ ∈ K, x = λy ou y = λx.

ZExemples :
– Vect [0E ] = {0E }.
– Si x ∈ E \ {0E }, alors Vect [x] = {λx / λ ∈ K}, c’est un s.e.v de E appelé droite vectorielle engendrée par x.
On dit que x est un vecteur directeur de cette droite. Les autres vecteurs directeurs sont les vecteurs de
la forme λx avec λ 6= 0.
£ ¤
– Soient x, y ∈ E deux vecteurs non nuls, si les deux vecteurs sont colinéaires, alors Vect x, y = Vect [x] =
MO

£ ¤
Vect y (droite vectorielle). Si ces deux vecteurs sont non colinéaires, alors :

Vect x, y = αx + βy / α, β ∈ K
£ ¤ © ª

c’est un s.e.v de E, on l’appelle plan vectoriel engendré par x et y, il contient (strictement) les deux
droites engendrées par x et y.
– Dans K3 déterminer une équation cartésienne du plan vectoriel engendré par les vecteurs x = (1, 1, 1)
et y = (0, −1, 1).

Théorème 19.5 (image d’une combinaison linéaire par une application linéaire)
Soit E un K-e.v et soit (x i )16i 6n une famille de vecteurs de E. Soit f ∈ L (E, F), alors l’image par f d’une
combinaison linéaire de la famille (x i )16i 6n et une combinaison linéaire de la famille ( f (x i ))16i 6n
(dans F) avec les mêmes coefficients.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 174 ©Fradin Patrick – http://mpsi.tuxfamily.org


S.e.v. d’un espace vectoriel Chapitre 19 : Espaces vectoriels

NE
Preuve : Par récurrence sur n : pour n = 1 il n’y a rien à démontrer. Supposons le théorème vrai au rang n, et soit
x = λ1 x 1 + · · · + λn+1 x n+1 , f étant linéaire, on peut écrire f (x) = f (λ1 x 1 + · · · + λn x n ) + λn+1 . f (x n+1 ), on applique alors
l’hypothèse de récurrence pour conclure. 

Définition 19.8 (généralisation)


Soit (x i )i ∈I une famille de vecteurs de E. On appelle combinaison linéaire de la famille, tout vecteur de
E pouvant s’écrire comme combinaison linéaire d’un nombre fini de vecteurs de la famille. Notation :
j ∈J α j x j / J partie finie de I et ∀ j ∈ J, α j ∈ K .
©P ª
Vect [(x i )i ∈I ] =

Remarque 19.3 – Si X est une partie de E, on notera Vect [X] l’ensemble des combinaisons linéaires des vecteurs
de X. On peut écrire : ½ ¾
αx x / (αx )x∈X est une famille de scalaires tous nuls sauf un nombre fini .
P
Vect [X] =

AIG
x∈X
De telles familles de scalaires sont appelées familles à support fini. Le théorème 19.5 se généralise alors
ainsi :
Si f ∈ L (E, F) alors f ( αx x) = αx f (x), pour toute famille de scalaires (αx )x∈X à support fini.
P P
x∈X x∈X

Théorème 19.6 (sous-espace engendré)


Soit (x i )i ∈I une famille de vecteurs de E, Vect [(x i )i ∈I ] est un s.e.v de E. C’est même le plus petit (pour
l’inclusion) s.e.v de E qui contient tous les vecteurs de cette famille. On l’appelle s.e.v engendré par
(x i )i ∈I .

Preuve : Celle-ci est simple et laissée en exercice. 


ZExemples :
– Soit E = Kn pour i ∈ J1; n K on pose e i = (δi ,1 , . . . , δi ,n ), on a alors E = Vect [e 1 , . . . , e n ].
– Soit H = {u ∈ K3 / ∃ α, β, γ ∈ K, u = (α − β, 2α − 2β + γ, −α + β + 2γ)}. Posons e 1 = (1, 2, −1), e 2 = (−1, −2, 1)
et e 3 = (0, 1, 2), on a alors H = Vect [e 1 , e 2 , e 3 ], ce qui prouve que H est un s.e.v de K3 . On remarque que
NT
e 2 = −e 1 , donc finalement H = Vect [e 1 , e 3 ], et comme e 1 et e 3 ne sont pas colinéaires, H est un plan
vectoriel.
– Soit E = F (R, R), les deux fonctions idR et 1 sont non colinéaires, donc elles engendrent un plan
vectoriel dans E : P = Vect [idR , 1]. f ∈ P équivaut à ∃ a, b ∈ R, f = a.idR + b.1, et donc f : x 7→ ax + b, P
est donc l’ensemble des applications affines.

2) Somme de sous-espaces vectoriels

Définition 19.9 (somme de s.e.v)


Soient F et G deux s.e.v de E, on appelle somme de F et G l’ensemble noté F + G et défini par :
F + G = {x ∈ E / ∃ u ∈ F, v ∈ G, x = u + v}.
Plus généralement, si F1 , . . . , Fp sont des s.e.v. de E, la somme de ces s.e.v. est :
F1 + · · · + Fp = {x ∈ E / ∃ u 1 ∈ F1 , . . . , u p ∈ Fp , x = u 1 + · · · + u p }.
MO

Théorème 19.7
Une somme de s.e.v de E est un s.e.v de E.

Preuve : F1 , . . . , Fp sont des s.e.v de E , donc ce sont en particulier des K-e.v, par conséquent le produit cartésien
F1 × · · · × Fp est lui-même un K-e.v. On considère alors l’application f : F1 × · · · × Fp → E définie par f (u 1 , . . . , u p ) =
u 1 + · · · + u p . On vérifie facilement que f est linéaire, il est clair d’après la définition que F1 + · · · + Fp = Im( f ), et donc
c’est un s.e.v de E. 
ZExemples :
– Dans K3 , posons i = (1, 0, 0), j = (0, 1, 0), k = (0, 0, 1), on peut vérifier que K3 = Vect [i ] + Vect j +
£ ¤
£ ¤ £ ¤
Vect [k] = Vect i , j + Vect [k] = Vect [i ] + Vect j , k .
£ ¤ £ ¤
– Soient x, y ∈ E deux vecteurs, on a Vect [x]+Vect y = Vect x, y . Plus généralement, on peut remplacer
x et y par deux familles de vecteurs de E (et cela se généralise à plus de deux).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 175 ©Fradin Patrick – http://mpsi.tuxfamily.org


S.e.v. d’un espace vectoriel Chapitre 19 : Espaces vectoriels

3) Sommes directes

NE
Définition 19.10 (somme directe)
Soient F1 , . . . , Fp des s.e.v de E, on dit que la somme F1 + · · · + Fp est directe lorsque tout vecteur de
cette somme s’écrit de manière unique sous la forme u 1 + · · · + u p avec u i ∈ Fi , 1 6 i 6 p. Si c’est le
cas, la somme est notée F1 ⊕ · · · ⊕ Fp .

Théorème 19.8 (caractérisation des sommes directes)


Soient F1 , . . . , Fp des s.e.v de E, les assertions suivantes sont équivalentes :
a) la somme F1 + · · · + Fp est directe.
b) ∀ (x 1 , . . . , x p ) ∈ F1 × · · · × Fp , si x 1 + · · · + x p = 0E alors x 1 = · · · = x p = 0E .
c) ∀i ∈ J1; p K, l’intersection entre Fi et la somme des autres s.e.v. est réduite à {0E }.

AIG
d) l’application linéaire φ : F1 × · · · × Fp → E définie par φ(x 1 , . . . , x p ) = x 1 + · · · + x p est injective.

Pp Pp Pp
Preuve : Montrons a) =⇒ b) : soient x i ∈ Fi tels que i =1 x i = 0E , alors i =1 x i = i =1 0E , or 0E est dans chaque Fi ,
l’unicité permet de conclure que x i = 0E .
Montrons que b) =⇒ c) : soient x 1 ∈ F1 ∩ (F2 + · · · + Fp ) alors il existe x 2 ∈ F2 , . . . , x p ∈ Fp tels que x 1 = x 2 + · · · + x p ,
alors x 1 − x 2 − · · · − x p = 0E avec −x i ∈ Fi , et donc chacun de ces vecteurs est nul, en particulier x 1 . Le raisonnement est
le même si on permute les indices.
Montrons c) =⇒ d ) : si (x 1 , . . . , x p ) ∈ ker(φ) alors x 1 + · · · + x p = 0E et donc x 1 = −x 2 − · · · − x p , or ce vecteur est dans
F2 + · · · + Fp , donc x 1 = 0E , le même façon on montre que les autres sont nuls et donc que φ est injective.
Montrons que d ) =⇒ a) : Si x 1 + · · · + x p = y 1 + · · · + y p avec x i , y i ∈ Fi , alors (x 1 − y 1 ) + · · · + (x p − y p ) = 0E , donc
(x 1 − y 1 , . . . , x p − y p ) ∈ ker(φ) (car x i − y i ∈ Fi ), φ étant injective il vient que x i − y i = 0E d’où l’unicité de la décomposition,
la somme est donc directe. 
ZExemples :
– Dans F (R, R) le s.e.v des fonctions paires et le s.e.v des fonctions impaires sont en somme directe.
NT
– Dans K3 le plan P d’équation x + y + z = 0 et la droite engendrée par le vecteur i = (1, 1, 1) sont en
somme directe, mais P n’est pas en somme directe avec le plan P 0 engendré par i et j = (1, −1, 1).

À retenir
Cas de deux s.e.v. : F1 et F2 , s.e.v. de E, sont en somme directe si et seulement si F1 ∩ F2 = {0E }.

Ceci est faux à partir de trois s.e.v. de E.

4) S.e.v. supplémentaires
MO

Définition 19.11 (s.e.v supplémentaires)


Soient F et G deux s.e.v de E , on dit que F et G sont supplémentaires lorsque F ⊕ G = E. Ce qui signifie
que E = F + G et la somme F + G est directe, ou encore : tout vecteur de E s’écrit de manière unique
comme somme d’un vecteur de F et d’un vecteur de G.

ZExemples :
– Dans F (R, R) le s.e.v des fonctions paires et le s.e.v des fonctions impaires sont supplémentaires.
Rb
– Dans E = C 0 ([a; b], R) le s.e.v H = { f ∈ E / a f = 0} et le s.e.v G = Vect [idR ] sont supplémentaires.

Théorème 19.9 (caractérisations des hyperplans)


Soit H un s.e.v de E, les assertions suivantes sont équivalentes :
a) H est un hyperplan de E (i.e. le noyau d’une forme linéaire sur E non nulle).
b) ∀ x 0 ∈ E \ H, H ⊕ Vect [x 0 ] = E.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 176 ©Fradin Patrick – http://mpsi.tuxfamily.org


Projections, symétries Chapitre 19 : Espaces vectoriels

c) ∃ x 0 ∈ E \ H tel que H ⊕ Vect [x 0 ] = E.

Preuve : Montrons que a) =⇒ b) : soit x 0 ∈ E \ H, comme x 0 n’est pas dans H, il est facile de voir que H et Vect [x 0 ] sont

NE
en somme directe. Soit φ une forme linéaire (non nulle) telle que ker(φ) = H, on a φ(x 0 ) = α 6= 0, soit x ∈ E et λ = φ(x),
posons y = x − αλ x 0 , on a φ(y) = 0, donc y ∈ H et de plus x = y + αλ x 0 , ce qui prouve que E = H + Vect [x 0 ].
Montrons que b) =⇒ c) : rien à faire.
Montrons que c) =⇒ a) : Pour x ∈ E, il existe y ∈ H et λ ∈ K, uniques tels que x = y + λx 0 . Posons φ(x) = λ. On
définit ainsi une application non nulle de E vers K, on peut vérifier ensuite que φ est bien linéaire (laissé en exercice),
x ∈ ker(φ) ⇐⇒ λ = 0 ⇐⇒ x = y ⇐⇒ x ∈ H, donc ker(φ) = H, ce qui prouve que H est un hyperplan. 

IV PROJECTIONS, SYMÉTRIES

1) Projecteurs

Définition 19.12

AIG
Soit E un K-e.v, une projection dans E (ou un projecteur de E) est un endomorphisme p de E tel que
p 2 = p (i.e. p ◦ p = p).

ZExemples :
– E = K2 et p(x, y) = (x, 0).
f (x)+ f (−x)
– E = F (R, R) et p qui à f ∈ E associe p( f ) : x 7→ 2 .
Remarque 19.4 – Invariants d’un endomorphisme : si f ∈ L (E), alors x ∈ E est invariant par f (ou un point
fixe de f ) si et seulement si f (x) = x, ce qui équivaut à ( f − idE )(x) = 0E , ou encore x ∈ ker( f − idE ). L’ensemble
des points fixes de f est donc le s.e.v ker( f − idE ).

Théorème 19.10 (caractérisation des projections)


p ∈ L (E) est un projecteur ⇐⇒ E = ker(p) ⊕ ker(p − idE ). Si c’est le cas, alors Im(p) = ker(p − idE ) et
NT
on dit que p est la projection sur Im(p) parallèlement à ker(p). Tout vecteur x de E se décompose de
la manière suivante : x = (x − p(x)) + p(x), avec x − p(x) ∈ ker(p) et p(x) ∈ ker(p − idE ).

Preuve : Si p est un projecteur, soit x ∈ ker(p) ∩ ker(p − idE ), alors p(x) = 0E = x, donc la somme est directe. Soit x ∈ E,
alors p(x − p(x)) = p(x) − p 2 (x) = 0E , donc x − p(x) ∈ ker(p), on a alors x = (x − p(x)) + p(x) et p(x) ∈ ker(p − idE ),
donc E = ker(p) ⊕ ker(p − idE ). De la définition, il découle que Im(p) ⊂ ker(p − idE ), l’inclusion étant évidente, on a
Im(p) = ker(p − i d E ).
Réciproque : si E = ker(p) ⊕ ker(p − idE ), soit x ∈ E, alors x = y + z avec y ∈ ker(p) et z ∈ ker(p − idE ), d’où p(x) =
p(y) + p(z) = p(z) = z, et donc p 2 (x) = p(z) = z = p(x), ce qui prouve que p est un projecteur. 

ker(p)

x
MO

x − p(x)

Im(p)

p(x) ker(p − id)

ZExemples :
– Dans le premier exemple, p est la projection sur la droite Vect [(1, 0)] et parallèlement à la droite
Vect [(0, 1)].

MPSI3 (2015-16) LYCÉE M ONTAIGNE 177 ©Fradin Patrick – http://mpsi.tuxfamily.org


Projections, symétries Chapitre 19 : Espaces vectoriels

– Dans le deuxième exemple, p est la projection sur le s.e.v des fonctions paires, parallèlement au s.e.v
des fonctions impaires.

NE
Théorème 19.11 (projection associée à une décomposition)
Si F et G sont deux s.e.v de E supplémentaires (E = F ⊕ G), alors il existe une unique projection p telle
que Im(p) = F et ker(p) = G, i.e. qui soit la projection sur F parallèlement à G.

Preuve : Pour x ∈ E, il existe x F ∈ F et x G ∈ G, uniques tels que x = x F + x G , on pose alors p(x) = x F , ce qui définit une
application de E dans E. On vérifie facilement que p est linéaire, et comme x F ∈ F, on a par définition même de p, que
p 2 (x) = x F = p(x), donc p est bien un projecteur. On a p(x) = 0E ⇐⇒ x F = 0E ⇐⇒ x = x G ⇐⇒ x ∈ G, donc ker(p) = G,
d’autre part, p(x) = x ⇐⇒ x = x F ⇐⇒ x ∈ F, donc ker(p − idE ) = F, ce qui termine la preuve. 
ZExemples :
– Soit E = K3 , F = {(x, y, z) ∈ E / z = 0} et G = Vect [(1, 1, 1)]. Montrer que F et G sont supplémentaires, et
déterminer l’expression analytique de la projection sur F parallèlement à G.

AIG
– Soit p un projecteur de E, montrer que q = idE − p est un projecteur, préciser ses éléments caractéris-
tiques.

2) Symétries

Définition 19.13
Soit E un K-e.v, une symétrie de E est un endomorphisme s tel que s 2 = idE (involution linéaire).

ZExemples :
– Dans E = K2 , l’application s définie par s(x, y) = (y, x) est une symétrie.
– Dans E = F (R, R) l’application s définie par s( f ) est la fonction qui à s( f ) : x 7→ f (−x), est une symétrie.

Théorème 19.12 (caractérisation des symétries)


Soit s ∈ L (E), s est une symétrie ⇐⇒ E = ker(s−idE )⊕ker(s+idE ). Ce qui revient à dire que l’application
NT
p = 12 (idE + s) est une projection. Si c’est le cas, on dit que s est la symétrie par rapport à ker(s − idE )
(ensemble des invariants) et parallèlement à ker(s + idE ), et on dit que p est la projection associée à s.
Tout vecteur x de E se décompose de la manière suivante :
x = 21 (x + s(x)) + 12 (x − s(x)),
avec 21 (x + s(x)) ∈ ker(s − idE ) et 12 (x − s(x)) ∈ ker(s + idE ).

Preuve : Posons p = 12 (idE + s), s est une symétrie équivaut à s 2 = idE , c’est à dire (2p − idE )2 = idE , ou encore p 2 = p, ce
qui équivaut à dire que E = ker(p) ⊕ ker(p − idE ), et donc E = ker(s + idE ) ⊕ ker(s − idE ). 

ker(p) = ker(s + id)


MO

x − p(x)

ker(p − id)
p(x) ker(s − id)

p(x) − x

s(x)

MPSI3 (2015-16) LYCÉE M ONTAIGNE 178 ©Fradin Patrick – http://mpsi.tuxfamily.org


Projections, symétries Chapitre 19 : Espaces vectoriels

Théorème 19.13 (symétrie associée à une décomposition)


Si F et G sont deux s.e.v de E supplémentaires (E = F ⊕ G), alors il existe une unique symétrie s telle

NE
que ker(s − idE ) = F et ker(s + idE ) = G, i.e. qui soit la symétrie par rapport à F et parallèlement à G.

Preuve : Soit p la projection sur F parallèlement à G, posons s = 2p − idE , on sait alors que s est une symétrie et
ker(s − idE ) = ker(p − idE ) = F et ker(s + idE ) = ker(p) = G, donc s existe. Réciproquement, si s existe, alors la projection
associée est nécessairement la projection sur F parallèlement à G, or celle-ci est unique, c’est p, donc s est unique. 

ZExemples :
– Dans le premier exemple ci-dessus, s est la symétrie par rapport à la droite Vect [(1, 1)] et parallèlement
à la droite Vect [(1, −1)].
– Dans le deuxième exemple, s est la symétrie par rapport au s.e.v des fonctions paires, et parallèlement
au s.e.v des fonctions impaires.

AIG
NT
MO

MPSI3 (2015-16) LYCÉE M ONTAIGNE 179 ©Fradin Patrick – http://mpsi.tuxfamily.org


NE
Chapitre 20

La dimension finie

Sommaire

AIG
I Espaces de dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
1) Familles génératrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
2) Familles libres, familles liées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
3) Familles libres et familles liées en dimension finie . . . . . . . . . . . . . . . . . . . . . 183
II Propriétés de la dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
1) Bases, coordonnées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
2) Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
3) Applications linéaires et dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
III Notion de rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
1) Rang d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
2) Rang d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
3) Méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
IV Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
NT
1) Hyperplans en dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
2) Sous-espaces affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
3) Équations linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193

I ESPACES DE DIMENSION FINIE

1) Familles génératrices

Définition 20.1
Soit E un K-e.v, et soit A une famille de vecteurs de E, on dit que la famille A est une famille génératrice
de E lorsque E = Vect [A]. Ce qui signifie que tout vecteur de E est combinaison linéaire d’un nombre
MO

fini de vecteurs de A.

ZExemples :
– Soit E = Kn , pour i ∈ J1; n K, on pose e i = (δi ,1 , . . . , δi ,n ), alors la famille A = (e 1 , . . . , e n ) est une famille
n
P
génératrice de E, car (x 1 , . . . , x n ) = xi e i .
i =1
– Soit E = Kn [X], la famille A = (X i )06i 6n est une famille génératrice de E.
– Soit E = K[X], la famille A = (X i )i ∈N est une famille génératrice de E.
– Soit E = C 0 (R, R), la famille A = ( f k )06k 6n où f k : x 7→ e kx , n’est pas une famille génératrice de E. Si elle
n n
a k X k , on aurait alors pour tout
P P
l’était, il existerait des réels a k tels que sin = a k f k , en posant P =
k=0 k=0
réel x : sin(x) = P(e x ), la fonction sin s’annulant une infinité de fois et la fonction exp étant injective, on
voit que P possède une infinité de racines, donc P = 0 i.e. tous les réels a k sont nuls et donc la fonction
sin est nulle, ce qui est absurde.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 180 ©Fradin Patrick – http://mpsi.tuxfamily.org


Espaces de dimension finie Chapitre 20 : La dimension finie

Théorème 20.1 (premières propriétés)


Soit A une famille génératrice de E :

NE
– Toute sur-famille de A est génératrice, i.e. si B est une famille de vecteurs de E telle que A ⊂ B, alors
B est génératrice.
– Si f ∈ L (E, F), alors B = ( f (x))x∈A est une famille génératrice de Im( f ).
– Soit f ∈ L (E, F), alors f est surjective si et seulement si f (A) est une famille génératrice de F.

Preuve : Le premier point est évident. Si f ∈ L (E, F), soit y ∈ Im( f ), alors il existe x ∈ E tel que f (x) = y, mais A est
b
génératrice de E, donc il existe x 1 , . . . , x n ∈ A et des scalaires α1 , . . . , αn tels que x = αi x i , f étant linéaire, on a alors
P
i =1
n
αi f (x i ), ce qui prouve que B est génératrice de Im( f ). Le troisième point en découle.
P
f (x) = 
i =1
FExercice 20.1 Les familles suivantes sont-elles génératrices dans K3 ?
– A = {(1, 1, 1); (−1, 0, 2); (1, 2, 3)}.

AIG
– A = {(1, 1, 1), (1, 2, 3)}.

Définition 20.2 (espace de dimension finie)


Soit E un K-e.v, on dit que E est de dimension finie lorsque E possède une famille génératrice finie,
c’est à dire lorsqu’il existe des vecteurs x 1 , . . . , x n ∈ E tels que E = Vect [x 1 , . . . , x n ]. Si ce n’est pas le cas,
on dit que E est de dimension infinie.

ZExemples :
– Kn est de dimension finie.
– Kn [X] est de dimension finie.
– K[X] est de dimension infinie. En effet : sinon, il existerait une famille de polynômes P1 , . . . , Pn telle que
K[X] = Vect [P1 , . . . , Pn ], mais alors tout polynôme aurait un degré inférieur ou égal à max(deg(P1 ), . . . , deg(Pn )),
ce qui est absurde. Nous verrons plus loin que F (R, R) est également de dimension infinie.
NT
Théorème 20.2
Soit E un K-e.v de dimension finie :
– Si f ∈ L (E, F), alors Im( f ) est de dimension finie. En particulier lorsque f est surjective, F est de
dimension finie.
– Si F est de dimension finie, alors E × F est de dimension finie également.

Preuve : Le premier point découle directement du théorème précédent. Si (x 1 , . . . , x n ) est une famille génératrice de E
et si (y 1 , . . . , y p ) est une famille génératrice de F, alors pour (x, y) ∈ E × F, on a :

n p
αi x i , βk y k ) = αi (x i , 0F ) + βk (0E , y k ),
X X X X
(x, y) = (
i =1 k=1 16i 6n 16k 6p
MO

ce qui prouve que la famille ((x i , 0F ); (0E , y k ))16i 6n,16k 6n est une famille génératrice finie de E × F. 

2) Familles libres, familles liées

Définition 20.3
Soit (x i )i ∈I une famille de vecteurs d’un K-e.v E, on dit que :
– La famille est libre lorsque la seule combinaison linéaire de la famille qui donne le vecteur nul est
celle pour laquelle tous les coefficients sont nuls (on dit aussi que les vecteurs sont linéairement
indépendants), c’est à dire :
αi x i = 0E =⇒ ∀ i ∈ I, αi = 0.
P
i ∈I
– La famille est dite liée lorsqu’elle n’est pas libre (on dit aussi que les vecteurs sont linéairement
dépendants), ce qui signifie qu’il existe une famille de scalaires à support fini (αi )i ∈I non tous nuls
tels que :

MPSI3 (2015-16) LYCÉE M ONTAIGNE 181 ©Fradin Patrick – http://mpsi.tuxfamily.org


Espaces de dimension finie Chapitre 20 : La dimension finie

αi x i = 0E .
P
i ∈I

NE
Théorème 20.3 (caractérisation des familles liées)
La famille (x i )i ∈I est liée si et seulement si un des vecteurs de la famille est combinaison linéaire des
autres.

αi x i , on a alors x k − αi x i = 0E avec le coefficient de x k qui est non nul, donc la


P P
Preuve : Supposons x k =
i ∈I\{k} i ∈I\{k}
famille est liée.
Réciproquement : si la famille est liée, il existe une famille à support fini de scalaires (λi )i ∈I non tous nuls tels que
P −λi
λi x i = 0E , supposons que λi 0 6= 0, on a alors : x i 0 =
P
λ xi . i0

i ∈I i ∈I\{i 0 }

Remarque 20.1 – Soient x, y ∈ E, alors la famille (x, y) est liée si et seulement si les deux vecteurs sont coli-

AIG
néaires.
ZExemples :
– E = Kn , la famille A = (e 1 , . . . , e n ) avec e i = (δi ,1 , . . . , δi ,n ) est une famille libre.
– E = Kn [X], la famille A = (X i )06i 6n est une famille libre.
– E = K[X], la famille A = (X i )i ∈N est une famille libre.
– E = C 0 ([a; b], C), pour k ∈ J0; n K on pose f k : x 7→ e kx , alors la famille A = ( f k )k∈N est libre.
– E = K2 , soit i = (1, 1), j = (1, 2) et k = (4, 3), la famille A = (i , j , k) est une famille liée.
– Soit E = C 0 (R, R) pour k ∈ J1; n K on pose f k : x 7→ sin(kx). Montrer par récurrence sur n que la famille
A = ( f k )k >1 est libre.
n
αk f k = 0, on a donc pour
P
Il est clair que ( f 1 ) est libre, supposons que ( f 1 , . . . , f n−1 ) soit libre et supposons que
k=1
n n
αk sin(kx) = 0, en dérivant deux fois cette relation, on obtient : k 2 αk sin(kx) = 0, en
P P
tout réel x de [a; b] :
k=0 k=1
n−1
lui retranchant n 2 fois la première, on obtient : (k 2 − n 2 )αk f k = 0, de l’hypothèse de récurrence on déduit que
P
NT
k=1
αk = 0 pour k ∈ J1; n − 1K, il reste alors αn f n = 0 et donc αn = 0.

Théorème 20.4 (propriétés des familles libres et des familles liées)


Soit E un K-e.v
– Si x ∈ E, alors la famille (x) est libre si et seulement si x 6= 0E .
– Toute famille contenant le vecteur nul est liée.
– Toute partie d’une famille libre est une famille libre.
– Toute famille contenant une famille liée est une famille liée.
– L’image d’une famille liée par une application linéaire est une famille liée.
– Soit f ∈ L (E, F), alors f est injective si et seulement si f transforme toute famille libre de E en une
famille libre de F.
MO

– La famille (x i )i ∈I est libre si et seulement si ∀ x ∈ Vect [(x i )i ∈I ], x s’écrit de manière unique comme
combinaison linéaire des vecteurs (x i )i ∈I .
– Soit (x i )i ∈I une famille libre, alors ∀ x ∈ E, x ∈ Vect [(x i )i ∈I ] ⇐⇒ {x, (x i )i ∈I } est liée.

Preuve : Démontrons les trois derniers points, il suffit de les démontrer pour toute famille finie :
n n
αk f (x k ) = 0F , alors αk x k ∈ ker( f ), donc
P P
Si f est injective et si (x 1 , . . . , x n ) est libre dans E, supposons que
k=1 k=1
n
αk x k = 0E , mais cette famille étant libre, les coefficients αk sont tous nuls.
P
k=1
Si f transforme une famille libre en une famille libre : si x ∈ ker( f ) et si x 6= 0E , alors (x) est libre, donc ( f (x)) est
libre i.e. f (x) 6= 0F ce qui est absurde, donc x = 0E et f est injective.
n n n
αk x k = βk x k , alors (αk − βk )x k = 0E et donc, la famille étant libre, αk = βk
P P P
Si (x 1 , . . . , x n ) est libre et si x =
k=1 k=1 k=1
pour k ∈ J1; n K.
n
αk x k = 0E =⇒ ∀ k ∈ J1; n K , αk = 0, i.e. la famille est libre.
P
Réciproquement, si l’écriture est unique alors
k=1

MPSI3 (2015-16) LYCÉE M ONTAIGNE 182 ©Fradin Patrick – http://mpsi.tuxfamily.org


Propriétés de la dimension finie Chapitre 20 : La dimension finie

n
αk x k ce qui prouve que la famille (x 1 , . . . , x n , x) est liée.
P
Si x ∈ Vect [x 1 , . . . , x n ], alors x =
k=1
n
Réciproque : si (x 1 , . . . , x n , x) est liée, alors il existe des scalaires αk pour k ∈ J1; n + 1K tels que αk x k + αn+1 x = 0E ,
P

NE
k=1
n
si αn+1 = 0, alors il reste αk x k = 0E donc tous les scalaires αk sont nuls, ce qui est contradictoire, d’où αn+1 6= 0, ce
P
k=1
n
P αk
qui entraîne x = − αn+1 x k . 
k=1

3) Familles libres et familles liées en dimension finie

Théorème 20.5 (fondamental de la dimension finie)


Si E est de dimension finie et si (x 1 , . . . , x n ) est une famille génératrice de E, alors toute famille de
cardinal supérieur ou égal à n + 1 est une famille liée.

AIG
Preuve : Par récurrence sur n : pour n = 1 on a E = Vect [x 1 ] soit x, y ∈ E, x = αx 1 et y = βx 1 . Si α = 0 alors x = 0E et la
famille (x, y) est liée, sinon on a y = β/αx et donc la famille (x, y) est liée.
Supposons le théorème vrai au rang n et soit (x 1 , . . . , x n+1 ) une famille génératrice de E, soit (y 1 , . . . , y n+2 ) une famille
de vecteurs de E, on pose F = Vect [x 1 , . . . , x n ]. Si tous les vecteurs y i sont dans F alors on peut appliquer l’hypothèse
de récurrence et la famille (y 1 , . . . , y n+2 ) est liée, dans le cas contraire, supposons y n+2 ∉ F, pour tout j ∈ J1; n + 2K il
existe un scalaire λ j et un vecteur u j de F tels que y j = u j + λ j x n+1 , on a donc λn+2 6= 0, on en déduit x n+1 en fonction
λj λj λj
de u n+2 et y n+2 , d’où pour j ∈ J1; n + 1K : y j = u j − λn+2 u n+2 + λn+2 y n+2 , mais la famille (u j − λn+2 u n+2 ) j ∈J1;n+1K est liée
λj
dans F (hypothèse de récurrence), donc la famille (y j − λn+2 y n+2 ) j ∈J1;n+1K est liée dans E, ce qui entraîne que la famille
(y 1 , . . . , y n+2 ) est liée dans E. 
ZExemples :
– E = Kn , pour i ∈ J1; n K, on pose e i = (δi ,1 , . . . , δi ,n ), on a vu en exemple que la famille A = (e 1 , . . . , e n ) est
génératrice, donc dans Kn , toute famille de n + 1 vecteurs (ou plus) est liée.
– E = Kn [X], on sait que la famille A = (X 0 , . . . , X n ) est génératrice, donc dans Kn [X] toute famille de n + 2
NT
vecteurs (ou plus) est liée.
– E = F (R, C) est de dimension infinie, sinon il existe une famille génératrice finie A = ( f 1 , . . . , f n ), mais
alors toute famille de n + 1 vecteurs est liée, or la famille (g 0 , . . . , g n ) où g k : x 7→ e kx , est une famille
libre, on a donc une contradiction, ce qui prouve que E est de dimension infinie.

Théorème 20.6
Si E est de dimension finie et si (x 1 , . . . , x n ) est une famille libre, alors toute famille génératrice de E
contient au moins n vecteurs.

Preuve : Soit (y 1 , . . . , y m ) une famille génératrice de E, si n > m, alors d’après le théorème fondamental, la famille
(x 1 , . . . , x n ) est liée, ce qui est contradictoire, donc m > n. 
MO

II PROPRIÉTÉS DE LA DIMENSION FINIE

1) Bases, coordonnées

Définition 20.4
Soit E un K-e.v et soit B = (e 1 , . . . , e n ) une famille de vecteurs de E, on dit que B est une base de
E lorsque B est à la fois libre et génératrice de E. Si c’est le cas, alors ∀ x ∈ E, ∃!(λ1 , . . . , λn ) ∈ Kn ,
n
λk x k . Par définition (λ1 , . . . , λn ) sont les coordonnées de x dans la base B, et on
P
tel que x =
k=1
pose CoordB (x) = (λ1 , . . . , λn ) ∈ Kn (on fera attention à l’ordre sur les vecteurs de la base B, λi est la
coordonnée de x sur le vecteur e i ).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 183 ©Fradin Patrick – http://mpsi.tuxfamily.org


Propriétés de la dimension finie Chapitre 20 : La dimension finie

ZExemples :
– E = Kn , la famille B = (e 1 , . . . , e n ) où e i = (δi ,1 , . . . , δi ,n ) pour i ∈ J1; n K, est une famille libre et génératrice
de Kn , c’est donc une base, on l’appelle base canonique de Kn . Si u = (λ1 , . . . , λn ) ∈ Kn , alors on sait que

NE
n
λk e k , donc CoordB (u) = (λ1 , . . . , λn ), c’est à dire : dans la base canonique de Kn les coordonnées
P
u=
k=1
d’un vecteur u sont les composantes de u.
– E = Kn [X], on sait que la famille B = (X 0 , . . . , X n ) est libre et génératrice de Kn [X], c’est donc une base de
n
Kn [X], on l’appelle base canonique de Kn [X]. Si P = λk X k ∈ Kn [X], alors CoordB (P) = (λ0 , . . . , λn ),
P
k=0
c’est à dire : dans la base canonique de Kn [X], les coordonnées d’un polynôme P sont les coefficients
de P.
– Dans Kn [X], soit a ∈ K, d’après la formule de Taylor en a, la famille B = ((X − a)k )k∈J0;n K est une famille
n
P (k) (a) k
libre et génératrice de Kn [X], c’est donc une base. Pour P ∈ Kn [X], on sait que P =
P
k! (X − a) ,
k=0
(n)
donc CoordB (P) = (P(a), P 0
(a), . . . , P n!(a) ).

AIG
FExercice 20.2 E = K2 , on pose i = (1, 1) et j = (1, 2), montrer que B = (i , j ) est une base de E, et pour u = (x, y) ∈ E,
calculer CoordB (u).

Théorème 20.7 (existence de bases)


Tout K-e.v non réduit au vecteur nul et de dimension finie, possède des bases. Plus précisément,
toute famille génératrice contient une base.

Preuve : Soit (x 1 , . . . , x n ) une famille génératrice de E, si tous ces vecteurs sont nuls, alors E = {0E } ce qui est exclu, donc
au moins un des vecteurs de la famille est non nul, on peut donc considérer les sous-familles de (x 1 , . . . , x n ) qui sont
libres et en prendre une de cardinal maximal : (x i 1 , . . . , x i r ). Posons y j = x i j pour j ∈ J1; r K, lorsque k ∉ {i 1 , . . . , i r } on a
£ ¤ £ ¤
(y 1 , . . . , y r , x k ) est liée (maximalité de r ), donc x k ∈ Vect y 1 , . . . , y r , mais alors Vect [x 1 , . . . , x n ] ⊂ Vect y 1 , . . . , y r , ce qui
entraîne que (y 1 , . . . , y r ) est une famille génératrice de E, comme elle est libre, c’est une base de E. 

Théorème 20.8 (propriété fondamentale des bases en dimension finie)


NT
Si E est un K-e.v de dimension finie, alors toutes les bases de E ont le même cardinal. Ce cardinal est
appelé dimension de E et noté dim(E) ou dimK (E). Par convention {0E } est de dimension 0.

Preuve : Soit B = (e 1 , . . . , e n ) une base de E, cette famille est libre, donc toute famille génératrice possède au minimum
n vecteurs, mais cette famille est également génératrice, donc toute famille libre contient au maximum n vecteurs,
finalement, toute base de E, étant à la fois libre et génératrice, contient exactement n vecteurs. 
ZExemples :
– La base canonique de Kn contient n vecteurs, donc dimK (Kn ) = n.
– La base canonique de Kn [X] contient n + 1 vecteurs, donc dimK (Kn [X]) = n + 1.
– C = R2 donc dimR (C) = 2, mais dimC (C) = 1.
– Une droite vectorielle est un espace de dimension 1 et un plan vectoriel est un espace de dimension 2.
MO

Théorème 20.9 (application)


Si E est de dimension n > 1 et si B est une famille de vecteurs de E alors les assertions suivantes sont
équivalentes :
a) B est une base de E.
b) B est libre de cardinal n (on dit aussi libre maximale).
c) B est génératrice de cardinal n (on dit aussi génératrice minimale).

Preuve : On a évidemment a) =⇒ b) et a) =⇒ c).


Montrons b) =⇒ c) : si B est libre de cardinal n : B = (y 1 , . . . , y n ), alors pour tout x ∈ E, ¤ (y 1 , . . . , y n , x) est liée
£ la famille
(car de cardinal n + 1 et E possède une base de cardinal n), ce qui entraîne que x ∈ Vect y 1 , . . . , y n , ce qui prouve que B
est génératrice.
Montrons c) =⇒ a) : si B est génératrice de cardinal n, on peut extraire de B une famille libre de cardinal maximal,
cette famille sera alors une base de E, elle est donc de cardinal n, mais B est de cardinal n, donc cette famille extraite ne
peut être que B elle-même, c’est à dire B est une base de E. 

MPSI3 (2015-16) LYCÉE M ONTAIGNE 184 ©Fradin Patrick – http://mpsi.tuxfamily.org


Propriétés de la dimension finie Chapitre 20 : La dimension finie

FExercice 20.3 Montrer que dans Kn [X], la famille B = (Xk (1 − X)n−k )k∈J0;n K est une base.
Solution 20.3 La base canonique de Kn [X] possède n + 1 vecteurs et card(B) = n + 1, il suffit donc de démontrer que

NE
n n−1
αk X k (1 − X)n−k = 0, en évaluant en 1, il reste αn = 0, donc αk X k (1 − X)n−k = 0, c’est à dire
P P
B est libre : si on a
k=0 k=0
n−1
αk X k (1−X)n−1−k = 0, on peut terminer par récurrence sur n pour montrer que B est libre, la propriété étant évidente
P
k=0
pour n = 0. B est donc une base de Kn [X].
On remarquera au passage la puissance du théorème précédent, car le fait que cette famille B soit
génératrice n’est pas du tout évident à démontrer « à la main ».

Théorème 20.10
Soit B = (e 1 , . . . , e n ) une base de E, l’application :

CoordB : E → Kn
x 7 → CoordB (x)

AIG
est un isomorphisme entre E et Kn .

Preuve : En exercice. 
Remarque 20.2 – Ce théorème permet de calculer facilement les coordonnées d’une combinaison linéaire de
vecteurs connaissant les coordonnées de chacun d’eux.

Théorème 20.11
Soient E et F deux K-e.v, soit B = (e 1 , . . . , e n ) une base de E, toute application linéaire de E vers F
est entièrement déterminée par la donnée des images des vecteurs de la base B, plus précisément,
si on se donne y 1 , . . . , y n ∈ F, alors il existe une unique application linéaire f : E → F telle que ∀ i ∈
J1; n K , f (e i ) = y i , de plus :
– f est injective si et seulement si (y 1 , . . . , y n ) est libre dans F.
NT
– f est surjective si et seulement si (y 1 , . . . , y n ) est génératrice de F.
– f est bijective si et seulement si (y 1 , . . . , y n ) est une base de F.

n
Preuve : Soit x ∈ E et (λ1 , . . . , λn ) = CoordB (x), on définit f : E → F en posant f (x) = λk y k . Il est facile de vérifier que
P
k=1
f est linéaire et que c’est la seule qui vérifie f (e k ) = y k pour k ∈ J1; n K.
Les deux équivalences suivantes sont simples à démontrer et la troisième est la conjonction des deux précédentes.
On retient la troisième en disant que f est un isomorphisme de E vers F si et seulement si f transforme une base de E
en une base de F. 
Remarque 20.3 – Il en découle que deux applications linéaires de E vers F qui coïncident sur une base de E
sont égales.
MO

Théorème 20.12 (de la base incomplète)


Soit B = (e 1 , . . . , e n ) une base de E et soit (y 1 , . . . , y r ) une famille libre de E avec r < n alors il existe des
vecteurs e i r +1 , . . . , e i n de B tels que la famille (y 1 , . . . , y r , e i r +1 , . . . , e i n ) soit une base de E.

Preuve : Comme r < n la famille (y 1 , . . . , y r ) n’est pas génératrice de E, donc il existe au moins un vecteur e k tel que
(y 1 , . . . , y r , e k ) soit libre. Posons A = (y 1 , . . . , y r , e 1 , . . . , e n ) alors A est une famille génératrice de E. La famille A contient des
familles libres et parmi celles-ci il y en a qui contiennent les vecteurs y 1 , . . . , y r , on peut donc considérer une sous-famille
libre de A qui contient ces vecteurs et qui soit de cardinal maximal : C = (y 1 , . . . , y r , e i r +1 , . . . , e i s ), si k ∉ {i r +1 , . . . , i s } alors
la famille (y 1 , . . . , y r , e i r +1 , . . . , e i s , e k ) est liée (maximalité de C), donc e k ∈ Vect [C] ce qui entraîne que C est une famille
génératrice de E, or C est libre donc C est une base de E, ce qui entraîne également que s = n car toutes les bases de E
ont n vecteurs. 
ZExemple : Soit E = K3 et B = (i , j , k) la base canonique de K3 , soit u = (1, 1, 1). La famille (u) est libre, on peut
donc compléter cette famille en une base de E avec deux vecteurs de la base canonique. Les vecteurs i et u
sont non colinéaires, donc (u, i ) est libre. On a j ∉ Vect [u, i ] donc (u, i , j ) est libre, c’est donc une base de K3 .
On remarquera que (u, i , k) et (u, j , k) conviennent également.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 185 ©Fradin Patrick – http://mpsi.tuxfamily.org


Propriétés de la dimension finie Chapitre 20 : La dimension finie

2) Sous-espaces vectoriels

NE
Théorème 20.13
Si E est de dimension finie, alors tout s.e.v F de E est de dimension finie et dim(F) 6 dim(E). De plus,
si dim(F) = dim(E) alors F = E.

Preuve : Si dim(E) = 0 il n’y a rien à démontrer. On suppose donc dim(E) = n > 1, si F = {0E } alors il n’y a rien à
démontrer, on suppose donc F 6= {0E }, mais alors F contient des familles libres et elles ont toute un cardinal inférieur
ou égal à n, on peut donc considérer une famille C libre de F de cardinal maximal, on a alors ∀ x ∈ F, C ∪ (x) est liée,
donc x ∈ Vect [C ] ce qui prouve que C est une base de F, et le premier point est démontré. Si dim(F) = dim(E), alors
card(C ) = n, donc C est également une base de E, d’où E = F. 

Théorème 20.14
Si E est de dimension finie, alors tout s.e.v F de E admet au moins un supplémentaire G dans E.

AIG
Preuve : On écarte les trois cas triviaux : E = {0E }, F = E, F = {0E }. Dans le cas général, soit (y 1 , . . . , y p ) une
£ base de ¤F alors
on peut compléter cette famille en une base de E : (y 1 , . . . , y p , e p+1 , . . . , e n ), on pose alors G = Vect e p+1 , . . . , e n et on
vérifie que G est un supplémentaire de F dans E. 

Théorème 20.15
Soient F et G deux s.e.v d’un K-e.v E de dimension finie, les assertions suivantes sont équivalentes :
i) F est G sont supplémentaires.
ii) La somme F + G est directe et dim(F) + dim(G) = dim(E).
iii) E = F + G et dim(F) + dim(G) = dim(E).

Preuve : Il est clair que i ) =⇒ i i ).


NT
Supposons i i ) : soit B = (y 1 , . . . , y p ) une base de F, alors dim(G) = n − p (où n = dim(E)), soit B0 = (y p+1 , . . . , y n )
une base de G, il est facile de vérifier que F ∩ G = {0E } =⇒ B ∪ B0 est libre, or card(B ∪ B0 ) = n, c’est donc une famille
génératrice de E, ce qui entraîne E = F + G, donc i i ) =⇒ i i i ).
Supposons i i i ) : avec les notations précédentes, l’hypothèse E = F + G implique que B ∪ B0 est génératrice de E,
mais elle est de cardinal n, c’est donc une famille libre ce qui entraîne que la somme F + G est directe et donc E = F ⊕ G,
donc i i i ) =⇒ i ). 

Théorème 20.16
Si E est de dimension finie et si F et G sont deux s.e.v de E, alors (formule de Grassmann 1 ) :
dim(F + G) = dim(F) + dim(G) − dim(F ∩ G).

Preuve : Soit H un supplémentaire de F ∩ G dans F : F = H ⊕ (F ∩ G), on a donc d’après la propriété précédente,


MO

dim(H) = dim(F)−dim(F∩G). On vérifie ensuite que F+G = H⊕G, on en déduit alors que dim(F+G) = dim(H)+dim(G),
ce qui donne la formule. 

Théorème 20.17
Si E et F sont deux K-e.v de dimension finie, alors E × F est de dimension finie et dim(E × F) =
dim(E) + dim(F).

Preuve : Soit (e 1 , . . . , e n ) une base de E et (y 1 , . . . , y p ) une base de F, alors on a déjà montré que la famille :
B = ((e 1 , 0F ), . . . , (e n , 0F ), (0E , y 1 ), . . . , (0E , y p )) est un famille génératrice de E × F, on peut vérifier alors que c’est aussi
une famille libre, ce qui donne le résultat. 
ZExemple : Si dim(E) = 3, décrire les s.e.v de E et étudier les positions relatives (intersection de deux s.e.v de
E).

1. Hermann Günter GRASSMANN (1809 – 1877) : mathématicien allemand qui a développé les notions fondamentales de l’algèbre
linéaire.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 186 ©Fradin Patrick – http://mpsi.tuxfamily.org


Propriétés de la dimension finie Chapitre 20 : La dimension finie

3) Applications linéaires et dimension finie

Théorème 20.18 (dimension de L (E, F))

NE
Si dim(E) = n et dim(F) = p, alors L (E, F) est de dimension finie et dim(L (E, F)) = np.

Preuve : Ce théorème sera établi dans le chapître sur les matrices. 


ZExemples :
– L (Kn , Kp ) est de dimension np.
– Si dim(E) = n, alors dim(E∗ ) = n (dual de E).

Théorème 20.19 (comparaison des dimensions)


Si E et F sont de dimension finie et si f ∈ L (E, F) :
– f injective =⇒ dim(E) 6 dim(F).

AIG
– f surjective =⇒ dim(E) > dim(F).
– f bijective (isomorphisme) =⇒ dim(E) = dim(F).

Preuve : Soit B = (e 1 , . . . , e n ) une base de E et B0 = (y 1 , . . . , y p ) une base de F.


Si f est injective, alors la famille ( f (e 1 ), . . . , f (e n )) est libre dans F donc n 6 p = dim(F).
Si f est surjective, alors la famille ( f (e 1 ), . . . , f (e n )) est génératrice de F donc n > p = dim(F).
Si f est un isomorphisme, alors la famille ( f (e 1 ), . . . , f (e n )) est une base de F donc n = p = dim(F). 
Remarque 20.4 –
– Tout K-e.v de dimension n est isomorphe à Kn .
– Si E est de dimension finie, alors E est isomorphe à E∗ , son dual.

Théorème 20.20 (caractérisations des isomorphismes)


Soient E et F deux K-e.v de dimension finie tels que dim(E) = dim(F), et soit f ∈ L (E, F), les assertions
NT
suivantes sont équivalentes :
a) f est injective.
b) f est surjective.
c) f est bijective.
d) ∃ g ∈ L (F, E), f ◦ g = idF .
e) ∃ h ∈ L (F, E), h ◦ f = idE .

Preuve : Soit B = (e 1 , . . . , e n ) une base de E.


a) =⇒ b) : si f est injective alors ( f (e 1 ), . . . , f (e n )) est libre de cardinal n dans F, or dim(F) = dim(E) = n, c’est une
famille génératrice de F, et donc f est surjective.
b) =⇒ c) : f est surjective, donc la famille ( f (e 1 ), . . . , f (e n )) est génératrice de F de cardinal dim(F), c’est donc une
MO

base de F, ce qui signifie que f est un isomorphisme.


c) =⇒ d ) : f est bijective, il suffit donc de prendre g = f −1 .
d ) =⇒ e) : on a f ◦ g = idF donc f est surjective, ce qui entraîne que f est bijective, on a donc g = f −1 et il suffit
alors de prendre h = g .
e) =⇒ a) : on a h ◦ f = idE , donc f est injective. 
Remarque 20.5 –
– Lorsque dim(E) = dim(F) l’égalité f ◦ g = idF entraîne automatiquement g ◦ f = idE , ce qui est tout à fait
remarquable puisqu’en général la loi ◦ n’est pas commutative.
– Le théorème précédent est faux en dimension infinie comme le montre les exemples suivants : f : K[X] →
K[X] définie par f (P) = P 0 (surjective non injective) et g : K[X] → K[X] définie par g (P) = XP (injective
non surjective).
ZExemples :

MPSI3 (2015-16) LYCÉE M ONTAIGNE 187 ©Fradin Patrick – http://mpsi.tuxfamily.org


Notion de rang Chapitre 20 : La dimension finie

– Polynômes d’endomorphismes : si dim(E) = n alors dim(L (E)) = n 2 , donc si u ∈ L (E), alors la famille
2
(i d , u, . . . , u n ) est liée, donc il existe un polynôme P = λk X k non nul de degré 6 n 2 tel que P(u) = 0.
P
P λk k
Si P(0) 6= 0, alors λ0 6= 0 d’où idE = − λ0 u , ou encore :

NE
k >1
" #
X λk k−1
idE = u ◦ − u .
k >1 λ0

λk k−1
Ce qui prouve que u ∈ GL(E) et u −1 = −
P
λ0 u .
k >1
– Polynôme d’interpolation de Lagrange : soient a 0 , . . . , a n n + 1 scalaires distincts, on note f : Kn [X] →
Kn+1 définie par f (P) = (P(a 0 ), . . . , P(a n )). Il est facile de vérifier que f est linéaire et injective, comme
dim(Kn [X]) = n+1, f est un isomorphisme, par conséquent pour (α0 , . . . , αn ) ∈ Kn+1 il existe un unique
polynôme P ∈ Kn [X] tel que ∀ i ∈ J0; n K , P(a i ) = αi . Soit B = (e 0 , . . . , e n ) la base canonique de Kn+1 , on
note Li l’unique polynôme de degré 6 n tel que f (Li ) = e i . On vérifie facilement que :

AIG
n
Y X − ak
Li (X) = .
k=0,k6=i ai − ak

C’est le i -ième polynôme d’interpolation de Lagrange aux points (a 0 , . . . , a n ), on en déduit que :


n
f −1 (α0 , . . . , αn ) = αk Lk (X).
X
k=0

FExercice 20.4 Soit E de dimension finie et soit u ∈ GL(E), soit F un s.e.v de E stable par u, on appelle v la restriction de
u à F, c’est à dire v : F → F définie par v(x) = u(x). Montrer que v ∈ GL(F).

III NOTION DE RANG

1) Rang d’une application linéaire


NT
Définition 20.5
Soit E un espace vectoriel de dimension finie et f ∈ L (E, F), on sait que Im( f ) est de dimension finie,
par définition, on appelle rang de f la dimension de Im( f ).
Notation : rg( f ) = dim(Im( f )).

Remarque 20.6 –
– Si B = (e 1 , . . . , e n ) est une base de E alors on sait que ( f (e 1 ), . . . , f (e n )) est une famille génératrice de Im( f )
donc dim(Im( f )) 6 n, c’est à dire :
rg( f ) 6 dim(E).
MO

– Si de plus F est de dimension finie, alors dim(Im( f )) 6 dim(F), donc :

rg( f ) 6 min(dim(E), dim(F)).

– f est surjective si et seulement si Im( f ) = F, donc :

f est surjective ⇐⇒ rg( f ) = dim(F).

Théorème 20.21 (théorème du rang)


Si E et de dimension finie et si f ∈ L (E, F) alors : dim(E) = dim(ker( f )) + rg( f ).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 188 ©Fradin Patrick – http://mpsi.tuxfamily.org


Notion de rang Chapitre 20 : La dimension finie

NE
Preuve : Soit G un supplémentaire de ker( f ) dans E : E = ker( f ) ⊕ G. Il est facile de vérifier que l’application linéaire
v : G → Im( f ) définie par v(x) = f (x) est un isomorphisme, ce qui entraîne que dim(G) = dim(Im( f )) = rg( f ), or
dim(E) = dim(ker( f )) + dim(G), d’où le résultat. 
Conséquences : Soit f : E → F linéaire,si E de dimension finie, alors : f est injective ⇐⇒ rg( f ) = dim(E).
ZExemples :
– Soit u : Kn+1 [X] → Kn [X] définie par u(P) = P(X + 1) − P(X). Il est clair que u est linéaire, on vérifie que
ker(u) = K, le théorème du rang nous dit alors que rg(u) = dim(Kn+1 [X]) − dim(ker(u)) = n + 2 − 1 =
n + 1 = dim(Kn [X]), ce qui prouve que u est surjective.
– Soient F et G deux s.e.v de E, on considère l’application ϕ : F × G → E définie par ϕ(x, y) = x + y, on
vérifie que ϕ est linéaire et que ker(ϕ) = {(x, −x) / x ∈ F ∩ G}. On voit que ker(ϕ) est isomorphe à F ∩ G
et que Im(ϕ) = F + G, le théorème du rang nous dit alors que dim(F × G) = dim(F ∩ G) + dim(F + G), d’où
dim(F + G) = dim(F) + dim(G) − dim(F ∩ G), on retrouve ainsi la formule de Grassmann.

AIG

 u(i ) = (1, 2, −1, 0)
FExercice 20.5 Soit B = (i , j , k) une base de K3 , on considère u : K3 → K4 définie par u( j ) = (−1, 0, 1, −2) . Calcu-
u(k) = (1, 4, −1, −2)

ler le rang de u :
½
b = −c £ ¤
Solution 20.5 x = ai + b j + ck ∈ ker(u) ⇐⇒ , on en déduit que ker(u) = Vect 2i + j − k , d’où rg(u) =
a = −2c
dim(K3 )−1 = 2, donc Im(u) est un plan vectoriel, comme u(i ) et u( j ) sont non colinéaires, on a Im(u) = Vect u(i ), u( j ) .
£ ¤

Théorème 20.22 (propriétés du rang)


Soient E, F, G trois K-e.v, soit f ∈ L (E, F) et g ∈ L (F, G), on a : rg(g ◦ f ) 6 min(rg(g ), rg( f )).
De plus, si f est surjective, alors rg(g ◦ f ) = rg(g ), et si g est injective, alors rg(g ◦ f ) = rg( f ).

Preuve : Soit h : Im( f ) → G définie par h(x) = g (x), alors h est linéaire et Im(h) = Im(g ◦ f ) ⊂ Im(g ), on a donc
rg(g ◦ f ) = rg(h) 6 dim(Im( f )) d’après le théorème du rang, de plus l’inclusion ci-dessus prouve que rg(h) 6 rg(g ), d’où
le résultat.
Si f est surjective, alors Im( f ) = F et donc h = g , d’où rg(g ◦ f ) = rg(g ).
Si g est injective, alors h est injective, donc rg(h) = dim(Im( f )) = rg( f ). 
NT
FExercice 20.6 Soient E, F deux K-e.v de dimension finie et soit u, v ∈ L (E, F), montrer que :
|rg(u) − rg(v)| 6 rg(u + v) 6 rg(u) + rg(v).

2) Rang d’une famille de vecteurs

Définition 20.6
Soit (x 1 , . . . , x n ) une famille de vecteurs d’un K-.v E. On appelle rang de la famille (x 1 , . . . , x n ) la
dimension du s.e.v engendré par cette famille.
Notation : rg(x 1 , . . . , x n ) = dim(Vect [x 1 , . . . , x n ]).

Remarque 20.7 –
– La famille (x 1 , . . . , x n ) est génératrice de F = Vect [x 1 , . . . , x n ], donc son rang est inférieur ou égal à n. De
MO

plus on sait que l’on peut extraire de cette famille une base de F en prenant une sous-famille libre de
cardinal maximal, ce cardinal maximal est donc le rang de la famille.
– La famille (x 1 , . . . , x n ) est libre si et seulement si c’est une base de F = Vect [x 1 , . . . , x n ] ce qui équivaut à
dim(F) = n, ce qui équivaut encore à : le rang de la famille est égal à n, donc :
(x 1 , . . . , x n ) libre ⇐⇒ rg(x 1 , . . . , x n ) = n.
– Soit B = (e 1 , . . . , e n ) une base de E et soit f ∈ L (E, F) alors :
£ ¤
rg( f ) = dim(Im( f )) = dim(Vect f (e 1 ), . . . , f (e n ) ) = rg( f (e 1 ), . . . , f (e n )).

ZExemples :
– Dans K3 calculons le rang de la famille (i , j , k) avec i = (1, 1, 1), j = (−1, 2, 5) et k = (3, 0, −3). La famille
(i ) est libre, j est non colinéaire à i donc (i , j ) est libre, mais k = 2i − j donc la famille (i , j , k) est liée,
£ ¤ £ ¤
par conséquent (i , j ) est libre maximale d’où rg(i , j , k) = 2 et Vect i , j , k = Vect i , j .

MPSI3 (2015-16) LYCÉE M ONTAIGNE 189 ©Fradin Patrick – http://mpsi.tuxfamily.org


Notion de rang Chapitre 20 : La dimension finie

3) Méthode du pivot de Gauss


Celle-ci est utilisée dans la pratique pour le calcul du rang d’une famille de vecteurs.

NE
Soit E un K-e.v de dimension n et soit B = (e 1 , . . . , e n ) une base de E, on considère une famille de vecteurs
de E : (x 1 , . . . , x p ) dont on cherche le rang. On a les propriétés suivantes :
– Si x p = 0E , alors rg(x 1 , . . . , x p ) = rg(x 1 , . . . , x p−1 ). Autrement dit, si l’un des vecteurs de la famille est nul,
on peut le retirer de la famille, cela ne change pas le rang (en fait cela ne change pas le s.e.v engendré).
– Si α ∈ K∗ , alors rg(x 1 , . . . , x p ) = rg(αx 1 , x 2 , . . . , x p ), autrement dit, multiplier l’un des vecteurs par un
scalaire non nul ne change pas le rang.
p
– Si λ2 , . . . , λp ∈ K, alors rg(x 1 , . . . , x p ) = rg(x 1 + λk x k , x 2 , . . . , x p ). Autrement dit, ajouter à l’un des
P
k=2
vecteurs une combinaison linéaire des autres ne change pas le rang.
– Si on a le système suivant (dans le cas où p 6 n) :

 x 1 = λ1,1 e 1 +λ1,2 e 2 + ··· · · · +λ1,n e n

AIG

λ2,2 e 2 +

 x2 =

··· · · · +λ2,n e n
. . ,

 .. ..

λp,p e p + · · · +λp,n e n

 x
p =

alors si les scalaires λ1,1 , . . . , λp,p (pivots de Gauss) sont tous non nuls, on a rg(x 1 , . . . , x p ) = p, c’est à
dire la famille (x 1 , . . . , x p ) est libre.
Preuve : Laissée en exercice. 
La méthode est la suivante, on exprime les vecteurs x 1 , . . . , x p dans une base (e 1 , . . . , e n ), puis on effectue
sur ce système des transformations élémentaires de manière à le rendre triangulaire (comme le système
ci-dessus). Les transformations élémentaires de la méthode de Gauss sont :
– Échanger deux lignes : Li ↔ L j (elle permet de mettre le pivot dans la bonne ligne (ligne k pour le
k-ième pivot).
– Échanger deux colonnes : Ci ↔ C j (elle permet de mettre le pivot dans la bonne colonne (colonne k
pour le k-ième pivot).
NT
– Multiplier une ligne par un scalaire non nul : Li ← αLi .
– Ajouter à une ligne un multiple d’une autre ligne : Li ← Li + λL j (elle permet les éliminations à partir
de la ligne du pivot dans les lignes suivantes).
D’après les propriétés précédentes, après chaque opération élémentaire, on obtient une nouvelle
famille qui a le même rang que la précédente.
ZExemple : Soit x 1 = (2, 3, −3, 4, 2), x 2 = (3, 6, −2, 5, 9), x 3 = (7, 18, −2, 7, 7) et x 4 = (2, 4, −2, 3, 1). On prend B =
MO

MPSI3 (2015-16) LYCÉE M ONTAIGNE 190 ©Fradin Patrick – http://mpsi.tuxfamily.org


Compléments Chapitre 20 : La dimension finie

(e 1 , e 2 , e 3 , e 4 , e 5 ) la base canonique de K5 , on a alors le système de coordonnées :



e1 e2 e3 e4 e5

NE



 x1 : 2 3 −3 4 2


Système initial : x2 : 3 6 −2 5 9




 x 3 : 7 18 −2 7 7
x4 : 2 4 −2 3 1



 e1 e2 e3 e4 e5



 x1 : 2 3 −3 4 2
Étape 1 : 2x 2 − 3x 1 = v 2 : 3 5 −2 12 L2 ← 2L2 − 3L1




 2x 3 − 7x 1 = v 3 : 15 17 −14 L3 ← 2L3 − 7L1
x4 − x1 = v 4 : 1 1 −1 −1 L4 ← L4 − L1



 e1 e2 e3 e4 e5

x : 2 3 −3 4 2

AIG


 1
Étape 2 (L2 ↔ L4 ) : v4 : 1 1 −1 −1




 v 3 − 15v 4 : 2 1 15 L3 ← L3 − 15L2
v 2 − 3v 4 : 2 1 15 L4 ← L4 − 3L2



 e1 e2 e3 e4 e5
x : 2 3 −3 4 2



 1
Étape 3 : v4 : 1 1 −1 −1

v − 15v : 2 1 15



 3 4
v 2 − v 3 + 12v 4 : 0 0 L4 ← L4 − L3

On a donc rg(x 1 , . . . , x 4 ) = rg(v 1 , v 4 , v 3 − 15v 4 ) = 3, de plus on a v 2 − v 3 + 12v 4 = 0, ce qui donne x 2 = 4x 1 + x 3 −


6x 4 , et par conséquent : rg(x 1 , x 2 , x 3 , x 4 ) = rg(x 1 , x 3 , x 4 ) = 3.

IV COMPLÉMENTS
NT
1) Hyperplans en dimension finie

Théorème 20.23
Soit E un espace de dimension n et H un s.e.v. de E, soit B = (e 1 , . . . , e n ) une base de E. Les assertions
suivantes sont équivalentes :
a) H est un hyperplan de E.
b) Il existe des scalaires (a 1 , . . . , a n ) non tous nuls tels que :
x1
 
 .. 
H = {x  .  ∈ E / a 1 x 1 + · · · + a n x n = 0} (on a une équation cartésienne de H).
MO

xn
c) dim(H) = n − 1.

Preuve : Montrons i =⇒ i i : H est le noyau d’un forme linéaire f sur E, non nulle. Posons f (e i ) = a i , alors au moins un
n
P
des a i est non nul. Soit x de coordonnées (x 1 , . . . , x n ) dans la base B, alors f (x) = a 1 f (e 1 ) = · · · + a n f (e n ) = a i x i . Le
i =1
résultat en découle.
Montrons que i i =⇒ i i i : supposons a 1 6= 0, quitte à tout diviser par a 1 on peut suppose a 1 = 1, l’équation de
H équivaut alors à x 1 = −a 2 x 2 − · · · − a n x n , on en déduit que x ∈ H ⇐⇒ x = x 2 [−a 2 e 1 + e 2 ] + · · · x n [−a n e 1 + e n ], par
conséquent H = Vect [−a 2 e 1 + e 2 ; . . . ; −a n e 1 + e n ], on a une famille génératrice de H, on vérifie qu’elle est libre, c’est
donc une base de H et donc dim(H) = n − 1.
Montrons que i i i =⇒ i : soit (h 1 , . . . , h n−1 ) une base de H, c’est une famille libre, on peut la complèter en une base
de E : (h 1 , . . . , h n−1 , h n ), soit f la forme linéaire sur E définie par f (h i ) = 0 si 1 6 i 6 n − 1 et f (h n ) = 1. Alors f est non
nulle, et on vérifie que ker( f ) = H, donc H est un hyperplan. 

MPSI3 (2015-16) LYCÉE M ONTAIGNE 191 ©Fradin Patrick – http://mpsi.tuxfamily.org


Compléments Chapitre 20 : La dimension finie

Théorème 20.24 (égalité de deux hyperplans)


Soient H1 = ker( f 1 ) et H2 = ker( f 2 ) deux hyperplans de E, alors H1 = H2 ⇐⇒ ( f 1 , f 2 ) est liée.

NE
Preuve : Si ( f 1 , f 2 ) est liée, il existe un scalaire a tel que f 1 = a f 2 (car f 2 est non nulle), comme f 1 est non nulle, on a
a 6= 0, par conséquent ∀x ∈ E, f 1 (x) = 0 ⇐⇒ f 2 (x) = 0, on en déduit que H1 = H2 .
Si H1 = H2 , soit (h 1 , . . . , h n−1 ) une base de H1 , que l’on complète en une base de E : (h 1 , . . . , h n−1 , h n ), h n étant ni
dans H1 ni dans H2 , on a f 1 (h n ) et f 2 (h n ) non nuls, il existe donc un scalaire a tel que f 1 (h n ) = a f 2 (h n ), on vérifie alors
que pour i dans J1; n K, on a f 1 (h i ) = a f 2 (h i ) et donc f 1 = a f 2 , la famille ( f 1 , f 2 ) est liée. 
FExercice 20.7
1/ Montrer que les deux équations a 1 x 1 + · · · + a n x n = 0 et b 1 x 1 + · · · + b n x n = 0 dans une base B sont équivalentes
si et seulement si (a 1 , . . . , a n ) et (b 1 , . . . , b n ) sont colinéaires dans Kn .
2/ Soient H1 et H2 deux hyperplans distincts, montrer que dim(H1 ∩ H2 ) = n − 2 si n = dim(E).

Solution 20.7

AIG
1/ C’est une application directe du théorème ci-dessus.
2/ Il existe au moins un vecteur de H2 qui n’est pas dans H1 , donc H1 + H2 contient une base de E, par conséquent
H1 + H2 = E, en appliquant la formule de Grassmann on obtient le résultat.

Théorème 20.25
• Si H1 , . . . , Hp sont des hyperplans de E, alors dim(H1 ∩ · · · ∩ Hp ) > n − p.
• Tout s.e.v. de E de dimension n − p est l’intersection de p hyperplans de E.

Preuve :
• On écrit Hi = ker( f i ) où les f i sont des formes linéaires non nulles sur E. L’application E → Kp définie par g (x) =
( f 1 (x), . . . , f p (x)) est linéaire, son noyau est l’intersection H1 ∩· · ·∩Hp et son rang est inférieure ou égale à p. Le théorème
du rang donne le résultat.
• Soit (e 1 , . . . , e n−p ) une base de ce s.e.v., on complète en une base de E : B = (e 1 , . . . , e n ), soit f i la forme linéaire définie
par f i (e j ) = δi j pour i ∈ Jn − p + 1; n K. On vérifie que ker(¤ f i ) est l’ensemble des vecteurs sont la coordonnée dans la
NT
£
base B sur e i est nulle, on en déduit que Vect e 1 , . . . , e n−p = ker( f n−p+1 ) ∩ · · · ∩ ker( f n ). 

2) Sous-espaces affines
Soit →

u ∈ E, la translation de vecteur →

u est l’application 2 t→


− →
− → −
u ( v ) = u + v . L’ensemble
u : E → E définie par t→

de ces applications est noté TE et il est facile de vérifier que (TE , ◦) est un groupe abélien, c’est un sous -
groupe du groupe des permutations de E.
Si →
−v,−→ sont deux vecteurs de E, alors il existe un unique vecteur →
w −
u ∈ E tel que t→ →
− −→
u ( v ) = w . Cette

propriété très simple, suggère un autre point de vue pour les éléments de E : la notion de points.
La propriété précédente peut alors s’énoncer sous la forme suivante : si A et B sont deux points de E, alors
−−→
il existe un unique vecteur → −
u tel que B = t→ →

u (A). Ce vecteur u est noté : AB , on remarquera que :

−−→ −−→
– AB = B − A, et A + AB = B,
MO

−−→
– AB = 0 ⇐⇒ A = B,
−−→ −−→
– BA = −AB ,
−−→ −−→ −−→
– AC = AB + BC .


2. non linéaire si →

u 6= 0 .

MPSI3 (2015-16) LYCÉE M ONTAIGNE 192 ©Fradin Patrick – http://mpsi.tuxfamily.org


Compléments Chapitre 20 : La dimension finie

NE
−−→
AB


0

AIG
Définition 20.7
Un sous - espace affine de E est l’image d’un s.e.v. de E par une translation. Soit V une partie de E, V
est un s.e.a. de E ssi il existe un s.e.v V et un vecteur →

s.e.v. est un s.e.a. de direction lui - même.

Propriétés :

u tel que V = t→
u < V >, si c’est le cas, V est appelé

direction du s.e.a. V (ce que l’on écrira : (V , V)), et on pose dim(V ) = dim(V). On remarquera qu’un

– Si V est un s.e.a. de direction V, alors V est unique (mais pas le vecteur de la translation), de plus V est
un s.e.v. si et seulement si V contient le vecteur nul.
−−→
– Si (V ,V) est un s.e.a. alors ∀ A ∈ V , V = {A + → −
u /→ −
u ∈ V}, et V = {AB / B ∈ V }, on remarquera que
−−→
∀ B ∈ E, B ∈ V ⇐⇒ AB ∈ V.
NT
– Si (V ,V) et (V 0 ,V 0 ) sont deux s.e.a. de E, et si V ∩ V 0 n’est pas vide, alors V ∩ V 0 est un s.e.a de direction
V ∩ V0.
−−→
– Soient (V ,V) et (V 0 ,V 0 ) sont deux s.e.a. de E, soient A ∈ V et A0 ∈ V 0 , alors V ∩ V 0 6= ; ⇐⇒ AA0 ∈ V + V 0 .
On remarquera que la condition est nécessairement remplie lorsque E = V + V 0 .
FExercice 20.8 Étudier les s.e.a. de E lorsque dim(E) = 1, 2, 3.

Définition 20.8
Un repère cartésien R = (O, −e→ −→
1 , . . . , e n ) de E, est la donnée d’un point O de E (appelé origine du
repère), et d’une base B = (−
e→ −→
1 , . . . , e n ) de E. Pour tout point M de E, on appelle coordonnées de M
−−→
dans le repère R, les coordonnées du vecteur OM dans la base B. On remarquera qu’il s’agit des
coordonnées de M − O dans la base B.
MO

Propriété : si A et B ont pour coordonnées respectives (u 1 , . . . , u n ) et (v 1 , . . . , v n ) dans le repère R, alors les


−−→ −−→ −−→ −−→
coordonnées du vecteur AB dans la base B sont (v 1 −u 1 , . . . , v n −u n ). Il suffit pour cela d’écrire AB = OB −OA .
Équation(s) cartésienne(s) d’un hyperplan affine : Soit R = (O, B) un repère de E, avec dim(E) = n, soit
(H , H) un hyperplan affine de E, soit a 1 x 1 + · · · + a n x n = 0 une équation de H dans la base B (un des a i
au moins est non nul), soit A(u 1 , . . . , u n ) ∈ H . Un point M de coordonnées (x 1 , . . . , x n ) appartient à H si et
−−→
seulement si AM ∈ H, ce qui revient à dire que a 1 (x 1 − u 1 ) + · · · + a n (x n − u n ) = 0, on obtient une équation
cartésienne de H de la forme : a 1 x 1 + · · · + a n x n = b.
FExercice 20.9 Montrer que la réciproque est vraie, c’est à dire que les points de coordonnées (x 1 , . . . , x n ) vérifiant une
équation du type a 1 x 1 + · · · + a n x n = b avec au moins un des coefficients a i non nul, forment un hyperplan affine de
direction l’hyperplan vectoriel d’équation cartésienne a 1 x 1 + · · · + a n x n = 0.

3) Équations linéaires

MPSI3 (2015-16) LYCÉE M ONTAIGNE 193 ©Fradin Patrick – http://mpsi.tuxfamily.org


Compléments Chapitre 20 : La dimension finie

Définition 20.9
Une équation linéaire est une équation du type : u(x) = b avec u ∈ L (E, F), b ∈ F et x ∈ E (inconnue).

NE
L’équation u(x) = 0F est appelée équation homogène associée.

ZExemples :

 2x − y = 1
– Tout système linéaire est une équation linéaire, par exemple, le système x + 2y = 3 , peut

3x + 5y = −1
se mettre sous la forme u(X) = b avec u : R2 → R3 définie par u(x, y) = (2x − y, x + 2y, 3x + 5y), avec
b = (1, 3, −1) ∈ R3 et X = (x, y) ∈ R2 , il est facile de vérifier que u ∈ L (R2 , R3 ).
– Une équation différentielle linéaire est une équation linéaire, par exemple l’équation différentielle :
y 0 + y = 1 peut se mettre sous la forme u(y) = b avec u : C 1 (R, R) → C 0 (R, R) définie par u(y) = y 0 + y (u
est linéaire), et b ∈ C 0 (R, R) la fonction constante 1.

AIG
Théorème 20.26 (structure des solutions d’une équation linéaire)
Soit u ∈ L (E, F) et soit b ∈ F, l’équation linéaire u(x) = b avec x ∈ E a des solutions si et seulement si
b ∈ Im(u). Si c’est le cas, et si x 0 ∈ E désigne une solution particulière (i.e. u(x 0 ) = b), alors l’ensemble
de toutes les solutions est S = {y + x 0 / y ∈ ker(u)} = x 0 + ker(u). C’est donc un sous-espace affine de
direction ker(u).

Preuve : Il est clair qu’il y a des solutions si et seulement si b ∈ Im(u). Si on a u(x 0 ) = b, alors l’équation u(x) = b
équivaut à u(x) = u(x 0 ), ou encore à u(x − x 0 ) = 0F (u est linéaire), ce qui équivaut encore à ∃ y ∈ ker(u), x = y + x 0 . 

ZExemples :
– Le système linéaire équivaut à (méthode de Gauss 3 ) :
 
 −y + 2x = 1  −y + 2x = 1
NT
5x = 5 (L2 ← L2 + 2L1 ) ⇐⇒ x = 1
 
13x = 4 (L3 ← L3 + 5L1 ) 0 = −9 (L3 ← L3 − 13L2 )

La dernière équation montre que ce système n’a pas de solution (i.e. b ∉ Im(u)).
– Pour l’équation différentielle, il y a une solution particulière : y 0 : t 7→ 1. L’équation homogène associée
est y 0 + y = 0 dont les solutions sont les fonctions y = λφ où φ : t 7→ e −t . L’ensemble des solutions est
donc S = {1 + λφ / λ ∈ R}.
MO

3. Carl Friedrich (1777 – 1855) : mathématicien allemand de génie, sans doute l’un des plus grands de tous les temps.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 194 ©Fradin Patrick – http://mpsi.tuxfamily.org


NE
Chapitre 21

Séries numériques

AIG
Sommaire
I Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
2) Premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
3) Séries géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
II Séries à termes positifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
1) Critère de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
2) Théorèmes de comparaison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
3) Comparaison avec une intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
III Séries à termes quelconques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
1) Séries absolument convergentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
2) Séries alternées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
3) Séries obtenues par une formule de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . 201
4) Développement décimal d’un réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
NT
I GÉNÉRALITÉS

Dans tout le chapitre K désigne R ou C. On cherche à généraliser la notion de somme d’éléments de K à


un nombre infini de termes.

1) Définitions

Définition 21.1
Soit (u n )n∈N une suite d’éléments de K. On appelle série de terme général u n la suite (S n )n∈N définie
n
MO

P
par S n = u k . Le nombre S n est appelé somme partielle de rang n (d’ordre n) de la série. La série
k=0 P
de terme général u n est notée un .
n∈N

ZExemples :
q n : série géométrique de raison q.
P

n >1
zn
avec z ∈ K : série exponentielle.
P
– n!
n∈N
1
où α ∈ R : séries de Riemann.
P
– nα
n >1

MPSI3 (2015-16) LYCÉE M ONTAIGNE 195 ©Fradin Patrick – http://mpsi.tuxfamily.org


Généralités Chapitre 21 : Séries numériques

Définition 21.2 (convergence d’une série)


• On dit que la série de terme général u n est convergente lorsque la suite des sommes partielles

NE
(S n )n∈N est convergente. Si c’est le cas, la limite de la suite des sommes partielles est appelée somme
+∞
P +∞
P n
P
de la série et notée u n . On a donc u n = lim S n = lim u k . La différence entre la somme
n=0 n=0 n→+∞ n→+∞ k=0
+∞
P n
P +∞
P
de la série et la somme partielle S n est appelée reste de rang n, noté Rn = un − uk = uk .
n=0 k=0 k=n+1
• Une série qui n’est pas convergente, est dite divergente.
• Déterminer la nature d’une série, c’est déterminer si elle est convergente ou divergente.

Attention !
P
On prendra garde à ne pas confondre la notation u n qui désigne la série (c’est à dire la suite des sommes
n∈N
+∞

AIG
P
partielles), avec la notation u n qui désigne la somme de la série, si celle-ci converge (c’est la limite des sommes
n=0
partielles lorsque celle-ci existe dans K).

ZExemples :
n
P n(n+1) P
– La série de terme général u n = n : S n = k= 2 donc lim S n = +∞ et la série n∈N n est divergente.
k=0
n 1−( 13 )n+1
– La série de terme général u n = (− 13 )n : S n = (− 13 )k = , or | − 13 | < 1 donc lim S n = 34 . La série
P
1+ 31
k=0
+∞
1 n
(− 13 )n = 34 .
P P
n∈N (− 3 ) est convergente et sa somme est
n=0
FExercice 21.1 Étudier la nature de la série de terme général u n = (−1)n .
Solution 21.1 On vérifie par récurrence que S 2n = 1 et S 2n+1 = 0, la suite (S n ) est donc divergente et par conséquent la
série de terme général u n aussi.
NT
2) Premières propriétés

Théorème 21.1 (lien suite-série)


n
Soit (s n )n∈K une suite, il existe une suite (u n )n∈N telle que ∀n ∈ N, s n =
P
u k . Autrement dit, il existe
k=0
une suite (u n )n∈N telle que (s n )n∈N est la série de terme général u n .

n
P
Preuve : Posons u 0 = s 0 et pour n > 0, u n = s n − s n−1 , on a alors u k = s 0 + (s 1 − s 0 ) + · · · + (s n − s n−1 ) = s n . 
k=0

Remarque 21.1 – L’ensemble des séries de K n’est donc autre que F (N, K). Pour les opérations usuelles sur les
suites, on sait que c’est un K-e.v. Soient v n deux séries, λ ∈ K. Il est facile de voir que la somme
P P
u n et
MO

n∈N n∈N
v n est la série de terme général u n + v n , et que la série λ
P P P
des deux séries un + u n est la série de terme
n∈N n∈N n∈N
général λu n .
FExercice 21.2 Montrer ¶ l’application de F (N, K) dans lui-même qui a chaque suite (u n )n∈N associe la suite des
que
n
µ
P
sommes partielles uk est un automorphisme.
k=0 n∈N

Théorème 21.2
L’ensemble des séries convergentes de K est un K-espace vectoriel. De plus l’application qui à chaque
P P
série convergente associe sa somme, est (une forme) linéaire. Plus précisément, si u n et vn
n∈N n∈N
sont deux séries convergentes, alors ∀α, β ∈ K, la série αu n + βv n est convergente et :
P
n∈N
+∞ +∞ +∞
αu n + βv n = α un + β
P P P
vn .
n=0 n=0 n=0

MPSI3 (2015-16) LYCÉE M ONTAIGNE 196 ©Fradin Patrick – http://mpsi.tuxfamily.org


Généralités Chapitre 21 : Séries numériques

P
Preuve : Soit (Un ) la suite des sommes partielles de la série u n et (Vn ) la suite des sommes partielles de la série
n∈N
v n . Alors (αUn + βVn ) est la suite des sommes partielles de la série αu n + βv n . Le reste découle des propriétés
P P
n∈N n∈N

NE
des suites convergentes. 

Attention !
• La somme de deux séries divergentes peut très bien donner une série convergente (prendre deux séries divergentes
opposées par exemple).
• La somme d’une série divergente et d’une série convergente est forcément une série divergente (raisonner par
l’absurde).

Théorème 21.3 (convergence d’une série complexe)


P
Soit u n une série à terme complexe, celle-ci est convergente si et seulement si les deux séries réelles
n∈N

AIG
P P +∞
P +∞
P +∞
P
Re(u n ) et Im(v n ) sont convergentes, et auquel cas on a : un = Re(u n ) + i Im(u n ).
n∈N n∈N n=0 n=0 n=0

P
Preuve : Soit (An ) la suite des sommes partielles de la série Re(u n ) et (Bn ) la suite des sommes partielles de la série
P n∈N P
Im(v n ). Alors (Un + i Vn ) est la suite des sommes partielles de la série u n . Le reste découle des propriétés des
n∈N n∈N
suites complexes convergentes. 

Théorème 21.4 (condition nécessaire de convergence)


P
Si la série u n converge alors on a nécessairement lim u n = 0, mais la réciproque est fausse.
n∈N

Preuve : Soit (S n ) la suite des sommes partielles, alors la suite (S n ) converge vers S ∞ la somme de la série, d’où
lim Un − Un−1 = S ∞ − S ∞ = 0, c’est à dire lim u n = 0.
NT
n p
Pour la réciproque prenons u n = p1n , alors S n = p1 > n p1 = n, on en déduit que S n → +∞. La série est
P
nk
k=1
divergente bien que le terme général u n tende vers 0. 

Définition 21.3
P
On dit que la série u n diverge grossièrement lorsque le terme général ne tend pas vers 0.
n∈N

ZExemples :
(−1)n est grossièrement divergente.
P
– La série
n∈N
2n
P 1 P 1
– La série (série harmonique) est divergente (mais pas grossièrement), en effet S 2n −S n = >
MO

n k
n∈N k=n+1
n
2n = 12 . Si la série était convergente alors la suite (S n ) convergerait vers la somme S ∞ , mais alors
S 2n − S n → S ∞ − S ∞ = 0, on aurait donc 0 > 12 ce qui est absurde. La série harmonique est donc
divergente.
n
P 1
Rappel : dans le TD sur les suites, nous avons établi que k ∼ ln(n).
k=1

3) Séries géométriques

Théorème 21.5 (nature des séries géométriques)


z n avec z ∈ C, est convergente si et seulement si |z| < 1, auquel cas sa somme
P
La série géométrique
n∈N
+∞
1
zn =
P
est 1−z .
n=0

MPSI3 (2015-16) LYCÉE M ONTAIGNE 197 ©Fradin Patrick – http://mpsi.tuxfamily.org


Séries à termes positifs Chapitre 21 : Séries numériques

Preuve : Si |z| > 1 alors |z n | > 1 et donc la suite (z n ) ne peut pas tendre vers 0, la série est donc grossièrement divergente
dans ce cas.
n n+1
z k = 1−z n+1 1
P
Si |z| < 1, alors S n = 1−z , or z → 0 car |z| < 1, il en découle que S n → 1−z . 

NE
k=0

ZExemples :
+∞
(− 13 )n est convergente et 1
= 43 .
P P
– La série = 1+ 13
n∈N n=0
(−1)n est grossièrement divergente.
P
– La série
n∈N

Attention !
Pour les séries géométriques convergentes on prendra garde à l’indice du premier terme avant d’appliquer la
formule !

AIG
II SÉRIES À TERMES POSITIFS

Dans ce paragraphe toutes les séries sont à termes réels positifs. Pour ces séries, il faut remarquer que
les sommes partielles forment une suite croissante. La définition peut s’étendre aux séries dont le terme
général est réel positif à partir d’un certain rang seulement.

1) Critère de convergence

Théorème 21.6
Une série à termes positifs est convergente si et seulement si la suite des sommes partielles est majorée
dans R.

Preuve : La série converge si et seulement si la suite (S n ) converge, or cette suite est croissante, on sait donc qu’elle
NT
converge si et seulement si elle est majorée. La résultat en découle. 
Remarque 21.2 –
• Lorsque la suite (S n ) des sommes partielles n’est pas majorée, on a S n → +∞ puisque cette suite est croissante.
• Le critère s’applique aux séries à termes positifs à partir d’un certain rang.
P 1
ZExemple : La série n2
1
est convergente. En effet, pour n > 2 on a k12 6 k(k−1) 1
= k−1 − k1 , on en déduit que
n∈N
n
1 1
= 2 − n1 , et par conséquent S n 6 2.
P
Sn 6 1 + k−1 − k
k=2

Attention !
(−1)n est divergente alors
P
Le critère est en défaut lorsque la série n’est pas à termes positifs. Par exemple la série
n∈N
MO

que ses sommes partielles sont bornées.

2) Théorèmes de comparaison

Théorème 21.7
P P
Soient u n et v n deux séries telles qu’à partir d’un certain rang N on ait 0 6 u n 6 v n , alors on a :
n∈N n∈N
P P +∞
P +∞
P
• Si la v n converge alors la série u n converge et on a un 6 vn .
n∈N P n∈N P n=N n=N
• Si la série u n diverge alors la série v n diverge.
n∈N n∈N

MPSI3 (2015-16) LYCÉE M ONTAIGNE 198 ©Fradin Patrick – http://mpsi.tuxfamily.org


Séries à termes positifs Chapitre 21 : Séries numériques

n
P n
P
Preuve : D’après les hypothèses, on a uk 6 vk .
k=N k=N
P n
P n
P
• Si la série v n converge, alors ( vk ) converge et donc ( v k ) converge, cette suite est donc majorée par un

NE
n∈N k=0 k=N
P
certain réel M, on en déduit que la somme partielle de la série u n est majorée, comme elle est à termes positifs à
n∈N
partir d’un certain rang, elle converge et l’inégalité sur les sommes en découle.
P n
P n
P
• Si la série u n diverge, alors ( u k ) est croissante divergente, donc de limite +∞, on en déduit que ( v k ) tend
n∈N k=N P k=0
vers +∞, cette suite n’est donc pas majorée, donc la série v n est divergente puisqu’elle est à terme positif à partir
n∈N
d’un certain rang. 
ZExemples :
– La série de terme général n13 est convergente car n13 6 n12 et celle-ci est une série est convergente.
– Si α < 1, alors la série de terme général n1α est divergente car n1 6 n1α et on sait que la série harmonique
est divergente.

AIG
Théorème 21.8 (utilisation des relations de comparaison)
Soient (u n ) et (v n ) deux suites à termes positifs (à partir d’un certain rang).
P P
• Si u n = O(v n ) et si v n converge, alors la série u n converge.
n∈N
P Pn∈N
• Si u n = O(v n ) et si u n diverge, alors la série v n diverge.
n∈N P P n∈N
• Si u n ∼ v n alors les deux séries u n et v n sont de même nature.
n∈N n∈N

Preuve : Si u n = O(v n ), alors il existe un réel M > 0 tel qu’à partir d’un certain rang on ait u n 6 Mv n , les deux premiers
points en découlent compte tenu du théorème précédent.
Si u n ∼ v n alors on a à la fois u n = O(v n ) et v n = O(u n ). Le résultat en découle. 

Remarque 21.3 – Les deux premiers points du théorème s’appliquent aussi lorsque u n = o(v n ).

ZExemples :
NT
– Soit u n = sin( n1 ) alors u n ∼ n1 , on en déduit que la série de terme général u n est à termes positifs pour n
assez grand et qu’elle est divergente, car la série harmonique diverge.
– Soit u n = 1 − cos( n1 ), alors u n ∼ 2n1 2 , on en déduit que la série de terme général u n est à termes positifs
pour n assez grand et qu’elle est convergente, car la série de terme général n12 converge.

3) Comparaison avec une intégrale


Cette comparaison peut se faire pour les séries dont le terme général est de la forme u n = f (n) où f est
une fonction continue monotone et à valeurs positives sur un intervalle I = [A; +∞[.

Théorème 21.9
MO

Soit f : [0; +∞[→ R une fonction continue, monotone et à valeurs positives.


Rn n R n+1
• Si f est croissante alors ∀n ∈ N, f (0) + 0 f (t ) d t 6
P
f (k) 6 0 f (t ) d t .
k=0
R n+1 n Rn
• Si f est décroissante alors ∀n ∈ N,
P
0 f (t ) d t 6 f (k) 6 f (0) + 0 f (t ) d t .
k=0

Preuve : Supposons f croissante, alors sur l’intervalle [k; k + 1] on a f (k) 6 f (t ) 6 f (k + 1), on en déduit en intégrant
R k+1
sur cet intervalle que f (k) 6 k f (t ) d t 6 f (k + 1), on somme alors ces inégalités pour k allant de 0 à n, ce qui donne
n
P R n+1 n+1
P
f (k) 6 0 f (t ) d t 6 f (k), ce qui donne le premier encadrement. L’autre cas se traite de la même façon. 
k=0 k=1
1 1
ZExemple : On considère la série de terme général u n = n ln(n) pour n > 2. Soit f (t ) = t ln(t ) sur [2; +∞[, cette
R n+1 n Rn
P 1
fonction est continue, positive et décroissante, on en déduit que 2 f (t ) d t 6 k ln(k) ) 6 f (2) + 2 f (t ) d t ,
Rn k=2
or 2 f (t ) d t = [ln(ln(t ))]n2 = ln(ln(n)) − ln(ln(2) → +∞, la série est donc divergente.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 199 ©Fradin Patrick – http://mpsi.tuxfamily.org


Séries à termes quelconques Chapitre 21 : Séries numériques

Théorème 21.10 (convergence des séries de Riemann)


1
Soit α ∈ R, la série de terme général nα est convergente si et seulement si α > 1.

NE
Preuve : Si α 6 0 alors le terme général ne tend pas vers 0, la série est donc grossièrement divergente.
Supposons α > 0 et soit f (t ) = t1α , c’est une fonction continue, positive et décroissante sur [1; +∞[, on en déduit que
(
R n+1 n
1
Rn R n dt ln(n) si α = 1 Rn
. Si α 6 1 alors 1 f (t ) d t → +∞ et
P
que 1 f (t ) d t 6 k α 6 f (1) + 1 f (t ) d t . On sait que 1 t α = n 1−α −1
k=1 1−α R sinon
n
donc les sommes partielles tendent vers +∞. Par contre, si α > 1 alors ( 1 f (t )d t ) est convergente, donc majorée, et
donc la série (qui est à termes positifs) converge. 
ZExemples : p ³ p ´
, on sait que n 2 = o e n , on en déduit que n 2 u n = o(1) et donc u n = o n12 , or la série
– Soit u n = e − n
¡ ¢
P −pn
de Riemann de terme général n12 converge, donc la série e est convergente.
n∈N

AIG
n α−1/2
– Soit u n = p 1
n ln(n)
, n α un = ln(n) → +∞ si on prend α > 1
2 (théorème des croissances comparées), donc
1 1
pour n assez grand, on a n α 6 u n , en prenant α ∈] 2 ; 1[ on peut en déduire que série de terme général
u n est divergente.
2
– Soit u n = lnn 3/2
(n)
, n α u n = n α−3/2 ln(n)2 → 0 si on prend α < 32 (théorème des croissances comparées),
donc pour n assez grand, on a u n 6 n1α , en prenant α ∈]1; 32 [ on peut en déduire que série de terme
général u n est convergente.

III SÉRIES À TERMES QUELCONQUES

Les séries considérées sont à termes complexes.

1) Séries absolument convergentes


NT
Définition 21.4
P P
La série u n est dite absolument convergente lorsque la série |u n | est convergente.
n∈N n∈N

P
Remarque 21.4 – La série |u n | est évidemment à termes positifs.
n∈N
in
ZExemple : La série de terme général u n = en 3 est absolument convergente car |u n | = n13 : série de Riemann
convergente.

Théorème 21.11
¯ ¯
¯ +∞ ¯ +∞
MO

P P P
Si la série u n est absolument convergente, alors est elle convergente et on a ¯
¯ u n ¯¯ 6 |u n |. La
n∈N n=0 n=0
réciproque est fausse.

Preuve : Posons u n = a n + i b n avec a n et b n réels. Posons a n+ = max(0, a n ) et a n− = max(0, −a n ) (idem pour b n ), alors
on a 0 6 a n+ , 0 6 a n− , a n+ + a n− = |a n | et a n+ − a n− = a n . On en déduit que 0 6 a n+ 6 |a n | 6 |u n | et 0 6 a n− 6 |a n | 6 |u n |.
On en déduit que les séries à termes positifs a n+ et a n− sont convergentes, et par conséquent la série de terme général
a n+ − a n− = a n est convergente. De même on montre que la série de terme général b n converge et donc la série de terme
général a n + i b n = u n est convergente. ¯ ¯
¯P n ¯ Pn
L’inégalité triangulaire donne ¯¯ u k ¯¯ 6 |u k |, par passage à la limite, on obtient l’inégalité annoncée car on sait
k=0 k=0
que les deux sommes ont une limite. 

MPSI3 (2015-16) LYCÉE M ONTAIGNE 200 ©Fradin Patrick – http://mpsi.tuxfamily.org


Séries à termes quelconques Chapitre 21 : Séries numériques

Attention !
n
La réciproque du théorème ci-dessus est fausse, par exemple on montrera que la série de terme général u n = (−1) n

NE
est convergente, mais on sait que la série de terme général |u n | = n1 est divergente. Une telle série est dite semi-
convergente.

2) Séries alternées

Définition 21.5
Une série alternée est une série dont le terme général est de la forme (−1)n a n où (a n ) est une suite
réelle positive.

Théorème 21.12 (critère spécial à certaines séries alternées)

AIG
(−1)n a n telle que la suite (a n ) est décroissante de limite nulle, est convergente.
P
Une série alternée
n∈N
De plus on a la majoration du reste d’ordre n : |Rn | 6 a n+1 .

n
(−1)k a k les sommes partielles, posons u n = S 2n et v n = S 2n+1 , alors u n+1 − u n = S 2n+2 − S 2n =
P
Preuve : Soit S n =
k=0
a 2n+2 − a 2n+1 6 0 car la suite (a k ) est décroissante, on en déduit que la suite u est décroissante. De même, v n+1 − v n =
S 2n+3 − S 2n+1 = a 2n+2 − a 2n+3 > 0, la suite v est donc croissante. Or u n − v n = a 2n+1 → 0, les deux suites sont donc
adjacentes, elles convergent vers une même limite `, on a donc S 2n → ` et S 2n+1 → `, on en déduit que S n → `, la série
est donc bien convergente de somme `.
De plus on a l’encadrement v n 6 ` 6 u n , ce qui veut dire que ` est compris entre S n et S n+1 pour tout n, par
conséquent : |Rn | = |` − S n | 6 |S n+1 − S n | = a n+1 . 
Remarque 21.5 – Lorsque le critère s’applique, la majoration du reste donne un renseignement sur la vitesse
de convergence. Cette majoration est également utile lorsqu’on veut faire un calcul approché de la somme `
avec une précision donnée.
NT
n
(−1)n (−1)k 1
ZExemple : La série de terme général
P
n est convergente, soit S sa somme, on a |S − k | 6 n+1 , à
k=1
priori la convergence est lente. Nous verrons en exercice que S = − ln(2). Cette série n’est pas absolument
convergente, mais seulement semi-convergente.
FExercice 21.3 utilisation d’un développement asymptotique)
n
1/ Nature de la série de terme général u n = sin( (−1)
p ).
n
n
2/ Même chose avec u n = ln(1 + (−1)
p ).
n

Solution 21.3
n n n
³ ´
1/ On a sin( (−1)
p )=
n
(−1)
p
n
− (−1)
6n 3/2
+o 1
n 3/2
, on reconnaît trois séries convergentes : la première par le critère spécial
des séries alternées, la deuxième est absolument convergente car en valeur absolue c’est une série de Riemann,
MO

P
et la troisième par comparaison avec une série de Riemann également. On en déduit que la série u n converge.
n∈N
n n n
³ ´
2/ On a pour n > 1, ln(1 + (−1)
p ) = (−1)
n
p
n
1
− 2n − (−1)
3n 3/2
1
+ o n 3/2 , on reconnaît trois séries convergentes : la première
par le critère spécial des séries alternées, la troisième est absolument convergente car en valeur absolue c’est
une série de Riemann, la quatrième par comparaison avec une série de Riemann également, mais la deuxième
P
est une série de Riemann divergente. On en déduit que la série u n diverge.
n∈N

Attention !
n n
Sur le deuxième exemple on a ln(1 + (−1)
p ) ∼ (−1)
n
p , la série de gauche est divergente alors que la série de droite
n
est convergente. Le théorème de comparaison est donc en défaut lorsque les séries ne sont pas à termes de signe
constant.

3) Séries obtenues par une formule de Taylor

MPSI3 (2015-16) LYCÉE M ONTAIGNE 201 ©Fradin Patrick – http://mpsi.tuxfamily.org


Séries à termes quelconques Chapitre 21 : Séries numériques

Théorème 21.13 (formule de Taylor avec reste intégrale)


Soit f : I → C une fonction de classe C n+1 sur l’intervalle I, alors on a la formule suivante :

NE
n f (k) (a) R x (x−t )n (n+1)
P k
∀ a, x ∈ I, f (x) = k! (x − a) + a n! f (t ) d t .
k=0

Preuve : Celle-ci est laissée en exercice, il s’agit d’une simple récurrence sur n. On en déduit le théorème suivant. 

Théorème 21.14 (inégalité de Taylor-Lagrange 1 )


Si f : I → C est de classe C n+1 sur I et si | f (n+1) | est majorée par un réel Mn+1 , alors :
n+1
∀ x, a ∈ I, ¯ f (x) − Tn, f ,a (x)¯ 6 Mn+1 |x−a|
¯ ¯
(n+1)! .

Applications :
– La série exponentielle : soit z ∈ C, pour t ∈ [0; 1] on pose f (t ) = e t z , cette fonction est de classe C ∞ sur [0; 1],

AIG
pour n ∈ N, on a f (n+1) (t ) = z n+1 e t z , en posant z = a + i b, on a | f (n+1) (t )| 6 |z|n+1 e t a 6 |z|n+1 M où M désigne le
maximum de la fonction e t a sur [0; 1], appliquons l’inégalité de Taylor-Lagrange entre 0 et 1 à l’ordre n :
¯ ¯

n
¯ z X z ¯
¯ |z|n+1
¯e − ¯6M .
k=0 k! (n + 1)!
¯ ¯

On voit que le majorant tend vers 0 lorsque n → +∞, car |z|n = o(n!), par conséquent :

n zk X zn
+∞
∀ z ∈ C, e z = lim ou encore ∀z ∈ C, e z =
X
.
k=0 k! n=0 n!
n→+∞

– Développement de sin en série : avec la fonction sin, toutes ses dérivées sont majorées par 1, on a donc pour
x ∈ R et n ∈ N, en appliquant l’inégalité de Taylor-Lagrange entre 0 et x à l’ordre 2n + 1 :
¯ ¯
2k+1 ¯
n
k x |x|2n+2
NT
¯ X
¯sin(x) − (−1) ¯6 .
¯ ¯
¯ k=0 (2k + 1)! ¯ (2n + 2)!

Là encore, on voit que le majorant tend vers 0 lorsque n → +∞ on en déduit donc que :

n x 2k+1 +∞ x 2n+1
∀ x ∈ R, sin(x) = lim (−1)k ou encore ∀x ∈ R, sin(x) = (−1)n
X X
.
n→+∞
k=0 (2k + 1)! n=0 (2n + 1)!

– Développement de cos en série : de la même façon on montre que

n x 2k +∞ x 2n
∀ x ∈ R, cos(x) = lim (−1)k ou encore ∀x ∈ R, cos(x) = (−1)n
X X
.
n→+∞
k=0 (2k)! n=0 (2n)!
MO

Remarque 21.6 –
– On peut aussi déduire le développement en série de sin et cos en prenant les parties imaginaire et réelle
du développement en série de e i x .
– Ceci se généralise au cas où f est C ∞ et que ses dérivées en module sont toutes majorées par une même
constante, car on sait que |x − a|n = o(n!).

4) Développement décimal d’un réel


Rappels
Soit x ∈ R :
n
xc
• Soit a n = b10
10n , la suite (a n ) est la suite de approximations décimales de x par défaut à 10
−n
près, car
−n
a n 6 x < a n + 10 .
• Pour n > 1, on pose d n = 10n [a n − a n−1 ], alors d n est un entier de l’intervalle J0; 9K (appelé ne décimale de
x).
1. LAGRANGE Joseph Louis (1736 – 1813) : mathématicien qui fut un précurseur dans de nombreux domaines scientifiques.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 202 ©Fradin Patrick – http://mpsi.tuxfamily.org


Séries à termes quelconques Chapitre 21 : Séries numériques

n n
P dk P
On remarque alors qu’en posant d 0 = a 0 = bxc, on a 10k
= a0 + a k − a k−1 = a n → x, ce qui signifie
k=0 k=0
dn
que la série de terme général est convergente et de somme x :

NE
10n

+∞
X dn
x= n
, c’est le développement décimal de x
n=0 10

+∞ +∞
ZExemple : 13 = 3 7 1 6
P P
10n , 6 = 1 + 10 + 10n ···
n=1 n=2

Théorème 21.15 (Compléments)


• La suite (d n ) définie ci-dessus ne peut jamais être constante égale à 9 à partir d’un certain rang, c’est
ce que l’on appelle le développement décimal propre de x.
• Tout réel x admet un unique développement décimal propre.

AIG
• La suite (d n )n >1 des décimales est périodique à partir d’un certain rang si et seulement si x est
rationnel.

Remarque 21.7 –
P dn
• Pour toute suite d’entiers (d n ) telle que ∀n > 1, d n ∈ J0; 9K, la série 10n est convergente car positive à partir
n∈N
du rang 1, et majorée par une série géométrique convergente.
• Si on n’impose pas la condition « (d n ) ne doit pas être constante égale à 9 à partir d’un certain rang », alors il
+∞
P 9
n’y a plus unicité du développement décimal, car par exemple 10n = 1.
n=1

Théorème 21.16 (Une application)


Il n’existe pas de bijection entre N et R (on dit que R est non dénombrable).
NT
Preuve : Soit φ : N → R une application, alors pour tout n ∈ N, φ(n) a un unique développement décimal propre
+∞
P dn,k +∞
P bk
φ(n) = 10k
. On définit une suite (b k )k >0 en posant b k = 0 si d k,k 6= 0 et b k = 1 si d k,k = 0, soit x = 10k
, s’il existait
k=0 k=0
m ∈ N tel que φ(m) = x alors on devrait avoir (par unicité) b m = d m,m , ce qui absurde car ∀k ∈ N, b k 6= d k,k , x n’a donc
pas d’antécédent par φ, et donc φ ne peut pas être surjective. 
Remarque 21.8 – La méthode utilisée dans la preuve est connue sous le nom de « procédé diagonal de Cantor ».
MO

MPSI3 (2015-16) LYCÉE M ONTAIGNE 203 ©Fradin Patrick – http://mpsi.tuxfamily.org


NE
Chapitre 22

Matrices

Sommaire

AIG
I Matrices, liens avec les applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
2) Structure d’espace vectoriel sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . 206
3) Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
II Produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
2) Retour aux applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
3) Propriétés du produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
III Matrices carrées inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
2) Retour aux applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
IV Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
1) Matrice de passage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
NT
2) Formules du changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
3) Changement de bases et applications linéaires . . . . . . . . . . . . . . . . . . . . . . . 216
4) Trace d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
V Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
2) Propriétés du rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
VI Opérations élémentaires sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
2) Calcul pratique du rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
3) Calcul pratique de l’inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 222
MO

K désigne un sous-corps de C.

I MATRICES, LIENS AVEC LES APPLICATIONS LINÉAIRES

1) Définitions

Définition 22.1
Soient n, p ∈ N∗ , on appelle matrice à n lignes et p colonnes à coefficients dans K, toute application
M : J1; n K × J1; p K → K. Pour (i , j ) ∈ J1; n K × J1; p K, on pose M(i , j ) = Mi , j (ou m i , j ), c’est le coefficient
de la matrice M d’indices i et j , le premier indice est appelé indice de ligne, et le second indice de
colonne.
L’ensemble des matrices à n lignes et p colonnes à coefficients dans K est noté Mn,p (K), on a donc
Mn,p (K) = F (J1; n K × J1; p K , K).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 204 ©Fradin Patrick – http://mpsi.tuxfamily.org


Matrices, liens avec les applications linéaires Chapitre 22 : Matrices

m 1,1 m 1,p
 
···
 .. .. 
Notations : Si M ∈ Mn,p (K), on peut écrire : M = (m i , j ) 16i 6n ou bien M =  . . .
16 j 6 p

NE
m n,1 · · · m n,p
Remarque 22.1 – L’égalité entre deux matrices est en fait l’égalité entre deux fonctions, par conséquent deux
matrices sont égales lorsqu’elles ont la même taille et les mêmes coefficients.
Cas particuliers :
– Lorsque n = p on dit que la matrice est carrée, l’ensemble des matrices carrées à n lignes est noté
Mn (K) au lieu de Mn,n (K).
– Lorsque n = 1 on dit que M est une matrice ligne : 1 2 −3 ∈ M1,3 (K).
¡ ¢

2
 

– Lorsque p = 1 on dit que M est une matrice colonne : 0 ∈ M3,1 (K).



5

AIG
Définition 22.2
Soit M ∈ Mn,p (K), pour k ∈ J1; p K :
On appelle k-ième vecteur colonne de M le vecteur c k (M) = (m 1,k , . . . , m n,k ), c’est un élément de Kn .
m 1,k
 
 . 
On appelle k-ième matrice colonne de M la matrice C k (M) =  ..  ∈ Mn,1 (K).
m n,k
On appelle k-ième vecteur ligne de M le vecteur Lk (M) = (m k,1 , . . . , m k,p ), c’est un élément de Kp .
On appelle k-ième matrice ligne de M la matrice L k (M) = m k,1 · · · m k,p ∈ M1,p (K).
¡ ¢

Définition 22.3 (transposition)


Soit M ∈ Mn,p (K), on appelle transposée de M la matrice de Mp,n (K) notée t M et définie par :
[ t M i , j = M j ,i pour i ∈ J1; p K et j ∈ J1; n K
¡ ¢
NT
Autrement dit, la ligne i de t M est la colonne i de M.

1 4
 
µ ¶
1 2 3
ZExemple : Soit M = ∈ M2,3 (K), on a t M = 2 5 ∈ M3,2 (K).
4 5 6
3 6

Théorème 22.1 (propriétés de la transposition)


On a les propriétés suivantes :
• Mn (K) est stable pour la transposition.

• t M = M, on en déduit en particulier que la transposition est une involution dans Mn (K).
¢

• Lk (t M) = Ck (M) et Ck (t M) = Lk (M).
MO

Preuve : Celle-ci est simple et laissée en exercice. 

Définition 22.4 (trace d’une matrice carrée)


n
Soit M ∈ Mn (K), on appelle trace de M le scalaire noté tr(M) et défini par : tr(M) =
P
Mi ,i , c’est donc
i =1
la somme des coefficients diagonaux.

Matrices particulières :
– Matrice nulle : la matrice nulle à n lignes et p colonnes est la matrice de Mn,p (K) dont tous les
coefficients sont nuls, celle-ci est notée On,p . Lorsque p = n, la matrice On,n est notée simplement On ,
c’est la matrice nulle de Mn (K).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 205 ©Fradin Patrick – http://mpsi.tuxfamily.org


Matrices, liens avec les applications linéaires Chapitre 22 : Matrices

– Matrice unité : la matrice unité de Mn (K) est la matrice carrée de taille n, notée In et définie par
In = (δi , j )16i , j 6n , c’est à dire, In est la matrice dont tous les coefficients diagonaux sont égaux à 1, les
autres (coefficients extra-diagonaux) sont tous nuls.

NE
1 0 0
 

ZExemple : I3 = 0 1 0 est la matrice unité de M3 (K).


0 0 1
– Matrice diagonale : une matrice diagonale est une matrice carrée  dont tous les coefficients extra-
a1 0 ··· 0
 0 a2 0 · · · 0 
 
diagonaux sont nuls. C’est donc une matrice de la forme M =  . 
.. , une telle matrice
.. 
 .. . . 
0 ··· 0 an
est notée parfois M = diag(a 1 , . . . , a n ).
– Matrice élémentaire : une matrice élémentaire de Mn,p (K) est une matrice dont tous les coefficients
sont nuls sauf un qui vaut 1. Il y a donc np matrices élémentaires dans Mn,p (K), pour (i , j ) ∈ J1; n K ×

AIG
J1; p K, on note Ei , j la matrice élémentaire qui possède un 1 ligne i colonne j , et des 0 ailleurs, plus
précisément : (Ei , j )k,l = δi ,k δ j ,l .
µ ¶
0 1 0
ZExemple : Dans M2,3 (K), on a E1,2 = .
0 0 0
– Matrice triangulaire supérieure : c’est une matrice carrée dont tous les éléments situés sous la diago-
nale principale sont nuls. L’ensemble des matrices triangulaires supérieures de Mn (K) est noté Tns (K),
on a donc :
M ∈ Tns (K) ⇐⇒ ∀ i , j ∈ J1; n K , i > j =⇒ Mi , j = 0.
– Matrice triangulaire inférieure : c’est une matrice carrée dont tous les éléments situés au-dessus de
la diagonale principale sont nuls. L’ensemble des matrices triangulaires inférieures de Mn (K) est noté
Tni (K), on a donc :
M ∈ Tni (K) ⇐⇒ ∀ i , j ∈ J1; n K , i < j =⇒ Mi , j = 0.
– Matrice symétrique : c’est une matrice qui est égale à sa transposée (elle est donc nécessairement
NT
carrée) : M = t M. L’ensemble des matrices symétriques de taille n est noté S n (K), on a donc :
M ∈ S n (K) ⇐⇒ ∀ i , j ∈ J1; n K , Mi , j = M j ,i .
– Matrice antisymétrique : c’est une matrice qui est égale à l’opposé de sa transposée (elle est donc
nécessairement carrée) : M = −t M. L’ensemble des matrices antisymétriques de taille n est noté An (K),
on a donc :
M ∈ An (K) ⇐⇒ ∀ i , j ∈ J1; n K , Mi , j = −M j ,i ,
on en déduit en particulier que Mi ,i = 0 (les coefficients diagonaux sont nuls).

2) Structure d’espace vectoriel sur les matrices

Définition 22.5 (somme de deux matrices)


Soient A, B ∈ Mn,p (K), on appelle somme de A et B la matrice de Mn,p (K) notée A + B et définie par :
MO

∀ (i , j ) ∈ J1; n K × J1; p K , (A + B)i , j = Ai , j + Bi , j . On additionne entre eux les éléments ayant les mêmes
indices.

µ ¶ µ ¶ µ ¶
1 2 3 −1 0 1 0 2 4
ZExemple : + = .
4 5 6 −2 3 4 2 8 10

Théorème 22.2
(Mn,p (K), +) est un groupe abélien. L’élément neutre est la matrice nulle : On,p , et si A ∈ Mn,p (K),
l’opposé de A est la matrice −A définie par ∀ (i , j ) ∈ J1; n K × J1; p K , (−A)i , j = −Ai , j .

Preuve : Celle-ci est simple et laissée en exercice. 

MPSI3 (2015-16) LYCÉE M ONTAIGNE 206 ©Fradin Patrick – http://mpsi.tuxfamily.org


Matrices, liens avec les applications linéaires Chapitre 22 : Matrices

Définition 22.6 (produit par un scalaire)


Soit M ∈ Mn,p (K) et soit λ ∈ K, on appelle produit de la matrice M par le scalaire λ la matrice de

NE
Mn,p (K) notée λ.M et définie par :∀ (i , j ) ∈ J1; n K × J1; p K , (λ.M)i , j = λ × Mi , j . C’est à dire, chaque
coefficient de M est multiplié par λ.

1 2 2 4

  

ZExemple : 2 · 3 4 =  6 8 .
5 6 10 12
Propriétés : On peut vérifier facilement, soient A, B ∈ Mn,p (K), soient λ, µ ∈ K :
– 1.A = A.
– λ.(A + B) = λ.A + λ.B.
– (λ + µ).A = λ.A + µ.A.
– (λµ).A = λ.(µ.A).
On peut donc énoncer le résultat suivant : (Mn,p (K), +, .) est un K-espace vectoriel.

AIG
Théorème 22.3 (dimension de Mn,p (K))
Mn,p (K) est un K-e.v de dimension np, et les matrices élémentaires (Ei , j ) 16i 6n constituent une base
16 j 6 p
de Mn,p (K). Cette base est appelée base canonique de Mn,p (K), car les coordonnées d’une matrice
M ∈ Mn,p (K) dans cette base sont les coefficients de M, c’est à dire :
Mi , j .Ei , j .
P
M=
16i 6n
16 j 6 p

Preuve : Il reste à montrer que la famille des matrices élémentaires est libre et génératrice de Mn,p (K). Soit M ∈
Mn,p (K), posons B = Mi , j .Ei , j , on a alors ∀ (k, l ) ∈ J1; n K × J1; p K , Bk,l = Mi , j .(Ei , j )k,l , ce qui donne Bk,l =
P P
16i 6n 1 6i 6n
16 j 6 p 16 j 6 p
Mi , j δi ,k δ j ,l , et donc Bk,l = Mk,l , d’où B = M. Ce qui prouve que toute matrice M s’écrit de manière unique
P
NT
1 6i 6n
16 j 6 p
comme combinaison linéaire des matrices élémentaires, celles-ci constituent donc une base de Mn,p (K), or elles sont
au nombre de np, donc dim(Mn,p (K)) = np. Celle-ci est simple et laissée en exercice. 
FExercice 22.1 Montrer que Tns (K), Tni (K), S n (K) et An (K) sont des s.e.v de Mn (K). Pour chacun d’eux donner une
base et la dimension.

Théorème 22.4 (propriétés de la transposition et de la trace)


On a les propriétés suivantes :
• La transposition est linéaire, plus précisément, c’est un isomorphisme de Mn,p (K) sur Mp,n (K).
• La trace est une forme linéaire non nulle sur Mn (K).

Preuve : Pour le premier point, la linéarité est simple à vérifier. On peut voir ensuite que la transposition transforme la
MO

base canonique de Mn,p (K) en la base canonique de Mp,n (K).


Pour le second point, il s’agit d’une simple vérification de la linéarité, d’autre part, tr(In ) = n 6= 0. 
FExercice 22.2 Montrer que la transposition dans Mn (K) est une symétrie, déterminer ses éléments caractéristiques.

3) Matrice d’une application linéaire


Soit E un K-e.v de dimension p, soit B = (e 1 , . . . , e p ) une base de E. Soit F un K-e.v de dimension n et soit
B = (u 1 , . . . , u n ) une base de F. Soit f ∈ L (E, F), on sait que f est entièrement déterminée par la donnée de
0

f (e 1 ), . . . , f (e p ), mais chacun de ces vecteurs est lui-même déterminé par ses coordonnées dans la base B0
de F. Notons coord( f (e j )) = (a 1, j , . . . , a n, j ) pour j ∈ J1; p K, c’est à dire :
B0
n
X
∀ j ∈ J1; p K , f (e j ) = ai , j ui .
i =1

On obtient ainsi une matrice A = (a i , j ) 16i 6n cette matrice est définie par : c j (A) = coord( f (e j )).
16 j 6 p B0

MPSI3 (2015-16) LYCÉE M ONTAIGNE 207 ©Fradin Patrick – http://mpsi.tuxfamily.org


Matrices, liens avec les applications linéaires Chapitre 22 : Matrices

Définition 22.7
Soit f ∈ L (E, F), soit B = (e 1 , . . . , e p ) une base de E et soit B0 = (u 1 , . . . , u n ) une base de F, on appelle

NE
matrice de f relative aux bases B et B0 la matrice de Mn,p (K) notée mat ( f ) et définie par : pour
B,B0
j ∈ J1; p K, le j -ième vecteur colonne de cette matrice est coord( f (e j )), autrement dit, le coefficient de
B0
la ligne i colonne j est la coordonnée sur u i du vecteur f (e j ).

Construction de cette matrice :

f (e 1 ) . . . f (e p )
↓ ↓
a 1,1 a 1,p → u 1
 
···
 .. .. ..  ..
mat ( f ) =  . . .  .

AIG
B,B0
a n,1 ··· a n,p → u n

ZExemples :
– Soit B = (e 1 , e 2 , e 3 ) la base canonique de K3 et soit B0 = (u, v) la base canonique de K2 , soit f ∈
L (K3 , K2 ) définie par ∀ (x, y, z) ∈ K3 , f (x, y, z) = (2x − y + z, x + 2y − 3z). Déterminons A = mat ( f ), on
 B,B0
 f (e 1 ) = f (1, 0, 0) = (2, 1) = 2u + v


a f (e 2 ) = f (0, 1, 0) = (−1, 2) = −u + v , donc la matrice de f est :


 f (e ) = f (0, 0, 1) = (1, −3) = u − 3v
3

µ ¶
2 −1 1
A= .
1 2 −3

– Avec les notations précédentes, déterminons l’application linéaire g : K3 → K2 donnée par :


NT
µ ¶
6 −2 1
mat (g ) = .
B, B0 4 5 −1

On a g (x, y, z) = xg (e 1 ) + y g (e 2 ) + zg (e 3 ) = x(6, 4) + y(−2, 5) + z(1, −1) = (6x − 2y + z, 4x + 5y − z).


Remarque 22.2 – Cas particuliers des endomorphismes : lorsque l’espace d’arrivée est le même que celui de
départ (F = E), on choisit en général la même base à l’arrivée qu’au départ (B0 = B), on note alors mat( f ) =
B,B
mat( f ), c’est une matrice carrée.
B
FExercice 22.3
1/ Soit E = K3 [X] et soit B la base canonique de E :
a) On note D la dérivation dans E, calculer mat(D).
B
MO

b) Soit ∆ définie par ∆(P) = P(X + 1) − P(X), calculer mat(∆).


B
X(X−1) X(X−1)(X−2)
c) Soit P0 = 1, P1 = X, P2 = 2 et P3 = 6 , montrer que B0 = (P0 , P1 , P2 , P3 ) est une base de E et
calculer mat(∆).
B0
2/ Calculer la matrice de la transposition dans la base canonique de M2 (K).

Théorème 22.5 (caractérisation de l’identité et de l’application nulle)


Soit E un e.v de dimension n et soit B une base de E :
• Soit f ∈ L (E), alors f = idE ⇐⇒ mat( f ) = In .
B
• Soit F un e.v de dimension p et soit B0 une base de F, soit f ∈ L (E, F), alors :
f = 0 ⇐⇒ mat ( f ) = Op,n .
B, B0

Preuve : Celle-ci est simple et laissée en exercice. 

MPSI3 (2015-16) LYCÉE M ONTAIGNE 208 ©Fradin Patrick – http://mpsi.tuxfamily.org


Produit matriciel Chapitre 22 : Matrices

Théorème 22.6
Soient E, F deux K-e.v, soit B une base de E et soit B0 une base de F, soient f , g ∈ L (E, F) et soit λ ∈ K.

NE
On a :
mat ( f + g ) = mat ( f ) + mat (g ) et mat (λ. f ) = λ. mat ( f ).
B,B0 B,B0 B, B0 B,B0 B,B0
Autrement dit, l’application : mat : L (E, F) → Mn,p (K) (avec n = dim(F) et p = dim(E)), est une
B,B0
application linéaire. Plus précisément, cette application est un isomorphisme.

Preuve : La vérification de la linéarité est simple (elle découle de la linéarité de l’application coordonnées). Si mat ( f ) =
B,B0
On,p , alors on sait que f est nulle, donc l’application mat est injective, la surjectivité étant évidente, on a donc bien un
B,B0
isomorphisme. 

Théorème 22.7
Soit E un K-espace vectoriel de dimension p, soit F un K-espace vectoriel de dimension n, et soit

AIG
u ∈ L (E, F) une application linéaire de rang r , alors il existe une base B de E et une base B0 de F
telles que mat (u) = Jn,p,r où Jn,p,r désigne la matrice de Mn,p (K) définie par :
B, B0
 
1 0 ··· 0
0 . . .
 .. 
 .
.
 ..

Jn,p,r = 
 1 

0 · · · 0 · · · 0

 .. ..
 
.

. 
0 ··· 0
Il y a r fois le scalaire 1 sur la diagonale.

Preuve : D’après le théorème du rang, dim(ker(u)) = p − r , soit H un supplémentaire de ker(u) dans E et soit (e 1 , . . . , e r )
NT
une base de H, soit (e r +1 , . . . , e p ) une base de ker(u), alors B = (e 1 , . . . , e p ) est une base de E. On sait que (u(e 1 ), . . . , u(e r ))
est une base de Im(u), on peut compléter en une base de F : B0 = (u(e 1 ), . . . , u(e r ), v r +1 , . . . , v n ) et la matrice de u dans
les bases B et B0 a exactement la forme voulue. 

II PRODUIT MATRICIEL

Matrice d’une composée : Soient B = (e 1 , . . . , e q ) une base de E, B0 = (u 1 , . . . , u p ) une base de F, et B00 =


(v 1 , . . . , v n ) une base de G, soit f ∈ L (E, F), g ∈ L (F, G), on pose B = mat ( f ) ∈ Mp,q (K), A = mat (g ) ∈ Mn,p (K)
B, B0 B0 ,B00
p
et C = mat (g ◦ f ) ∈ Mn,q (K). Il s’agit de calculer g ◦ f (e j ) dans la base B00 , on a : f (e j ) =
P
Bk, j u k , donc :
B,B00 k=1
p p P
n n p
µ ¶
P P P P
g ◦ f (e j ) = Bk, j g (u k ) = Bk, j Ai ,k v i , c’est à dire : g ◦ f (e j ) = Ai ,k Bk, j v i . On doit donc avoir :
k=1 k=1 i =1 i =1 k=1
MO

p
C ∈ Mn,q (K) avec Ci , j =
P
Ai ,k Bk, j . On voit que l’opération à effectuer sur les matrices A et B pour obtenir C
k=1
n’est pas aussi simple que pour la somme. Nous allons définir cette opération comme étant le produit entre
les deux matrices A et B.

1) Définition

Définition 22.8
Soient A ∈ Mn,p (K), soit B ∈ Mp,q (K), on appelle produit de A par B la matrice de Mn,q (K) notée A×B
et définie par :
p
P
∀ (i , j ) ∈ J1; n K × J1; q K , [A × B]i , j = Ai ,k Bk, j .
k=1
On retient ceci en disant que le coefficient [A × B]i , j est le résultat du « produit de la ligne i de A avec
la colonne j de B ».

MPSI3 (2015-16) LYCÉE M ONTAIGNE 209 ©Fradin Patrick – http://mpsi.tuxfamily.org


Produit matriciel Chapitre 22 : Matrices

Disposition des calculs :

b 11 ··· b1 j ··· b 1q

NE
B= .. .. ..
. . .
×
b p1 ··· bp j ··· b pq

a 11 ··· a 1p • ··· ··· •


=
.. .. .. ..
. . . .
p
ai 1 ··· ai p ··· ···
P
A= • ai k bk j • = AB
k=1
.. .. .. ..
. . . .
a n1 ··· a np • ··· ··· •

AIG
Remarque 22.3 :
– Le produit A × B n’est possible que si le nombre de colonnes de A est égal au nombre de lignes de B. Le
résultat a alors autant de lignes que A et autant de colonnes que B.
– Dans Mn (K) le produit matriciel est interne.
– En général A × B 6= B × A, il se peut même que A × B soit défini, mais pas B × A.
ZExemple :
0 1 1 1 −1 3
     
¡ ¢ ¡ ¢ ¡ ¢
1 −1 3 × −1 2 = 7 2 2 × 1 −1 3 = 2 −2 6
2 1 3 3 −3 9

1
 
µ ¶ µ ¶ µ ¶
1 2 0 1 1 −2 1 3
NT
¡ ¢ ¡ ¢
1 −1 2 × 2 = 5 × =
−2 1 −1 0 1 −1 −2 −1
3

0 1 0 1 −2 1
     
µ ¶ µ ¶
1 2  −1 2 × 1 2 = −5 0
× −1 2 n’est pas défini
−2 1 −2 1
0 1 0 1 −2 1

2) Retour aux applications linéaires

Théorème 22.8
Soit B une base de E, soit B0 une base de F et soit B00 une base de G, soit f ∈ L (E, F) et soit g ∈ L (F, G)
MO

avec A = mat (g ) et B = mat ( f ), alors :


B0 ,B00 B,B0
mat (g ◦ f ) = A × B = mat (g ) × mat ( f ).
B,B00 B0 ,B00 B,B0

Remarque 22.4 – Cas particulier des endomorphismes : Soit E un K-e.v, soit B une base de E et soient
u, v ∈ L (E) avec A = mat(u) et B = mat(v), on a alors mat(u ◦ v) = mat(u) × mat(v) = A × B, en particulier :
B B B · ¸nB B

∀ n ∈ N, mat(u n ) = mat(u) = An .
B B

Théorème 22.9 (relation fondamentale)


Soit B = (e 1 , . . . , e p ) une base de E, soit B0 = (u 1 , . . . , u n ) une base de F et soit f ∈ L (E, F). Pour x ∈ E,
on pose X la matrice colonne des coordonnées de x dans la base B, ce que l’on note : X = Coord(x) ∈
B
Mp,1 (K)) et Y la matrice colonne des coordonnées de y = f (x) dans la base B0 : Y = Coord( f (x)) ∈
B0

MPSI3 (2015-16) LYCÉE M ONTAIGNE 210 ©Fradin Patrick – http://mpsi.tuxfamily.org


Produit matriciel Chapitre 22 : Matrices

Mn,1 (K). En posant A = mat ( f ), on a alors la relation suivante :


B,B0
Y = A × X i.e. Coord( f (x)) = mat ( f ) × Coord(x).
B0 B,B0 B

NE
x1 y1
  
 ..   .. 
Preuve : Posons X =  .  et Y =  . , comme A ∈ Mn,p (K) on voit que le produit A × X est bien défini et que c’est une
xp yn
p
P Pn
matrice colonne à n lignes. On a f (x) = x k f (e k ), mais on a f (e k ) = a i ,k u i , ce qui donne :
k=1 µ i =1
n p n n

P P P P
f (x) = a i ,k x k,1 u i = [A × X]i ,1 u i = y i ui .
i =1 k=1 i =1 i =1
Ce qui prouve que Y = A × X. 
FExercice 22.4
1/ Soient B la base canonique de K3µ et B0 la base 2 3 2
¶ canonique de K , soit f ∈ L (K , K ) définie par sa matrice dans
1 −2 3

AIG
les bases B et B0 : mat ( f ) = A = , calculer f (x, y, z).
B,B0 2 1 −5
2/ Soit B = (i , j , k) la base canonique de K3 , on pose B0 = (i , i + j , i + j + k), on vérifie que B0 est une base de K3 .
 
1 −1 0
3
Soit f ∈ L (K ) défini par mat( f ) = A = 0 2 −1, calculer f (x, y, z).
B0
0 0 1
3/ Soient A, B ∈ Mn,p (K) telles que ∀ X ∈ Mp,1 (K), AX = BX, montrer que A = B.

Solution 22.4
 
x µ ¶
x − 2y + 3z
1/ Coord(x, y, z) = X =  y , d’où Coord( f (x, y, z)) = A × X = , donc f (x, y, z) = (x − 2y + 3z, 2x + y − 5z)
B B0 2x + y − 5z
z
(B0 est la base canonique de K2 ).
 
x−y
2/ On a (x, y, z) = xi + y j + zk = z(i + j + k) + (y − z)(i + j ) + (x − y)i , donc Coord(x, y, z) = X =  y − z , d’où
B0
z
NT
 
x − 2y + z
Coord( f (x, y, z)) = A × X =  2y − 3z , c’est à dire f (x, y, z) = (x − 2y + z)i + (2y − 3z)(i + j ) + z(i + j + k), et
B0
z
donc f (x, y, z) = (x − z, 2y − 2z, z).
3/ Soit B la base canonique de Kp et B0 la base canonique de Kn , soit f ∈ L (Kp , Kn ) l’application linéaire définie
par mat ( f ) = A − B. Pour x ∈ Kp , posons X = Coord(x), on a alors Coord( f (x)) = (A − B)X = On,1 , ce qui montre
B,B0 B B0
que f est l’application nulle, donc sa matrice est nulle, ce qui donne A = B.

Définition 22.9 (application linéaire canoniquement associée)


Soit A ∈ Mn,p (K), on appelle application linéaire canoniquement associée à A l’application linéaire
f A ∈ L (Kp , Kn ) dont la matrice dans les bases canoniques de Kp et Kn , est A.
MO

3) Propriétés du produit matriciel


– « Associativité » : Si A ∈ Mn,p (K), B ∈ Mp,q (K) et C ∈ Mq,r (K), alors :

A × (B × C) = (A × B) × C ∈ Mn,r (K).

Preuve : Soit f ∈ L (Kp , Kn ) l’application linéaire canoniquement associée à A, g ∈ L (Kq , Kp ) canoniquement


associée à B et h ∈ L (Kr , Kq ) canoniquement associée à C. On a f ◦ (g ◦ h) ∈ L (Kr , Kn ) et sa matrice dans les
bases canoniques est A × (B × C). De même ( f ◦ g ) ◦ h ∈ L (Kr , Kn ) et sa matrice dans les bases canoniques est
(A × B) × C, or la composition des applications est associative, ce qui donne l’égalité. 
– « Élément neutre » : Soit A ∈ Mn,p (K), on a : A × Ip = A et In × A = A.
Preuve : Soit f ∈ L (Kp , Kn ) l’application linéaire canoniquement associée à A, idKn est l’application linéaire
canoniquement associée à In , la matrice dans les bases canoniques de idKn ◦ f est donc In × A, or idKn ◦ f = f ,
donc A = In × A. 

MPSI3 (2015-16) LYCÉE M ONTAIGNE 211 ©Fradin Patrick – http://mpsi.tuxfamily.org


Matrices carrées inversibles Chapitre 22 : Matrices

– « Distributivité » : Soient A, B ∈ Mn,p (K), soit C ∈ Mp,q (K) et D ∈ Mr,n , on a :

(A + B) × C = A × C + B × C et D × (A + B) = D × A + D × B

NE
Preuve : Soit f ∈ L (Kp , Kn ) l’application canoniquement associée à A, soit g ∈ L (Kp , Kn ) l’application canoni-
quement associée à B, et soit h ∈ L (Kq , Kp ) l’application canoniquement associée à C. L’application linéaire
canoniquement associé à la matrice (A+B)×C est ( f +g )◦h ∈ L (Kq , Kn ), et l’application linéaire canoniquement
associée à A × C + B × C est f ◦ h + g ◦ h ∈ L (Kq , Kn ), or ( f + g ) ◦ h = f ◦ h + g ◦ h, ce qui donne la première égalité.
La seconde se montre de la même façon. 
– Transposée d’un produit : Si A ∈ Mn,p (K) et B ∈ Mp,q (K) alors : t (A × B) = t B × t A.
p p
Preuve : [t (A × B)]i , j = [A × B] j ,i = [t B]i ,k [t A]k, j = [t B × t A]i , j .
P P
a j ,k b k,i = 
k=1 k=1
FExercice 22.5 Calculer le produit entre deux matrices carrées élémentaires de même taille.
2
Solution 22.5 Soient Ei , j , Ek,l deux matrices élémentaires de Mn (K), soient (r, s) ∈ J1; n K :
n n
[Ei , j × Ek,l ]r,s = [Ei , j ]r,p [Ek,l ]p,s = δi ,r δp, j δp,k δl ,s = δ j ,k δi ,r δl ,s = δ j ,k [Ei ,l ]r,s ,
P P

AIG
p=1 p=1
i,j k,l i ,l
on a donc E ×E = δ j ,k E .

Théorème 22.10 (structure de Mn (K))


On a le résultat suivant : (Mn (K), +, ×, .) est une K-algèbre (non commutative si n > 2).

Preuve : On sait déjà que (Mn (K), +, .) est un K-espace vectoriel, le reste découle des propriétés du produit matriciel, il
reste simplement à vérifier la compatibilité entre le produit interne et le produit externe, i.e. : ∀ λ ∈ K, ∀ A, B ∈ Mn (K) :
λ.(A × B) = (λ.A) × B = A × (λ.B), µ ¶ µ ¶
0 0 1 1
ce qui est laissé en exercice. Donnons un contre-exemple pour la non commutativité : soit A = ,B = ,
1 0 0 1
µ ¶ µ ¶
0 0 1 0
on a AB = , mais BA = . 
1 1 1 0
Remarque 22.5 :
NT
µ ¶ µ ¶
0 0 0 0
– L’algèbre Mn (K) n’est pas intègre lorsque n > 2. Par exemple : × = O2 . De ce fait, il y a dans
1 0 1 1
µ ¶
0 0
Mn (K) des éléments nilpotents, par exemple : A = .
1 0
– On peut utiliser dans Mn (K) les règles du calcul algébrique, en prenant garde toutefois au fait que le
produit n’est pas commutatif. Par exemple, si A, B ∈ Mn (K) commutent (i.e. AB = BA), alors on peut
utiliser le binôme de Newton pour calculer (A + B)n . Mais si AB 6= BA on peut néanmoins développer, par
exemple : (A + B)2 = A2 + AB + BA + B2 .
 
1 0 1
FExercice 22.6 Soit A = 0 1. En écrivant A = I3 + J, calculer An pour n ∈ N.
1
0 1 0
MO

   
0 1 0 0 0 1
Solution 22.6 On a A = I3 + J avec J = 0 0 1, de plus J2 = K = 0 0 0, et J3 = O3 . Comme I3 × J = J × I3 , on peut
0 0 0 0 0 0
utiliser le binôme de Newton :
1 n n(n+1)
 
n ¡ ¢ 2
n P n k n(n−1)
A = k J = I3 + nJ + 2 K = 0 1 n .
k=0
0 0 1

III MATRICES CARRÉES INVERSIBLES

1) Définition
L’ensemble (Mn (K), +, ×) a une structure d’anneau, on peut donc s’intéresser aux éléments inversibles
de cet anneau. C’est à dire aux matrices M ∈ Mn (K) pour lesquelles il existe une matrice N ∈ Mn (K) telle que
M × N = N × N = In . Si M ∈ Mn (K) est inversible, son inverse sera noté M−1 .

MPSI3 (2015-16) LYCÉE M ONTAIGNE 212 ©Fradin Patrick – http://mpsi.tuxfamily.org


Matrices carrées inversibles Chapitre 22 : Matrices

Définition 22.10
Le groupe multiplicatif des inversibles de l’anneau (Mn (K), +, ×) est noté GLn (K).

NE
Remarque 22.6 – Puisque (GLn (K), ×) est un groupe, on a :
• le produit de deux matrices inversibles est inversible.
• Si M, N ∈ GLn (K), alors (M × N)−1 = N−1 × M−1 .
Cas particuliers :
– Matrices diagonales inversibles : Soit D = diag(a 1 , . . . , a n ) ∈ Mn (K), alors D est inversible ssi les coef-
ficients diagonaux sont tous non nuls, auquel cas on a : D−1 = diag( a11 , . . . , a1n ).
Preuve : Si les coefficients diagonaux sont tous non nuls, il est facile de vérifier que la matrice proposée est bien
l’inverse de D.
Réciproquement, supposons D ∈ GLn (K), alors l’équation DX = On,1 d’inconnue X ∈ Mn,1 (K) admet comme
unique solution X = D−1 ×On,1 = On,1 . Supposons a 1 = 0 et prenons X ∈ Mn,1 (K) définie par X i ,1 = δi ,1 , il est facile
de voir que le produit DX donne la première colonne de D, c’est à dire On,1 , pourtant X 6= On,1 : contradiction,

AIG
donc a 1 6= 0. Le raisonnement est similaire pour les autres coefficients. 
r
– Polynômes de matrices : Soit P ∈ K[X] et A ∈ Mn (K), si P = a k X k , alors la matrice P(A) est P(A) =
P
k=1
r
a k Ak (la substitution de X par Aest un morphisme d’algèbres), on a alors le résultat suivant : Si
P
k=1
P(A) = On et si P(0) 6= 0, alors A est inversible.
Preuve : P(0) 6= 0 signifie que a 0 6= 0, on a alors :
r r
· ¸ · ¸
P −a k k−1 P −a k k−1
In = A × a0 A = a0 A × A.
µ ¶ k=1 k=1
a b
Par exemple, si A = avec ad − bc 6= 0, on vérifie que A2 − (a + d )A + (ad − bc)I2 = O2 , donc A est inversible
c d
µ ¶
d −b
et A−1 = ad 1−bc [(a + d )I2 − A] = ad 1−bc . 
−c a
NT
2) Retour aux applications linéaires

Théorème 22.11
Soient E et F deux K-e.v de même dimension n, soit B une base de E et B0 une base de F, soit
u ∈ L (E, F), alors u est un isomorphisme de E vers F si et seulement si mat (u) ∈ GLn (K), si c’est le cas,
B,B0
· ¸−1
alors mat (u −1 ) = mat (u) .
B0 ,B B, B0

Preuve : Si u est un isomorphisme, posons A = mat (u) et B = mat (u −1 ), on a A, B ∈ Mn (K). On sait que u ◦ u −1 = idF ,
B,B0 B0 , B
−1
d’où In = mat(idF ) = mat (u) × mat (u ) = A × B, de même B × A = mat(idE ) = In . 
B0 B,B0 B0 ,B B
MO

Cas des endomorphismes : Si E est un K-espace vectoriel de dimension n et B une base de E, alors on
sait déjà que l’application mat : L (E) → Mn (K) est un isomorphisme d’espaces vectoriels, mais comme
B
(L (E), +, ◦, .) et (Mn (K), +, ×; .) sont des K-algèbres et que mat(u ◦ v) = mat(u) × mat(v) et mat(idE ) = In ,
B B B B
on peut affirmer que l’application mat est un isomorphisme d’algèbres. En particulier celui-ci induit un
B
isomorphisme de groupes : mat : GL(E) → GLn (K).
B

Théorème 22.12 (caractérisations des matrices carrées inversibles)


Soit A ∈ Mn (K), alors les assertions suivantes sont équivalentes :
a) A est inversible.
b) Il existe une matrice B ∈ Mn (K) telle que BA = In .
c) L’équation AX = On,1 d’inconnue X ∈ Mn,1 (K) admet une unique solution X = On,1 .
d) ∀ Y ∈ Mn,1 (K), l’équation AX = Y d’inconnue X ∈ Mn,1 (K) admet une unique solution.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 213 ©Fradin Patrick – http://mpsi.tuxfamily.org


Matrices carrées inversibles Chapitre 22 : Matrices

e) ∀ Y ∈ Mn,1 (K), l’équation AX = Y d’inconnue X ∈ Mn,1 (K) admet au moins une solution.

Preuve : L’implication i ) =⇒ i i ) est évidente en prenant B = A−1 .

NE
Montrons i i ) =⇒ i i i ) : On a BA = In , d’où AX = On,1 =⇒ BAX = On,1 = X.
Montrons i i i ) =⇒ i v) : Soit f ∈ L (Kn ) l’endomorphisme de Kn canoniquement associé à A, soit x ∈ ker( f ),
posons X = Coord(x) où B désigne la base canonique de Kn , on a alors Coord( f (x)) = AX = On,1 , donc X = On,1 i.e.
B B


x = 0 , l’application f est donc injective, mais alors elle est bijective : ∀ y ∈ Kn , ∃! x ∈ Kn , f (x) = y, ce qui entraîne
∀ Y ∈ Mn,1 (K), ∃! X ∈ Mn,1 (K), AX = Y (remarquons que A est inversible puisque f est bijective, et que X = A−1 Y).
L’implication i v) =⇒ v) est évidente.
Montrons v) =⇒ i ) : Avec les notations précédentes, l’application f est surjective par hypothèse, donc f est bijective
et par conséquent sa matrice A est inversible. 
Remarque 22.7 – Il découle en particulier de ce théorème que si BA = In alors AB = In (car A ∈ GLn (K) et donc
B = A−1 ), ce qui est remarquable.
FExercice 22.7
−1 t
1/ Si A ∈ GLn (K), montrer que t A est inversible et que (t A) = (A−1 ).

AIG
1 λ −1
 

2/ Soit A = 0 2 1 , déterminer en fonction de λ si A est inversible ou non, si c’est le cas, calculer A−1 .
1 0 1
3/ soit T ∈ Mn (K) une matrice triangulaire supérieure, montrer que T ∈ GLn (K) ssi ses éléments diagonaux sont
tous non nuls, si c’est le cas, montrer que T −1 est également triangulaire supérieure.

Solution 22.7
t t
1/ Posons B = (A−1 ), alors B × t A = (A × A−1 ) = t In = In , donc t A est inversible et son inverse est B.
   
x a
2/ Soit X =  y  et soit Y = b , résolvons l’équation AX = Y :
z c

 x + λy − z = a

AX = Y ⇐⇒ 2y + z = b
x + z = c

NT
 x + λy − z = a

⇐⇒ 2y + z = b
− λy + 2z = c − a (L3 ← L3 − L1 )

λy

 x − z + = a
⇐⇒ z + 2y = b .
− (4 + λ)y = c − a − 2b (L3 ← L3 − 2L2 )

D’où la discussion :
– Si λ = −4 : alors le système n’a pas de solution lorsque c − a − 2b 6= 0, la matrice A n’est donc pas inversible.
– Si λ 6= −4 : le système admet une unique solution qui est :



 y = a+2b−c
4+λ





z = −2a+λb+2c
MO

4+λ
.






x = 2a−λb+(λ+2)c

4+λ
Or on sait que cette unique solution est X = A−1 Y, on en déduit alors que :
2 −λ λ + 2
 
1 
A−1 = 4+λ 1 2 −1 .
−2 λ 2
x1 y1
   
 ..   .. 
3/ Supposons les coefficients diagonaux tous non nuls, soit X =  .  et Y =  . , lorsqu’on résout le système
xn yn
TX = Y (d’inconnue X) par substitutions remontantes, on obtient une solution de la forme :


 xn = b n,n y n


x n−1 = b n−1,n−1 y n−1 + b n−1,n y n

X= . .

 ..



x1 = b 1,1 y 1 + · · · + b 1,n y n

MPSI3 (2015-16) LYCÉE M ONTAIGNE 214 ©Fradin Patrick – http://mpsi.tuxfamily.org


Changement de bases Chapitre 22 : Matrices

Il y a une seule solution, donc T est inversible, on sait alors que X = T −1 Y, donc les coefficients de la matrice T −1
sont les coefficients b i , j ci-dessus, ce qui prouve que T −1 est triangulaire supérieure.
Réciproquement, si T est inversible, alors T −1 T = In , notons a i j les coefficients de T −1 , alors on doit avoir :

NE
a 11 a 1 = 1, donc a 1 6= 0. Puis a 21 a 1 = 0 donc a 21 = 0, puis a 22 a 2 = 1 donc a 2 6= 0. On montre ainsi de proche en
proche que T −1 est triangulaire supérieure et que les coefficients diagonaux de T sont tous non nuls.

IV CHANGEMENT DE BASES

1) Matrice de passage

Définition 22.11
Soit E un K-espace vectoriel, soit B = (e 1 , . . . , e n ) une base de E, soit S = (x 1 , . . . , x p ) une famille de
vecteurs de E, on appelle matrice du système S dans la base B, la matrice A ∈ Mn,p (K) définie par :
∀ (i , j ) ∈ J1; n K × J1; p K , a i , j est la coordonnée sur e i de x j . Autrement dit, pour j ∈ J1; p K, le j -ième

AIG
vecteur colonne de A est C j (A) = coord(x j ). Cette matrice est notée P B,S et appelée matrice de
B
passage de B à S, elle exprime les vecteurs de S dans la base B :

x1 ··· xp → vecteurs de S
↓ ··· ↓
a 1,1 a 1,p → coordonnée sur e 1 premier vecteur de B
 
···
 .. ..  ..
P B,S =  . .  .
a n,1 ··· a n,p → coordonnée sur e n dernier vecteur de B

ZExemples :
– Soit B la base canonique de K3 , soit x 1 = (1, −1, 0) et x 2 = (2, −1, 3), alors la matrice de passage de la
1 2
 

base B au système S = (x 1 , x 2 ) est P B,S = −1 −1.


NT
0 3
– Soit B = (i , j , k) la base canonique de K3 , soit B0 = (i , i + j , i + j + k), on vérifie que B0 est une base de
K3 . Déterminons la matrice du système S précédent dans la base B0 : on a x 1 = i − j = 2i − (i + j ) et
2 3
 

x 2 = 2i − j + 3k = 3(i + j + k) − 4(i + j ) + 3i , on a donc P B0 ,S = −1 −4.


0 3
Interprétations de la matrice de passage :
a) Dans le cas où p 6= n : soit B = (e 1 , . . . , e n ) une base de E et soit S = (x 1 , . . . , x p ) une famille de p vecteurs
de E. Soit B0 = (u 1 , . . . , u p ) la base canonique de Kp , on définit l’application linéaire f : Kp → E en
posant pour i ∈ J1; p K , f (u i ) = x i , alors : P B,S = mat ( f ).
B0 , B
MO

b) Dans le cas où p = n : on a S = (x 1 , . . . , x n ), soit u ∈ L (E) défini par ∀ i ∈ J1; n K , u(e i ) = x i , on a alors :


P B,S = mat(u).
B

Théorème 22.13 (caractérisation des bases)


Soit B une base de E, et soit B0 = (x 1 , . . . , x n ) une famille de n vecteurs de E, alors B0 est une base de
E ssi la matrice de passage de B à B0 est inversible ,i.e. P B,B0 ∈ GLn (K).

Preuve : Cela découle directement de la deuxième interprétation. 


0
Interprétation de la matrice de passage entre deux bases : Soient B et B deux bases de E, en considérant
l’application idE : (E, B0 ) → (E, B) avec B0 comme base au départ et B comme base à l’arrivée, on a la
relation : P B,B0 = mat (idE ).
B0 , B

MPSI3 (2015-16) LYCÉE M ONTAIGNE 215 ©Fradin Patrick – http://mpsi.tuxfamily.org


Changement de bases Chapitre 22 : Matrices

Théorème 22.14 (application)


¤−1
Soient B, B0 , B00 trois bases de E, on a : P B0 ,B = P B,B0 et P B,B00 = P B,B0 × P B0 ,B00 .
£

NE
· ¸−1
Preuve : On a P B0 ,B = mat (idE ) = mat (id−1
E ) = P B,B0 car id−1
E = idE , ce qui prouve le premier point.
B,B0 B0 ,B
Pour le second, on considère la composition : idE ◦ idE : (E, B00 ) → (E, B0 ) → (E, B), ce qui donne mat (idE ) =
B00 ,B
mat (idE ) × mat (idE ), c’est à dire P B,B00 = P B,B0 × P B0 ,B00 . 
B0 ,B B00 ,B0

2) Formules du changement de bases


Soient B et B0 deux bases de E, pour tout vecteur x ∈ E on peut calculer ses coordonnées dans la base B :
X = Coord(x), ou bien ses coordonnées dans la base B0 : X 0 = Coord(x), on cherche le lien entre X et X 0 .
B B0
Considérons l’identité : idE : (E, B ) → (E, B), on sait que mat (idE ) = P B,B0 , mais on a idE (x) = x, d’où
0

AIG
B0 , B
Coord(idE (x)) = P B,B0 × Coord (x), ce qui donne la relation : X = P B,B0 × X 0 , et donc X 0 = P B0 ,B × X =
B B0
¤−1
P B, B0
£
× X, on peut donc énoncer :

Théorème 22.15 (formules du changement de bases)


Soient B et B0 deux bases de E, soit x ∈ E, on pose X = Coord(x) et X 0 = Coord(x), on a les formules
0 B B
suivantes : X = P B,B0 × X 0 et X 0 = P B0 ,B × X.

FExercice 22.8 Soit B la base canonique de K3 [X], on pose B0 = (1, X, X(X − 1), X(X − 1)(X − 2)), montrer que B0 est une
base de K3 [X] et pour P ∈ K3 [X] calculer coord(P).
B0

1 0 0 0
 
0 1 −1 2 
Solution 22.8 La matrice de passage de B à B0 est A =  0 0 1 −3, cette matrice est triangulaire et ses élé-
NT

0 0 0 1
ments diagonaux sont tous non nuls, elle est donc inversible, ce qui prouve que B0 est une base de K3 [X]. On a
x a
   
y b
la relation Coord(P) = A−1 × Coord(P), il faut donc calculer A−1 , on peut résoudre l’équation A × 
   
 =  , ce
B 0 B  z   c 
t d

x =a 1 0 0 0
  


y = b +c +d 0
−1 1 1 1. Finalement, si P = a + bX + cX 2 + d X 3 , alors
qui donne , on en déduit que A =
0

 z = c + 3d 0 1 3



t =d 0 0 0 1
a
 
b + c + d 
MO

Coord(P) = 
 c + 3d .

B0
d

3) Changement de bases et applications linéaires


Soient E et F deux K-espaces vectoriels, soit B1 une base de E et soit B2 une base de F. Si u ∈ L (E, F) on
peut calculer A = mat (u). Si on prend une autre base dans E : B01 et une autre base dans F, B02 , alors on peut
B1 ,B2
calculer A0 = mat
0 0
(u), on cherche le lien entre ces deux matrices.
B1 ,B2
Soit x ∈ E et y = u(x), on pose X = Coord(x), Y = Coord(u(x)), X 0 = Coord
0
(x) et Y 0 = Coord
0
(u(x)). On a la
B1 B2 B1 B2
relation Y = A×X = A×P B1 ,B01 ×X 0 , d’autre part Y 0 = P B02 ,B2 ×Y, d’où finalement Y 0 = P B02 ,B2 ×A×P B1 ,B01 ×X 0 ,
c’est à dire Y 0 = P B
−1
, B0
× A × P B1 ,B01 × X 0 , mais de plus Y 0 = A0 × X 0 , l’égalité ayant lieu pour toute colonne X 0 ,
2 2
on a : A0 = P B
−1
, B0
× A × P B1 ,B01 , on peut donc énoncer :
2 2

MPSI3 (2015-16) LYCÉE M ONTAIGNE 216 ©Fradin Patrick – http://mpsi.tuxfamily.org


Changement de bases Chapitre 22 : Matrices

Théorème 22.16 (effet d’un changement de bases sur la matrice d’une application linéaire)
Soient B1 , B01 deux bases de E et P = P B1 ,B01 la matrice de passage, soient B2 , B02 deux bases de F et

NE
soit Q = P B2 ,B02 la matrice de passage, soit u ∈ L (E, F), on pose A = mat (u), A0 = mat
0 0
(u), on a alors
B1 ,B2 B1 , B2
0 −1
la relation : A = Q × A × P.

Théorème 22.17 (cas des endomorphismes)


Soient B, B0 deux bases de E et soit P = P B,B0 la matrice de passage, soit u ∈ L (E), si on pose
A = mat(u) et A0 = mat(u), alors on a la relation : A0 = P −1 × A × P.
B B0

Preuve : Cela découle du théorème précédent, puisque l’on a Q = P. 


µ ¶
2 2 2 −1
FExercice 22.9 Soit B = (i , j ) la base canonique de K et soit u ∈ L (K ) défini par mat(u) =

AIG
. On pose e 1 = (1, 1)
B −1 2
2
et e 2 = (1, −1), montrer que B = (e 1 , e 2 ) est une base de K , et calculer la matrice de u dans la base B0 . En déduire
0

l’expression de u n (x, y).


µ ¶ µ ¶
0 1 1 −1 1 1 1
Solution 22.9 La matrice de passage de B à B est P = , cette matrice est inversible et P = 2 , on en
1 −1 1 −1
µ ¶ µ ¶
1 0 n 1 0
déduit que B0 est bien une base de K2 et que mat(u) = A0 = P −1 × A × A = . On en déduit que A0 = n , on a
B0 0 3 0 3
1 + 3 n 1 − 3n
µ ¶
n
alors An = [P × A0 × P −1 ]n = P × A0 × P −1 ce qui donne : An = 12 , or An = mat(u n ), par conséquent :
1 − 3 n 1 + 3n
¢ B
∀ (x, y) ∈ K2 , u n (x, y) = 12 (1 + 3n )x + (1 − 3n )y; (1 − 3n )x + (1 + 3n )y .
¡

Définition 22.12
Soient A, B ∈ Mn (K), on dit que les matrices A et B sont semblables si et seulement si il existe une
matrice carrée inversible P ∈ GLn (K) telle que A = P −1 × B × P.
NT
Remarque 22.8 :
– Les matrices d’un endomorphisme dans deux bases sont semblables.
– Deux matrices sont semblables lorsque ce sont deux matrices d’un même endomorphisme exprimées
dans deux bases (P étant la matrice de passage).
– La relation « ..est semblable à .. » est une relation d’équivalence dans Mn (K).

4) Trace d’un endomorphisme

Théorème 22.18
Soient A, B ∈ Mn (K), on a la propriété : tr(A × B) = tr(B × A).
MO

n n n n n n
µ ¶ µ ¶
P P P P P P
Preuve : On a tr(A × B) = [A × B]i ,i = Ai ,k Bk,i , ce qui donne tr(A × B) = Bk,i Ai ,k = [B × A]k,k =
i =1 i =1 k=1 k=1 i =1 k=1
tr(B × A). 

Théorème 22.19 (conséquence)


Si A ∈ Mn (K) et si P ∈ GLn (K), alors tr(A) = tr(P −1 × A × P).

Soit E un espace vectoriel de dimension n, soient B et B0 deux bases de E, et soit u ∈ L (E), on note
A = mat(u) et A0 = mat(u), on sait alors que A0 = P −1 × A × P avec P = P B,B0 la matrice de passage, d’après le
B B0
théorème précédent, on peut affirmer que tr(A) = tr(A0 ).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 217 ©Fradin Patrick – http://mpsi.tuxfamily.org


Rang d’une matrice Chapitre 22 : Matrices

Définition 22.13
Soit u ∈ L (E) et soit B une base de E, on appelle trace de l’endomorphisme u le scalaire noté tr(u) et

NE
défini par tr(u) = tr(mat(u)), ce scalaire est indépendant de la base B choisie.
B

Théorème 22.20
L’application trace, tr : L (E) → K, est une forme linéaire non nulle sur L (E), qui vérifie :
∀ u, v ∈ L (E), tr(u ◦ v) = tr(v ◦ u).

Preuve : Soit B une base de E, soit A = mat(u) et B = mat(v), on a par définition, tr(u +v) = tr(mat(u +v)) = tr(mat(u))+
B B B B
tr(mat(v)) = tr(u) + tr(v). De la même façon, on montre que tr(λu) = λtr(u) avec λ ∈ K. On a donc une forme linéaire
B
sur L (E), celle-ci est non nulle, car tr(idE ) = tr(In ) = n = dim(E) > 1. D’autre part : tr(u ◦ v) = tr(mat(u) × mat(v)) =
B B

AIG
tr(mat(v) × mat(u)) = tr(mat(v ◦ u)) = tr(v ◦ u). 
B B B
FExercice 22.10 Soit E un espace vectoriel de dimension n, et soit p ∈ L (E) un projecteur, montrer que tr(p) = rg(p).
Solution 22.10 r = rg(p), on a E = Im(p) ⊕ ker(p), soit (e 1 , . . . , e r ) une base de Im(p) et soit (e r +1 , . . . , e n ) une base
de ker(p), alors B = (e 1 , . . . , e n ) est une base de E et il est clair que mat(p) = Jn,n,r (car Im(p) = ker(p − idE )), d’où
B
tr(p) = tr(Jn,n,r ) = r = rg(p).

V RANG D’UNE MATRICE

1) Définition

Définition 22.14
Soit A ∈ Mn,p (K) une matrice, on appelle rang de la matrice A, le rang dans Kn du système constitué
par ses p vecteurs colonnes, notation : rg(A) = rg(C1 (A), . . . , Cp (A)).
NT
Théorème 22.21
Soit u ∈ L (E, F), soit B une base de E, soit B0 une base de F, et soit A = mat (u), alors rg(u) = rg(A).
B,B0

Preuve : Soit B = (e 1 , . . . , e p ), B0 = (e 10 , . . . , e n0 ) et soit B00 = (e 100 , . . . , e n00 ) la base canonique de Kn . Soit v ∈ L (F, Kn )
défini par ∀ i ∈ J1; n K , v(e i0 ) = e i00 , alors v est bijective (transforme une base en une base), donc rg(u) = rg(v ◦ u) =
n
Ak, j e 00j = C j (A), donc rg(u) = rg(A) d’après la définition précédente.
P
rg(v(u(e 1 )), . . . , v(u(e p ))) ; or v(u(e j )) = 
k=1
MO

Théorème 22.22 (conséquence)


Soit E un espace vectoriel de dimension n, soit S = (x 1 , . . . , x p ) une famille de p vecteurs de E et soit B
une base de E, alors le rang de la famille S est égal au rang de la matrice de ce système dans la base
B.

Preuve : Posons B = (e 1 , . . . , e n ), soit B0 = (e 10 , . . . , e p0 ) la base canonique de Kp , soit u ∈ L (Kp , E) l’application linéaire


définie par : ∀ i ∈ J1; p K , u(e i0 ) = x i , alors A = mat (u) est la matrice du système S dans la base B, or rg(A) = rg(u) =
B0 ,B
rg(x 1 , . . . , x p ), ce qui donne le résultat. 
Calculer le rang d’une application linéaire, ou d’une famille de vecteurs, revient à calculer le rang d’une
matrice.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 218 ©Fradin Patrick – http://mpsi.tuxfamily.org


Opérations élémentaires sur les matrices Chapitre 22 : Matrices

2) Propriétés du rang d’une matrice


Les propriétés suivantes découlent de celles du rang des applications linéaires.

NE
a) Soit f ∈ L (E, F), soit B une base de E avec dim(E) = p, soit B0 une base de F avec dim(F) = n, et soit
A = mat ( f ) ∈ Mn,p (K), on a :
B,B0
i) rg(A) 6 min(n, p).
ii) rg(A) = n ⇐⇒ f est surjective.
iii) rg(A) = p ⇐⇒ f est injective.
b) Si A ∈ Mn (K), alors A ∈ GLn (K) ⇐⇒ rg(A) = n.
c) Si A ∈ Mn,p (K), B ∈ Mp,q (K), alors rg(A × B) 6 min(rg(A), rg(B)).
d) Si A ∈ GLn (K), B ∈ Mn,p (K), alors rg(A × B) = rg(B).
e) Si A ∈ Mn,p (K), B ∈ GLp (K), alors rg(A × B) = rg(A).

AIG
Théorème 22.23
Soit A ∈ Mn,p (K), alors : rg(A) = r ⇐⇒ ∃ U ∈ GLn (K), ∃ V ∈ GLp (K), UAV = Jn,p,r .

Preuve : Si U et V existent alors rg(A) = rg(UAV) = rg(Jn,p,r ) = r.


Réciproquement, si rg(A) = r , soit B la base canonique de Kp , soit B1 la base canonique de Kn , et soit u ∈
L (Kp , Kn ) défini par mat (u) = A (u est l’application linéaire canoniquement associée à A), on a rg(u) = rg(A) = r , on
B,B1
sait alors qu’il existe une base B0 de Kp et une base B01 de Kn telles que mat (u) = Jn,p,r , soit P = P B,B0 et Q = P B1 ,B0 ,
B0 ,B01 1

−1 −1
d’après les formules de changement de bases, on a Jn,p,r = Q × A × P, ce qui termine la preuve, en prenant U = Q et
V = P. 
FExercice 22.11 Montrer qu’une matrice A ∈ Mn,p (K) et sa transposée ont le même rang.
Solution 22.11 Il existe U ∈ GLn (K), V ∈ GLp (K) telles que UAV = Jn,p,r avec r = rg(A). On a alors t V t At U = t Jn,p,r = Jp,n,r ,
NT
ce qui donne le résultat.

VI OPÉRATIONS ÉLÉMENTAIRES SUR LES MATRICES

1) Définition

Définition 22.15
Soit A ∈ Mn,p (K), on appelle opérations élémentaires sur A les opérations suivantes :
– Permuter deux lignes de A (ou deux colonnes), notation : Li ↔ L j (respectivement Ci ↔ C j ).
– Multiplier une ligne (ou une colonne) par un scalaire non nul, notation : Li ← αLi (respectivement
Ci ← αCi ).
MO

– Ajouter à une ligne (ou une colonne) un multiple d’une autre ligne (respectivement une autre
colonne), notation : Li ← Li + αL j , avec i 6= j (respectivement Ci ← Ci + αC j )).

Théorème 22.24
Effectuer une opération élémentaire sur une matrice A ∈ Mn,p (K) revient à multiplier A à gauche
par une matrice inversible pour les opérations sur les lignes (à droite pour une opération sur les
colonnes).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 219 ©Fradin Patrick – http://mpsi.tuxfamily.org


Opérations élémentaires sur les matrices Chapitre 22 : Matrices

Preuve : On désigne par Li (A) la ligne i de A sous forme d’une matrice ligne.
Pour l’opération Li ↔ L j (avec i 6= j ) : soit Pi j ∈ Mn (K) la matrice obtenue en effectuant cette opération sur la
matrice In , alors Pi j × A est la matrice que l’on obtient en effectuant l’opération Li ↔ L j dans A, en effet : si k ∉ {i , j },

NE
alors Lk (Pi j × A) = Lk (Pi j ) × A = Lk (In ) × A = Lk (A), si k = i , alors Li (Pi j × A) = Li (Pi j ) × A = L j (In ) × A = L j (A), de
même L j (Pi j × A) = Li (A). De plus, par définition même, Pi j × Pi j = In , donc Pi j est inversible et Pi−1 j
= Pi j .
Pour l’opération Li ← αLi , avec α ∈ K : soit Di (α) ∈ Mn (K) la matrice obtenue en effectuant cette opération sur

In , alors Di (α) × A est la matrice que l’on obtient en effectuant cette même opération sur A, en effet : si k 6= i , alors
Lk (Di (α) × A) = Lk (Di (α)) × A = Lk (In ) × A = Lk (A), et Li (Di (α) × A) = Li (Di (α)) × A = α.Li (In ) × A = α.Li (A). De plus, il
est clair que Di (α) × Di (1/α) = In , donc cette matrice est inversible et Di (α)−1 = Di (1/α).
Pour l’opération Li ← Li + αL j , avec i 6= j et α ∈ K : soit Ti j (α) ∈ Mn (K) la matrice obtenue en effectuant cette
opération sur In , alors Ti j (α) × A est la matrice que l’on obtient en effectuant cette même opération sur A, en effet : si
k 6= i , Lk (Ti j (α) × A) = Lk (Ti j (α)) × A = Lk (In ) × A = Lk (A), et Li (Ti j (α) × A) = Li (Ti j (α)) × A = (Li (In ) + αL j (In )) × A =
Li (In )× A+α.L j (In )× A = Li (A)+α.L j (A). De plus, il est clair que Ti j (α)×Ti j (−α) = In , donc cette matrice est inversible
et Ti j (α)−1 = Ti j (−α). 

AIG
Théorème 22.25
Les opérations élémentaires conservent le rang de la matrice.

Preuve : Découle directement des propriétés du rang et du théorème précédent. 

2) Calcul pratique du rang d’une matrice

Définition 22.16
Soient A, B ∈ Mn,p (K), on dit que A et B sont équivalentes lorqu’il existe Q ∈ GLn (K) et O ∈ GLp (K)
telles que B = QAP.

Remarque 22.9 –
– On définit ainsi une relation d’équivalence dans Mn,p (K).
NT
– Deux matrices équivalentes ont le même rang.
– Une opération élémentaire donne une matrice équivalente.
– Deux matrices carrées semblables sont équivalentes.
– A ∈ Mn,p (K) a un rang égal à r si et seulement si A est équivalente à Jn,p,r .

Théorème 22.26
Deux matrices sont équivalentes si et seulement si elles ont le même rang.

Preuve : Celle-ci est simple et laissée en exercice. 


MO

Théorème 22.27
 
p1 ∗ ··· ∗ ··· ∗
 .. .. .. .. 
 0
 . . . ··· . 
 . ..
 ..

. pr ∗ ··· ∗ 
Si A ∈ Mn,p (K) est équivalente à B =  . , avec p 1 × · · · × p r 6= 0, alors
 
 .
 . 0 0 ··· 0 

 .. .. .. .. 
 
 . . . ··· . 
0 ··· 0 0 ··· 0
rg(A) = r .

MPSI3 (2015-16) LYCÉE M ONTAIGNE 220 ©Fradin Patrick – http://mpsi.tuxfamily.org


Opérations élémentaires sur les matrices Chapitre 22 : Matrices

Preuve : Le rang de B est le rang de ses vecteurs lignes, d’où rg(B) = rg(l 1 (B), . . . , l r (B)) = r , or A est équivalente à B donc
rg(A) = rg(B) = r . 

NE
La méthode
Celle-ci consiste à transformer la matrice A en la matrice B ci-dessus à l’aide des opérations élémentaires
sur les lignes ou les colonnes (méthode de Gauss), à chaque étape, la matrice obtenue a le même rang que A,
plus précisément, à chaque étape la nouvelle matrice s’écrit sous la forme Uk × A × Vk avec Uk , Vk inversibles.
À l’étape no k, le principe est le suivant :
a) On choisit un pivot (i.e. un coefficient non nul) dans les lignes Lk à Ln et dans les colonnes Ck à Cp .
b) On amène le pivot à sa place, c’est à dire sur la ligne Lk dans la colonne Ck en échangeant éventuelle-
ment deux lignes et/ou deux colonnes.
c) On fait des éliminations en dessous du pivot pour faire apparaître des 0, avec les opérations du type :
Li ← Li + αLk .

AIG
3 1 1
 

ZExemple : Soit A =  1 0 2 
−1 2 −12
Étape 1 : premier pivot : 1 (ligne L1 colonne C2 )

1 3 1 1 3 1
   

C1 ↔ C2 donne 0 1 2  , L3 ← L3 − 2L1 donne 0 1 2 .


2 −1 −12 0 −7 −14

Étape 2 : deuxième pivot : 1 (ligne L2 colonne C2 )

1 3 1
 

L3 ← L3 + 7L2 donne 0 1 2 .
0 0 0
NT
Étape 3 : pas de troisième pivot.
Donc rg(A) = 2.
FExercice 22.12 Avec la matrice A précédente, déduire de la méthode deux matrices inversibles U et V telles que
UAV = J3,3,2 .
Solution 22.12 On transforme la matrice obtonue précédemment en J3,3,2 :
   
1 0 0 1 0 0
C2 ← C2 − 3C1 , C3 ← C3 − C1 donnent 0 1 2 , C3 ← C3 − 2C2 donne 0 1 0.
0 0 0 0 0 0
On a obtient la matrice U en effectuant sur lignes de I3 les mêmes opérations que sur les lignes de A (dans le même
ordre), et la matrice V en effectuant sur colonnes de I3 , les mêmes opérations sur les colonnes de A (dans le même
ordre) :    
1 0 0 0 1 −2
U =  0 1 0 et V = 1 −3 5 
MO

−2 7 1 0 0 1
ZExemple : (Variante) Il peut être parfois avantageux de n’effectuer que des transformations sur les colonnes,
les éliminations se font alors à droite du pivot avec les opérations du type Ci ← Ci + αCk (à l’étape k). Voici
quel peut être l’intérêt :
Soit B = (i , j , k) une base de E et soit u ∈ L (E) défini par mat(u) = A (la matrice précédente), calculons le
B
rang de A (donc le rang de u) en utilisant la variante :
Étape 1 : premier pivot 1 (ligne L1 colonne C2 )

1 3 1
 

C1 ↔ C2 donne 0 1 2 
2 −1 −12

1 0 1 1 0 0
   

C2 ← C2 − 3C1 donne 0 1
 2  , C3 ← C3 − C1 donne 0 1 2 .
2 −7 −12 2 −7 −14

MPSI3 (2015-16) LYCÉE M ONTAIGNE 221 ©Fradin Patrick – http://mpsi.tuxfamily.org


Opérations élémentaires sur les matrices Chapitre 22 : Matrices

Étape 2 : deuxième pivot 1 (ligne L2 colonne C2 )

1 0 0
 

NE
C3 ← C3 − 2C2 donne 0 1 0
2 −7 0

À l’étape 1, la première matrice obtenue est celle du système (u( j ), u(i ), u(k)), la deuxième est la matrice
du système (u( j ), u(i −3 j ), u(k)) et la troisième est celle du système (u( j ), u(i −3 j ), u(k − j )). À la fin de l’étape
2 on a la matrice du système (u( j ), u(i − 3 j ), u(−2i + 5 j + k)), on en déduit que non seulement le rang de u
£ ¤ £ ¤ £ ¤
est égal à 2, mais en plus ker(u) = Vect −2i + 5 j + k et Im(u) = Vect u( j ), u(i − 3 j ) = Vect u( j ), u(i ) .

3) Calcul pratique de l’inverse d’une matrice


Soit A ∈ Mn (K), supposons qu’en r opérations sur les lignes de A on obtienne la matrice In , on a alors
une relation du type Gr ×· · ·×G1 × A = In , où Gi est la matrice correspondant à l’opération numéro i . On peut

AIG
alors en déduire que la matrice A est inversible et que son inverse est A−1 = Gr × · · · × G1 , pour obtenir cette
matrice, il suffit d’effectuer les mêmes opérations (dans le même ordre) sur la matrice In en même temps
que sur A. La méthode consiste donc à écrire la matrice A suivie de la matrice In :

A In
a 1,1 ··· a 1,n 1 O
.. .. ..
. . .
a n,1 ··· a n,n O 1

Les opérations sont effectuées sur toute la longueur de chaque ligne. L’objectif est d’obtenir la matrice In
à la place de A, alors on pourra conclure que A est inversible, et là où il y avait In on aura A−1 , on utilise la
méthode de Gauss-Jordan 1 :
À l’étape k :
– On choisit un pivot (i.e. un coefficient non nul) dans les lignes Lk . . . Ln et dans la colonne Ck .
NT
– On amène le pivot à sa place : ligne Lk (en échangeant éventuellement deux lignes).
– On fait les éliminations (pour faire apparaître des zéros) en dessous et au-dessus du pivot avec les
opérations : Li ← Li + αLk .
Il y a donc au plus n étapes.
Il y a deux cas possibles au cours du processus :
– Si à chaque étape on peut trouver un pivot, alors après l’étape n, il ne reste plus qu’à diviser chaque
ligne par le pivot correspondant pour obtenir la matrice In : c’est le cas où la matrice A est inversible.
– Si au cours de l’étape k on ne peut pas trouver de pivot dans la colonne Ck et dans les lignes Lk . . . Ln ,
alors on est dans la situation suivante, à l’issue de l’étape k − 1 :
p1 0 0 ∗ ∗ ∗ ∗ ··· ··· ∗
.. .. .. .. .. ..
0 . 0 . . . . .
.. .. ..
MO

. p k−1 ∗ ∗ ∗ . .
.. .. ..
. 0 0 ∗ ∗ . .
.. .. .. .. .. .. ..
. . . . . . .
0 ··· 0 0 ∗ ∗ ∗ ··· ··· ∗
p 1 , . . . , p k−1 désignent les pivots des k − 1 étapes précédentes, ces pivots étant non nuls, il est facile
de voir qu’avec des opérations sur les colonnes, on peut faire apparaître des zéros dans la colonne k
sur les lignes L1 . . . Lk−1 , sans changer les coefficients des lignes Lk . . . Ln de cette même colonne. La
matrice ainsi obtenue possède une colonne nulle, donc son rang est inférieur ou égal à n − 1, or cette
matrice a le même rang que A, donc nous sommes dans le cas où A est non inversible.
2 4 2 2 4 2 1 0 0
 

ZExemple : Soit A = 0 1 1 , appliquons la méthode de Gauss-Jordan : 0 1 1 0 1 0 .


 
2 2 −1 2 2 -1 0 0 1

1. JORDAN Camille (1838 – 1922) : mathématicien français dont l’œuvre considérable touche tous les domaines des mathéma-
tiques.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 222 ©Fradin Patrick – http://mpsi.tuxfamily.org


Opérations élémentaires sur les matrices Chapitre 22 : Matrices

Étape 1 : pivot p 1 = 1, ligne L1 colonne C1 , éliminations : L3 ← L3 − L1 , ce qui donne :

2 4 2 1 0 0

NE
0 1 1 0 1 0
0 −2 −3 −1 0 1

Étape 2 : pivot p 2 = 1, ligne L2 , colonne C2 , éliminations : L1 ← L1 − 4L2 et L3 ← L3 + 2L2 , ce qui donne :

2 0 −2 1 −4 0
0 1 1 0 1 0
0 0 −1 −1 2 1

Étape 3 : pivot p 3 = −1, ligne L3 , colonne C3 , éliminations : L1 ← L1 − 2L3 et L2 ← L2 + L3 , ce qui donne :

2 0 0 3 −8 −2

AIG
0 1 0 −1 3 1
0 0 −1 −1 2 1

3/2 −4 −1
 

En conclusion, la matrice A est inversible et son inverse est : A−1 =  −1 3 1 .


1 −2 −1
NT
MO

MPSI3 (2015-16) LYCÉE M ONTAIGNE 223 ©Fradin Patrick – http://mpsi.tuxfamily.org


NE
Chapitre 23

Dénombrement

Sommaire

AIG
I Cardinal d’un ensemble fini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
1) Rappels : injections, surjections, bijections, permutations . . . . . . . . . . . . . . . . . 224
2) Ensembles finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
3) Propriétés du cardinal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
II Dénombrement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
1) Préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
2) Le nombre d’applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
3) Le nombre de parties d’un ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
4) Le nombre de bijections . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
5) Le nombre de p-parties (ou p-combinaisons) . . . . . . . . . . . . . . . . . . . . . . . . 228

I CARDINAL D’UN ENSEMBLE FINI


NT
1) Rappels : injections, surjections, bijections, permutations
a) La composée de deux injections (respectivement surjections) est une injection (respectivement surjec-
tion).
b) Si f : E → F est injective, alors f induit une bijection de E sur Im( f ).
c) Si f ◦ g est injective, alors g est injective.
d) Si f ◦ g est surjective, alors f est surjective.
e) Si f : E → F est une application, alors f induit une surjection de E sur Im( f ).
f) Si f : E → F est surjective, alors il existe une application g : F → E telle que f ◦ g = idF .
MO

Définition 23.1
Soit E un ensemble, on appelle permutation de E toute bijection de E vers E. L’ensemble des permu-
tations de E est noté S (E).

Théorème 23.1
Soit E un ensemble non vide, alors (S (E), ◦) est un groupe (non commutatif en général), appelé
groupe des permutations de E.

Preuve : Celle - ci est simple et laissée en exercice. On vérifie que l’élément neutre est l’application identité de E : idE , et
que le symétrique de f ∈ S (E) est la bijection réciproque f −1 . 

2) Ensembles finis

MPSI3 (2015-16) LYCÉE M ONTAIGNE 224 ©Fradin Patrick – http://mpsi.tuxfamily.org


Cardinal d’un ensemble fini Chapitre 23 : Dénombrement

Définition 23.2
Soit E un ensemble non vide, on dit que E est fini lorsqu’il existe un entier n ∈ N∗ et une bijection

NE
φ : J1; n K → E. Si c’est le cas, on pose card(E) = n (ou |E| = n ou #(E) = n), sinon on dit que E est un
ensemble infini. Par convention ; est un ensemble fini de cardinal nul.

Remarque 23.1 :
– Dire que E est fini de cardinal n > 1 revient à dire que l’on peut indexer les éléments de E de 1 à n :
E = {e 1 , . . . , e n } (les éléments étant distincts deux à deux).
– Si E est fini de cardinal n + 1 et si a ∈ E, alors E \ {a} est fini de cardinal n.
En effet : soit φ : J1; n + 1K → E une bijection, soit τ la permutation de E qui échange φ(n + 1) et a, alors
τ ◦ φ : J1; n + 1K → E est une bijection qui envoie n + 1 en a, elle induit donc une bijection de J1; n K sur
E \ {a}.
– Si E est fini de cardinal n et b ∉ E, alors E ∪ {b} est fini de cardinal n + 1.

AIG
Théorème 23.2
Soit n ∈ N∗ , toute partie de J1; n K est un ensemble fini de cardinal au plus égal à n. De plus, si F ⊂ J1; n K
et si card(F) = n alors F = J1; n K.

Preuve : Par récurrence sur n : pour n = 1 c’est évident. Supposons le théorème établi pour un entier n > 1 et soit
F une partie de J1; n + 1K. Si n + 1 ∉ F, alors F est une partie de J1; n K donc (hypothèse de récurrence) F est fini et
card(F) 6 n < n + 1. Si n + 1 ∈ F, alors F \ {n + 1} est une partie de J1; n K, donc F \ {n + 1} est un ensemble fini de cardinal
p 6 n, mais alors F est fini de cardinal p + 1 6 n + 1. Supposons maintenant que card(F) = n + 1, on a nécessairement
n + 1 ∈ F, d’où F \ {n + 1} ⊂ J1; n K et card(F \ {n + 1}) = n, donc F \ {n + 1} = J1; n K (hypothèse de récurrence) et finalement
F = J1; n + 1K. 

Théorème 23.3
Soient n, p ∈ N∗ , et soit f : J1; n K → J1; p K une application :
NT
– Si f est injective, alors n 6 p.
– Si f est surjective, alors n > p.
– Si f est bijective, alors n = p.

Preuve : On remarque que la troisième propriété découle des deux précédentes. Montrons la première : on a f : J1; n K →
J1; p K une injection, alors f induit une bijection de J1; n K sur Im( f ), donc Im( f ) est fini de cardinal n, or Im( f ) est une
partie de J1; p K, donc Im( f ) est fini de cardinal au plus p, i.e. n 6 p.
Montrons la deuxième : f : J1; n K → J1; p K est surjective, alors il existe une application g : J1; p K → J1; n K telle que
f ◦ g = idJ1;p K , donc g est injective et par conséquent p 6 n. 
Conséquence : soit E un ensemble fini non vide, il existe un entier n > 1 et une bijection φ : J1; n K → E, s’il
existe un autre entier p et une bijection ψ : J1; p K → E, alors l’application ψ−1 ◦ φ est une bijection de J1; n K
MO

sur J1; p K, donc n = p. Ce qui prouve l’unicité du nombre card(E) et justifie à posteriori la définition.

Théorème 23.4
Soit n > 1, toute application injective (respectivement surjective) de J1; n K dans J1; n K est bijective.

Preuve : Si f : J1; n K → J1; n K est injective, alors f induit une bijection de J1; n K sur Im( f ), donc Im( f ) est fini de cardinal
n, mais Im( f ) ⊂ J1; n K, donc Im( f ) = J1; n K i.e. f est surjective (et donc bijective).
Supposons maintenant que f est surjective, alors il existe g : J1; n K → J1; n K telle que f ◦ g = idJ1;n K , mais alors g est
injective, donc bijective d’après ce qui précède et f = ( f ◦ g ) ◦ g −1 composée de bijections, donc f est bijective. 

3) Propriétés du cardinal

MPSI3 (2015-16) LYCÉE M ONTAIGNE 225 ©Fradin Patrick – http://mpsi.tuxfamily.org


Cardinal d’un ensemble fini Chapitre 23 : Dénombrement

Théorème 23.5
Soient E et F deux ensembles finis non vides, avec n = card(E) et p = card(F) et soit f : E → F une

NE
application :
• Si f est injective alors n 6 p.
• Si f est surjective alors n > p.
• Si f est bijective alors n = p.

Preuve : Soient φ1 : J1; n K → E et φ2 : J1; p K → F deux bijections. Si f est injective alors φ2 ◦ f ◦ φ1 est une injection de
J1; n K vers J1; p K, donc n 6 p. Le raisonnement est le même pour les deux autres points. 
Remarque 23.2 – Il en découle que si F est en bijection avec E et si E est fini, alors F est fini de même cardinal
de E.

Théorème 23.6

AIG
Soient E et F deux ensembles finis non vides de même cardinal et soit f : E → F une application, les
assertions suivantes sont équivalentes :
a) f est injective.
b) f est surjective.
c) f est bijective.

Preuve : Soient φ : J1; n K → E et ψ : J1; n K → F deux bijections, alors g = ψ−1 ◦ f ◦ φ est une application de J1; n K vers lui
- même, avec f = ψ ◦ g ◦ φ−1 . Si f est injective, alors g aussi, donc g est bijective et f aussi. Si f est surjective, alors g
aussi et donc g est bijective et f aussi. 
ZExemple : Soit A un anneau intègre fini, alors A est nécessairement un corps. En effet, soit a un élément non
nul de A, l’application f : A → A définie par f (x) = a × x est injective (car A est intègre), or A est fini, donc f
est bijective, par conséquent il existe a 0 ∈ A tel que f (a 0 ) = 1 i.e. a × a 0 = 1. De même il existe a 00 ∈ A tel que
a 00 × a = 1, mais alors a 00 = a 00 × (a × a 0 ) = (a 00 × a) × a 0 = a 0 . Finalement, tout élément non nul de A possède
NT
un inverse et donc A est un corps.

Théorème 23.7
Si E est un ensemble fini et si F est une partie de E, alors F est fini. De plus, si card(F) = card(E), alors
F = E.

Preuve : On écarte le cas évident où E = ;. Soit n = card(E) et φ : J1; n K → E une bijection. Notons i : F → E définie par
i (x) = x, i est une injection donc g = φ−1 ◦ i est une injection de F vers J1; n K qui induit donc une bijection de F sur
Im(g ), or Im(g ) est une partie de J1; n K, donc Im(g ) est un ensemble fini de cardinal p 6 n, par conséquent F est fini de
cardinal p. Si n = p, alors Im(g ) = J1; n K donc g est une bijection ce qui entraîne que i est une bijection, donc Im(i ) = E,
c’est à dire F = E. 
MO

Théorème 23.8
Soient E et F deux ensembles finis, l’ensemble E ∪ F est fini et :
card(E ∪ F) = card(E) + card(F) − card(E ∩ F)

Preuve : Si l’un des deux est vide, il n’y a rien à démontrer. Supposons E et F non vides, dans un premier temps on
envisage le cas où E∩F = ;, soit f : J1; n K → E et g : J1; p K → F deux bijections, on considère l’application φ : J1; n + p K →
E ∪ F définie par φ(k) = f (k) si 1 6 k 6 n et φ(k) = g (k − n) si n + 1 6 k 6 n + p, comme E ∩ F = ; on voit que φ est
injective, d’autre part la surjectivité est évidente, donc φ est bijective, ce qui montre que E ∪ F est fini de cardinal n + p.
Passons maintenant au cas général : posons I = E ∩ F, on a E ∪ F = E ∪ (F \ E) et ces deux ensembles sont disjoints
et finis, donc E ∪ F est fini et card(E ∪ F) = card(E) + card(F \ E), d’autre part F = I ∪ (F \ E) et ces deux ensembles sont
disjoints et finis, donc card(F) = card(I)+card(F\E), on a donccard(F\E) = card(F)−card(I), ce qui donne la formule. 

MPSI3 (2015-16) LYCÉE M ONTAIGNE 226 ©Fradin Patrick – http://mpsi.tuxfamily.org


Dénombrement Chapitre 23 : Dénombrement

Théorème 23.9
Si E et F sont deux ensembles finis, alors l’ensemble E × F est fini et card(E × F) = card(E) × card(F).

NE
Preuve : Si l’un des deux est vide, alors E × F est vide et le résultat est évident. Soit n = card(E), si n = 1 alors E = {e}
et l’application f : F → E × F définie par f (x) = (e, x) est une bijection, donc E × F est fini de même cardinal que F, le
théorème est donc vrai pour n = 1.
Supposons le théorème démontré pour un entier n > 1 et supposons card(E) = n + 1, on fixe un élément e ∈ E et on
pose E0 = E \ {e}. On a E × F = ({e} × F) ∪ (E0 × F), ces deux ensembles sont disjoints et finis (hypothèse de récurrence),
donc E×F est fini et card(E×F) = card({e}×F)+card(E0 ×F) = card(F)+card(E0 )×card(F) = (n +1)×card(F). Le théorème
est démontré au rang n + 1. 
Conséquence : si p ∈ N∗ , et si E est fini de cardinal n > 1, alors E p (ensemble des p - uplets d’éléments de E)
est fini et card(E p ) = [card(E)]p .

II DÉNOMBREMENT

AIG
1) Préliminaires

Définition 23.3
Dénombrer un ensemble fini E c’est calculer son cardinal. Dans la pratique, c’est le mettre en bijection
avec un ensemble F dont on connaît le cardinal.
(
1 si n = 0
La fonction factorielle : elle est définie sur N par : n! = . On peut également en donner
1×···×n si n > 0
une définition récurrente : 0! = 1 et ∀ n ∈ N, (n + 1)! = (n + 1) × n!.

Théorème 23.10 (diviser pour mieux compter)


Soient E un ensemble fini et soient A1 , . . . , An n parties de E deux à deux disjointes et dont la réunion
NT
n
P
est égale à E, alors : card(E) = card(Ak ).
k=1

Preuve : Celle - ci est simple, c’est un raisonnement par récurrence sur n, sachant que la formule est vraie pour n = 2. 
Application – Si f : E → F est une application et si E est fini, alors :

card( f −1 ( y ))
X © ª
card(E) =
y∈Im( f )

Dans le cas où les éléments de Im( f ) ont tous le même nombre d’antécédents p, alors card(E) = pcard(Im( f )).

2) Le nombre d’applications
MO

Théorème 23.11
Soit E et F deux ensembles finis avec p = card(E) et n = card(F), l’ensemble des applications de E vers
F, F (E, F) (ou FE ), est fini de cardinal n p .

Preuve : Posons E = {e 1 , . . . , e p }, on vérifie que l’application φ : FE → Fp définie par φ( f ) = ( f (e 1 ), . . . , f (e p )) est une


bijection. Or Fp est un ensemble fini de cardinal n p ce qui donne le résultat. 
Remarque 23.3 :
– Le théorème justifie le raisonnement suivant : pour construire une application de E vers F on compte
pour chaque élément de E le nombre de choix possibles pour son image (soit n choix), puis on fait le
produit, soit n p constructions possibles.
– Le nombre de façons de tirer avec remise p boules parmi n est n p .
– Le nombre de façons de ranger p boules dans n boites est n p .
Complément : lorsque p 6 n, le nombre d’injections de E vers F est n(n − 1) · · · (n − p + 1).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 227 ©Fradin Patrick – http://mpsi.tuxfamily.org


Dénombrement Chapitre 23 : Dénombrement

3) Le nombre de parties d’un ensemble

Définition 23.4

NE
Soit E un ensemble et A une partie ( de E, on appelle fonction caractéristique de A l’application
1 si x ∈ A
1A : E → {0; 1} définie par 1A (x) = .
0 sinon

Théorème 23.12
Si E est fini de cardinal n, alors P (E), l’ensemble des parties de E, est fini de cardinal 2n .

Preuve : Il est facile de vérifier que l’application de P (E) vers F (E, {0; 1}) qui à toute partie de E associe sa fonction
caractéristique, est une bijection. Or l’ensemble F (E, {0; 1}) est fini de cardinal 2n ce qui donne le résultat. 

AIG
Remarque 23.4 – Le théorème justifie le raisonnement suivant : pour construire une partie de E il y a deux
choix possibles pour chaque élément de E (on le prend ou on ne le prend pas), comme il y a n éléments dans E
cela fait 2n constructions possibles, soit 2n parties.

4) Le nombre de bijections

Théorème 23.13
Si E et de F sont deux ensembles finis de même cardinal n > 0, il y a n! bijections de E vers F. En
particulier, card(S (E)) = n! (groupe des permutations de E).

Preuve : Lorsque card(E) = card(F) = n, l’ensemble des bijections de E vers F est inclus dans l’ensemble des applications,
c’est donc un ensemble fini de cardinal inférieur ou égal à n n . On montre ensuite la formule par récurrence sur n,
le résultat étant immédiat pour ª n = 1, supposons le vrai au rang n − 1. Posons F = {d 1 , . . . , d n }, soit e ∈ E fixé, on pose
NT
©
Dk = f ∈ Bij(E, F) / f (e) = d k pour k ∈ J1; n K. Il est clair que Bij = D1 ∪. . .∪Dn et que card(Dk ) = card(Bij(E\{e}, F\{d k }),
on obtient ainsi que card(Bij(E, F)) = n × (n − 1)! = n!. 

5) Le nombre de p-parties (ou p-combinaisons)

Définition 23.5
Soit E un ensemble de cardinal n ∈ N et soit p ∈ N, on appelle p - combinaison d’éléments de E (ou p
- partie) toute partie de E de cardinal p. L’ensemble des p - parties de E est noté P p (E).

Remarque 23.5 – P p (E) est un ensemble fini car il est inclus dans P (E), et son cardinal est majoré par 2n .
MO

Cas particuliers :
a) Si p = 0 la seule partie de E à 0 élément est ;, donc card(P 0 (E)) = 1.
b) Si p = n, la seule partie de E à n éléments est E, donc card(P n (E)) = 1.
c) Si p > n il n’y a aucune partie de E à p éléments donc dans ce cas, card(P p (E)) = 0.

Théorème 23.14
Qp−1
(n−k) ¡n ¢
Si n, p ∈ N, alors card(P p (E)) = k=0
p! = p (avec la convention que le produit vaut 1 lorsque p = 0,
et que np = 0 si p > n).
¡ ¢

MPSI3 (2015-16) LYCÉE M ONTAIGNE 228 ©Fradin Patrick – http://mpsi.tuxfamily.org


Dénombrement Chapitre 23 : Dénombrement

Preuve : Par récurrence sur n : pour n = 0 et n = 1, la vérification est immédiate.


Supposons le théorème vrai pour un entier n > 1 et supposons card(E) = n + 1, si p = 0 la formule est vraie,
supposons p > 1, on fixe un élément a ∈ E, soit A l’ensemble des p - parties de E contenant a et B l’ensemble

NE
des p - parties de E ne contenant pas a, alors P p (E) = A ∪ B et A ∩ B = ;, donc card(P p (E)) = card(A) + card(B),
Qp−1 Qp−2
(n−k) (n−k)
or card(B) = k=0p! (car B est en bijection avec P p (E \ {a})) et card(A) = k=0
(p−1)! (car A est en bijection avec
P p−1 (E \ {a})), d’où :

n × · · · × (n − p + 1) n × · · · × (n − p + 2)
card(P p (E)) = +
p! (p − 1)!
n × · · · (n − p + 2)[n − p + 1 + p]
=
p!
(n + 1)n × · · · (n + 1 − p + 1)
=
p!

la formule est donc vraie au rang n + 1. 

AIG
FExercice 23.1 À l’aide d’un raisonnement de dénombrement, retrouver sans calcul les propriétés suivantes :
¡n ¢ ¡ n ¢
1/ Si p 6 n, p = n−p .
¡n ¢ ¡ n ¢ ¡n+1¢
2/ Si 0 6 p 6 n − 1, p + p+1 = p+1 .
n ¡ ¢ n ¡ ¢
n n
3/ Binôme de Newton : ∀ n ∈ N, ∀ x, y ∈ C, (x + y)n = x k y n−k = x n−k y k .
P P
k k
k=0 k=0
¡n ¢ n ¡n−1¢
4/ Si 1 6 p 6 n, p = .
p p−1

Solution 23.1
1/ L’application de f : P p (E) → P n−p (E) définie par f (A) = A (complémentaire de A dans E) est bijective.
¡n ¢
2/ Pour compter le nombre de (p + 1)-parties de J1; n + 1K, on compte celles qui contiennent n + 1 (il y en a p ) et
¡ n ¢
celles qui ne contiennent pas n + 1 (il y en a p+1 ).
3/ Lorsqu’on développe (x + y)n = (x + y) × · · · × (x + y) on obtient une somme de termes f 1 × · · · × f n où f i provient
k n−k
du facteur numéro i , on a f i = x ou y, ¢ conséquent on a une somme de termes du type x y
¡npar avec k ∈ J0; n K,
NT
et chacun de ces termes est obtenu k fois (k facteurs parmi n égaux à x et les autres égaux à y).
4/ Considérons un ensemble constitué de p¡boules rouges et n − p bleues. Le nombre de façons de ranger ces n
boules dans n boites (une par boite) est : np (p boites parmi n pour les rouges, celles qui restent sont pour les
¢

bleues),¡ imaginons que pour chacun de ces rangements on peint une des boules rouges en blanc, ¡ ¢ on obtient
alors p np façons de ranger n boules dont 1 blanche, p − 1 rouges et n − p bleues, c’est à dire n n−1
¢
p−1 (une boite
pour la blanche, p − 1 pour les rouges, celles qui restent pour les bleues).
MO

MPSI3 (2015-16) LYCÉE M ONTAIGNE 229 ©Fradin Patrick – http://mpsi.tuxfamily.org


NE
Chapitre 24

Probabilités sur un univers fini

Sommaire

AIG
I Univers finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
1) Expérience aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
2) Évènements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
II Espaces probabilisés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
1) Probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
3) Probabilité des événements élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
III Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
2) Probabilités composées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
3) Formule des probabilités totales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
4) Formule de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
IV Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
NT
1) Indépendance de deux événements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
2) Indépendance d’une famille d’événements . . . . . . . . . . . . . . . . . . . . . . . . . . 237

Le calcul des probabilités est la branche des mathématiques qui modélise les phénomènes aléatoires 1 .

I UNIVERS FINIS

1) Expérience aléatoire

Définition 24.1
Une expérience est dite aléatoire lorsque l’issue ne peut pas être prédite avec certitude (on parle aussi
d’épreuve aléatoire). On considère qu’à une expérience aléatoire correspond un ensemble contenant
MO

tous les résultats possibles, cet ensemble est appelé univers et noté Ω.

Remarque 24.1 – On ne donne pas de définition mathématique du terme expérience. Par contre, l’univers Ω
associé à une expérience aléatoire, est un ensemble au sens mathématique du terme, sa détermination résulte
d’une modélisation de l’expérience (avec éventuellement des choix simplificateurs).
ZExemples :
– Expérience : on lance un dé, on note le numéro de la face supérieure.
Univers : Ω = J1; 6K.
– Expérience : on lance trois dés distincts, on note les trois numéros de la face supérieure.
3
Univers : Ω = J1; 6K , ensemble des triplets de nombres entre 1 et 6.
– Expérience : on prélève trois cartes d’un jeu de 32.
Univers : Ω est l’ensemble des parties à 3 éléments de l’ensemble des 32 cartes.
1. Andreï Kolmogorov (25 avril 1903 – 20 octobre 1987) : mathématicien russe, fondateur de la théorie des probabilités dans les
années 30.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 230 ©Fradin Patrick – http://mpsi.tuxfamily.org


Espaces probabilisés Chapitre 24 : Probabilités sur un univers fini

– Expérience : on lance un pièce n fois.


Univers : Ω = {P, F}n avec P pour pile et F pour face.

NE
Conformément au programme on se limitera au cas où Ω est un ensemble non vide et fini.

2) Évènements

Définition 24.2
On considère une expérience dont l’univers est Ω (fini).
• Les éléments de Ω sont appelés les possibles (ou éventualités), en général notés avec une lettre
minuscule : Ω = {ω1 , . . . , ωn }.
• On appelle événement toute partie de Ω. Un singleton est appelé événement élémentaire. L’en-
semble des événements est donc P (Ω).
• L’ensemble vide est appelé événement impossible et Ω et appelé événement certain.
• Si A est un événement, on appelle événement contraire l’événement A (parfois noté Ac , c’est le

AIG
complémentaire de A dans Ω).
• On dit que l’événement A implique (ou entraîne) l’événement B lorsque A ⊂ B.

ZExemple : Expérience : lancer un dé. Univers Ω = J1; 6K. Les événements élémentaires sont {1}, {2}, {3}, {4},
{5}, {6}. L’événement « obtenir un chiffre pair » est représenté par A = {2, 4, 6}, l’événement « obtenir un chiffre
impair » est l’événement contraire, représenté par Ac = {1, 3, 5}. L’événement « obtenir le chiffre 1 » implique
l’événement « obtenir un chiffre impair ».

Définition 24.3 (Opérations sur les événements)


On considère une expérience dont l’univers est Ω (fini). Soient A et B eux événements.
• L’événement « A ou B » est représenté par la réunion A ∪ B.
• L’événement « A et B » est représenté par l’intersection A ∩ B (conjonction des événements).
NT
• On dira que ces deux événement sont incompatibles (ou disjoints) lorsque A ∩ B = ;.

ZExemple : Tout événement est incompatible avec l’événement contraire.

Définition 24.4 (Système complet d’événements)


On considère une expérience dont l’univers est Ω (fini). Soit (Ai )i ∈J1;n K une famille d’événements, on
dit que cette famille est un système complet d’événements lorsque :
2
• les événements sont deux à deux incompatibles : ∀(i , j ) ∈ J1; n K , i 6= j =⇒ Ai ∩ A j = ;.
n
Ai = Ω.
S
• la réunion des ces événements est l’événement certain :
i =1
MO

Remarque 24.2 – On retrouve une partie de la définition de partition, la différence est qu’on ne demande pas
à ce que les événements Ai soient non vides.
ZExemples :
– Si A est un événement alors A; Ac est un système complet d’événements.
© ª

– La famille des événements élémentaires, ({ω})ω∈Ω , est un système complet d’événements.

II ESPACES PROBABILISÉS

Une fois l’expérience clairement définie et son univers déterminé, on cherche à définir le pourcentage de
chance de réalisation des événements. L’approche statistique consiste à répéter n fois l’expérience et calculer
la fréquence de réalisation de chaque événement A : f n (A) = nombre de réalisations
n
de A
. La fréquence apparaît
alors comme une application de P (Ω) vers [0; 1] qui vérifie f n (Ω) = 1 et f n (A ∪ B) = f n (A) + f n (B) lorsque A et
B sont incompatibles (il en découle qu’il suffit de connaître la fréquence de chaque événement élémentaire).
C’est cette approche qui est à l’origine de la définition suivante.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 231 ©Fradin Patrick – http://mpsi.tuxfamily.org


Espaces probabilisés Chapitre 24 : Probabilités sur un univers fini

1) Probabilité

NE
Définition 24.5
Soit Ω un univers fini. On appelle probabilité sur Ω toute application P de P (Ω) vers [0; 1] vérifiant :
• P(Ω) = 1 ;
• P est additive, c’est à dire :
∀ A, B ∈ P (Ω), si A et B sont incompatibles, alors P(A ∪ B) = P(A) + P(B).
Le couple (Ω, P) est appelé espace probabilisé.

ZExemples : (
1 si i = 1
– Si Ω = {ω1 , . . . , ωn }, alors en posant P({ωi }) = avec l’hypothèse que P est additive, on définit
0 sinon
une probabilité sur Ω (dans cet exemple, ω1 est une issue certaine).

AIG
– Si Ω = {ω1 , . . . , ωn }, alors en posant P({ωi }) = n1 avec l’hypothèse que P est additive, on définit une
probabilité sur Ω.

Attention !
Il n’y a pas unicité de la probabilité sur un univers fini, le choix de celle-ci fait partie de la modélisation de
l’expérience et résulte souvent d’une hypothèse (par exemple : toutes les issues sont équiprobables).

2) Propriétés

Théorème 24.1
Soit (Ω, P) un espace probabilisé, et soient A et B deux événements :
• P(;) = 0 ;
NT
• P(Ac ) = 1 − P(A) ;
• si A ⊂ B alors P(A) 6 P(B) (on dit que P est croissante) et P(B \ A) = P(B) − P(A) ;
• P(A ∪ B) = P(A) + P(B) − P(A ∩ B) ;
• pour toute famille (Ai )i ∈J1;n K d’événements incompatibles deux à deux :
n
P(A1 ∪ · · · ∪ An ) = P(Ai ).
P
i =1

Preuve :
• On a 1 = P(Ω) = P(Ω ∪ ;) = P(Ω) + P(;) = 1 + P(;), d’où le résultat.
• On a 1 = P(Ω) = P(A ∪ Ac ) = P(A) + P(Ac ), d’où le résultat.
• On a P(B) = P(A ∪ B \ A) = P(A) + P(B \ A) > P(A) car une probabilité est positive. Les deux résultats en découlent.
• On a P(B) = P([A ∩ B] ∪ B \ A) = P(A ∩ B) + P(B \ A), d’où P(B \ A) = P(B) − P(A ∩ B), puis on a P(A ∪ B) = P(A) + P(B \ A),
MO

le résultat en découle.
• récurrence sur n. 
FExercice 24.1 (Inégalité de Boole)
n
Montrer que toute famille d’événements A1 , . . . , An on a P(A1 ∪ · · · ∪ An ) 6 P(Ai ).
P
i =1

Solution 24.1 Pour n = 2 : P(A1 ∪ A2 ) = P(A1 ) + P(A2 ) − P(A1 ∩ A2 ) 6 P(A1 ) + P(A2 ). On termine ensuite par récurrence
sur n.

Théorème 24.2
Soit (Ai )1∈J1;n K un système complet d’événements, on a :
n
P(Ai ) = 1 ;
P

i =1
n
• Pour tout événement B : P(B) = P(B ∩ Ai ).
P
i =1

MPSI3 (2015-16) LYCÉE M ONTAIGNE 232 ©Fradin Patrick – http://mpsi.tuxfamily.org


Probabilités conditionnelles Chapitre 24 : Probabilités sur un univers fini

NE
Preuve : Les événements de la famille sont incompatibles deux à deux et leur réunion donne Ω, donc 1 = P(Ω) =
n
P(A1 ∪ · · · ∪ An ) = P(Ai ).
P
i =1
B = B ∩ Ω = B ∩ (A1 ∪ · · · ∪ An ) = (B ∩ A1 ) ∪ · · · ∪ (B ∩ An ) et ces événements sont incompatibles deux à deux, d’où
n
P(B) = P(B ∩ Ai ).
P

i =1

3) Probabilité des événements élémentaires


Une probabilité P sur un univers fini Ω est entièrement déterminée par la connaissance des probabilités
des événements élémentaires.

Théorème 24.3
Soit Ω = {ω1 , . . . , ωn } un univers fini.

AIG
n
• Soit P une probabilité sur Ω et soit p i = P(ωi ), on a alors : ∀i ∈ J1; n K, p i > 0, et
P
p i = 1.
i =1
• Réciproquement, si (p i )i ∈J1;n K est une famille de réels positifs et de somme égale à 1, alors il
existe une probabilité P sur Ω telle que ∀i ∈ J1; n K, P({ωi }) = p i . Pour tout événement A, on a alors
P(A) =
P
pi .
ωi ∈A

Preuve : Celle-ci est simple et laissée en exercice. 


FExercice 24.2 On lance un dé truqué à 6 faces, la probabilité d’obtenir la face k est proportionnelle à k. Quelle est la
probabilité d’obtenir un chiffre pair ?
6
1 1
Solution 24.2 On a P({k}) = ak avec k une constante positive, or P({k}) = 1, on en déduit que a =
P
1+2+3+4+5+6 = 21 ,
k=1
12
la probabilité demandée est P({2, 4, 6}) = a(2 + 4 + 6) = 21 = 47 .

Théorème 24.4
Sur tout univers fini Ω, il existe une unique probabilité P qui prend la même valeur sur chaque
NT
événement élémentaire (on parle d’événements équiprobables). Elle est définie par ∀ω ∈ Ω, P({ω}) =
1 card(A)
card(Ω) , on l’appelle probabilité uniforme sur Ω, et pour tout événement A on a P(A) = card(Ω) .

1
card(Ω) = 1. On a alors P(A) = P({ω}) =
P P
Preuve : Il suffit de vérifier que la valeur commune est un réel positif, et que
ω∈Ω ω∈A
P 1 card(A)
card(Ω) = card(Ω) . 
ω∈A
card(A)
Remarque 24.3 – La formule P(A) = card(Ω) s’énonce parfois « nombre de cas favorables sur nombre de cas
possibles », dans ce cadre, calculer des probabilités se ramène à des calculs de dénombrement.
FExercice 24.3
1/ On lance six fois un dé non truqué. Quelle est la probabilité d’obtenir une fois chaque numéro ?
2/ On prélève cinq cartes au hasard dans un jeu de 52. Quelle est la probabilité d’avoir une paire ?
3/ On distribue 52 cartes à 4 joueurs (13 par joueur). Quelle est la probabilité que chacun reçoive un as ?

Solution 24.3
MO

6
1/ Ω = J1; 6K , les issues sont considérées équiprobables. L’événement cherché est l’ensemble 6-listes contenant
une et une seule fois chaque chiffre, par conséquent card(A) = 6! et P(A) = 66!6 ≈ 0,015.
2/ Ω est l’ensemble des 5-parties de l’ensemble des cartes. Dénombrons l’événement contraire (aucune paire), il
faut donc 5 hauteurs de cartes différentes et pour chacune des hauteurs il¡ faut choisir une carte parmi 4 ce qui
13¢ 5
5 4
¡13¢ 5
donne 5 4 mains dans cet événement, d’où la probabilité cherchée 1 − 52 ≈ 0,49.
¡ ¢
5
¡48¢ ¡36¢ ¡24¢ ¡12¢
4 12 ×3 12 ×2 12 ×1 12 4!134
3/ La probabilité cherchée est ¡52¢¡39¢¡26¢ = 52·51·50·49 ≈ 0,105.
13 13 13

III PROBABILITÉS CONDITIONNELLES

Soit (Ω, P) un univers fini muni de la probabilité uniforme (par exemple), soit A un événement dont on
sait qu’il est réalisé, un événement B est réalisé si et seulement si A ∩ B est réalisé, donc la probabilité de B
P(A∩B)
sachant que A est réalisé est card(A∩B) card(A∩B)/card(Ω)
card(A) = card(A)/card(Ω) = P(A) .

MPSI3 (2015-16) LYCÉE M ONTAIGNE 233 ©Fradin Patrick – http://mpsi.tuxfamily.org


Probabilités conditionnelles Chapitre 24 : Probabilités sur un univers fini

1) Définition

NE
Définition 24.6
Soit (Ω, P) un espace probabilisé fini et A un événement tel que P(A) 6= 0. Pour tout événement B on
appelle probabilité de B sachant A le réel noté PA (B) est défini par PA (B) = P(A∩B)
P(A) .

Théorème 24.5 (probabilité conditionnelle)


P(A∩B)
Si A est un événement tel que P(A) 6= 0, alors l’application PA : P (Ω) → R définie par PA (B) = P(A)
est une probabilité sur Ω, appelée probabilité conditionnelle sachant A.

Preuve : Celle-ci est simple et laissée en exercice. 

AIG
Attention !
On veillera à ne pas confondre PA (B) et P(A ∩ B).

Remarque 24.4 –
– Dans certains ouvrages la probabilité conditionnelle PA (B) est notée P(B | A), mais nous éviterons cette
notation qui pourrait laisser croire que B | A est un événement.
– Comme PA est une probabilité, on a en particulier PA (Bc ) = 1 − PA (B).
FExercice 24.4 Une famille a deux enfants, chaque enfant a une chance sur deux d’être une fille.
1/ Quelle est la probabilité que les deux enfants soient des filles sachant que l’aînée est une fille ?
2/ Quelle est la probabilité que les deux enfants soient des filles sachant qu’il y a au moins fille ?

Solution 24.4 L’univers est Ω = {F, G}2 ensemble des couples de lettres F ou G (premier enfant et deuxième enfant).
2
1/ L’événement « l’aînée est une fille » est A = {(F, G), (F, F)} et P(A) = = 12 . L’événement cherché est B = {(F, F)} qui
NT
4
P(B)
implique A, d’où PA (B) = P(A) = 12 .
2/ L’événement « au moins un enfant est une fille » est A = {(F, G); (F, F); (G, F)} et P(A) = 34 . L’événement cherché est
P(B)
B = {(F, F)} qui implique A, d’où PA (B) = P(A) = 13 .

2) Probabilités composées
La plupart du temps on ne calcule pas PA (B) à partir de P(A ∩ B) car le plus souvent on connaît PA (B) et
P(A) ce qui permet d’en déduire P(A ∩ B).

Théorème 24.6
Si A et B sont deux événements alors :
• P(A ∩ B) = P(A) × PA (B) si P(A) 6= 0 ;
MO

• P(A ∩ B) = P(B) × PB (A) si P(B) 6= 0.

Preuve : Il suffit de revenir à la définition de probabilité conditionnelle. 


FExercice 24.5 Une urne contient 4 boules blanches et 2 noires. On tire une boule, on la remet dans l’urne en ajoutant
une autre boule de la même couleur, puis on procède à un autre tirage. Quelle est la probabilité d’obtenir deux boules
noires ?

Solution 24.5 Notons A l’événement « la première boule tirée est noire », et B l’événement « la deuxième boule tirée est
noire ». On cherche à calculer P(A ∩ B), on a P(A ∩ B) = P(A) × PA (B) = 62 × 37 = 17 .

Théorème 24.7 (formules des probabilités composées)


Soient (Ai )i ∈J1;n K une famille d’événements (n > 2) telle que P(A1 ∩ · · · ∩ An−1 ) 6= 0, alors :
P(A1 ∩ · · · ∩ An ) = P(A1 ) × PA1 (A2 ) × PA1 ∩A2 (A3 ) × · · · × PA1 ∩···∩An−1 (An ).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 234 ©Fradin Patrick – http://mpsi.tuxfamily.org


Probabilités conditionnelles Chapitre 24 : Probabilités sur un univers fini

Preuve : Remarquons que toutes les probabilités conditionnelles de la formule sont bien définies car 0 6= P(A1 ∩ · · · ∩
An−1 ) 6 · · · 6 P(A1 ∩ A2 ) 6 P(A1 ). La formule se démontre par récurrence sur n, le théorème précédent est le cas n = 2.
En appliquant l’hypothèse de récurrence on a :

NE
P(A1 ∩ · · · ∩ An+1 ) = P(A1 ) × PA1 (A2 ) × PA1 ∩A2 (A3 ) × · · · × PA1 ∩···∩An−1 (An ∩ An+1 )

notons B = A1 ∩ · · · ∩ An−1 , alors :

P(B ∩ An ∩ An+1 ) P(B ∩ An ) × PB∩An (An+1 )


PB (An ∩ An+1 ) = = = PB (An ) × PB∩An (An+1 )
P(B) P(B)

en reportant dans la relation ci-dessus, on obtient la formule au rang n + 1. 


Remarque 24.5 – Le produit à droite de l’égalité dans le théorème est un produit télescopique.

À retenir

AIG
Cette formule est utile lorsque les événements sont dans un ordre chronologique.

FExercice 24.6 Une urne contient n boules : b blanches et r rouges. Soit k ∈ J1; b + 1K. On tire des boules successivement
de cette urne sans remise. Quelle est la probabilité qu’une boule rouge apparaisse pour la première fois au k e tirage ?
Solution 24.6 Soit Bi l’événement « au i e tirage la boule est blanche (on définit de même Ri ), on demande :

p(B1 ∩ · · · ∩ Bk−1 ∩ Rk ) = p(B1 )p B1 (B2 ) · · · p B1 ∩···Bk−1 (Rk )


b b −k +2 r
= ×···× ×
n n −k +2 n −k +1
b(b − 1) · · · (b − k + 2)r
=
n(n − 1) · · · (n − k + 1)

FExercice 24.7 Une puce se déplace sur les trois sommets A, B C d’un triangle en partant de A. À chaque instant elle fait
un saut : si elle est en A alors elle va en B, si elle est en B alors elle a une chance sur deux d’aller en A et une chance sur
NT
deux d’aller en C, si elle est en C elle y reste.
1/ Montrer qu’on ne peut arriver en C qu’à des instants pairs.
2/ Quelle est la probabilité que la puce arrive en C pour la première fois à l’instant 2n ?

Solution 24.7
1/ Pour arriver en C la puce doit venir de B (un saut), pour être en B la puce doit venir de A et pour arriver en A la
puce doit venir de B, donc avant d’arriver en C la puce fait un certain nombre d’aller-retours en A et B, ce qui
donne un instant impair pour être en B et donc pair pour être en C.
2/ Soit Ak l’événement « la puce est en A à l’instant k » et Bk l’événement « la puce est en B à l’instant k », on cherche
donc P(B1 ∩ A2 ∩ · · · ∩ B2n−1 ∩ C2n ), d’après la formule des probabilités composées, c’est :

P(B1 ∩ A2 ∩ · · · ∩ B2n−1 ) = P(B1 ) × PB1 (A2 ) × PB1 ∩A2 (B3 ) × · · · × PB1 ∩A2 ∩···∩B2n−1 (C2n )
MO

¡ 1 ¢n 1
ce qui donne 2 = 2n .

3) Formule des probabilités totales


Soit (A1 , . . . , An ) un système complet d’événements sur un espace probabilisé fini (Ω, P), on a déjà vu
n
que pour tout événement B, on a P(B) = P(B ∩ Ak ), or nous savons que P(B ∩ Ak ) = P(Ak )PAk (B) lorsque
P
k=1
P(Ak ) 6= 0. Nous pouvons donc énoncer :

Théorème 24.8 (formule des probabilités totales)


Soit (A1 , . . . , An ) un système complet d’événements sur un espace probabilisé fini (Ω, P), tous de
probabilité non nulle, alors pour tout événement B on a :
n
P(B) = P(Ak )PAk (B).
P
k=1

MPSI3 (2015-16) LYCÉE M ONTAIGNE 235 ©Fradin Patrick – http://mpsi.tuxfamily.org


Probabilités conditionnelles Chapitre 24 : Probabilités sur un univers fini

FExercice 24.8 Le fonctionnement d’un appareil est régi par la règle suivante :
– s’il fonctionne à l’instant t n alors il a la probabilité a ∈]0; 1[ de fonctionner à l’instant t n+1 ;
– s’il est en panne à l’instant t n alors il a la probabilité b ∈]0; 1[ d’être en panne à l’instant t n+1 .

NE
Il est en état de marche à l’instant 0. Déterminer la probabilité p n qu’il soit en état de marche à l’instant t n .

Solution 24.8 Soit Mn l’événement correspondant, alors (Mn , Mcn ) est un système complet d’événements donc
p n+1 = P(Mn )PMn (Mn+1 ) + P(Mcn )PMcn (Mn+1 ) = p n a + (1 − p n )(1 − b) = (a + b − 1)p n + 1 − b, on a une suite arithmético-
1−b
géométrique, une solution constante est ` = 2−a−b et la suite (p n − `) est géométrique de raison a + b − 1, d’où
n (1−a)
p n = (a + b − 1) (p 0 − `) + ` avec p 0 = 1, ce qui donne p n = 1−b+(a+b−1)
n
2−a−b . On voit que lorsque |a + b − 1| < 1,
1−b
cette suite tend vers 2−a−b .
Remarque 24.6 – Lorsque le système complet comporte peu d’événements, on peut illustrer la formule des
probabilités totales par un arbre pondéré, mais la justification est l’application de la formule des probabilités
totales.

AIG
)
P A 1 (B B
A1
1) PA (B c
P( A 1 ) Bc

)
P( A P A 2 (B B
2)
A2
PA (B c
2 ) Bc

4) Formule de Bayes
Soient A et B deux événements de probabilité non nulle de l’espace probabilisé (Ω, P), imaginons que
l’on sache calculer la probabilité conditionnelle PA (B) et que l’on souhaite calculer PB (A). On a :
NT
P(A ∩ B) P(A)PA (B)
PB (A) = =
P(B) P(B)

Cela peut-être utile lorsqu’il y a une chronologie, (A antérieure à B) et que l’on cherche à « remonter le temps ».
Dans le cas le plus général, on utilise la formule des probabilités totales pour exprimer P(B) :

Théorème 24.9 (formule de Bayes (ou formule de probabilité des causes))


Soit (A1 , . . . , An ) un système complet d’événements sur un espace probabilisé fini (Ω, P), tous de
probabilité non nulle, soit B un événement de probabilité non nulle, alors pour tout i ∈ J1; n K :
P(Ai )PAi (B)
PB (Ai ) = n .
P(Ak )PAk (B)
MO

P
k=1

Remarque 24.7 – En particulier, lorsque le système est réduit à deux événements (A, Ac ) (de probabilité non
nulle), et si P(B) 6= 0, alors PB (A) = P(A)PAP(A)P A (B)
(B)+P(Ac )P c (B) . A

FExercice 24.9 On a six urnes numérotées de 1 à 6, l’urne k contient k boules blanches et 6 − k boules noires. On lance
un dé non truqué, si la face k sort alors on tire une boule de l’urne k. La boule tirée est blanche, quelle est la probabilité
d’avoir fait un 6 ?
Solution 24.9 On a un système complet (D1 , . . . , D6 ) (résultat du jet de dé), soit B l’événement « obtenir une boule
blanche », alors on demande PB (D6 ), d’après la formule de Bayes, on a :
P(D6 )PD6 (B) P(D6 )PD6 (B)
PB (D6 ) = P(B) = P6 = P61/6 = 21
6
= 27 .
k
P(Dk )PDk (B) 36
k=1 k=1

MPSI3 (2015-16) LYCÉE M ONTAIGNE 236 ©Fradin Patrick – http://mpsi.tuxfamily.org


Indépendance Chapitre 24 : Probabilités sur un univers fini

IV INDÉPENDANCE

1) Indépendance de deux événements

NE
Définition 24.7
On dit que deux événements A et B d’un espace probabilisé (Ω, P) sont indépendants lorsque :
P(A ∩ B) = P(A) × P(B).

Remarque 24.8 –
– La relation est symétrique.
– Si P(A) = 0 alors A est indépendant avec tout autre événement B.

À retenir

AIG
Lorsque P(A) 6= 0, alors A et B sont indépendants si et seulement si PA (B) = P(B).

ZExemple : On lance un dé non truqué, soit A :« obtenir un chiffre pair » et B : « obtenir un chiffre inférieur
ou égale à 4 ». On P(A) = 21 , P(B) = 32 , P(A ∩ B) = 13 = P(A)P(B), ces deux événements sont indépendants. Soit
C :« obtenir un chiffre inférieur ou égale à 3 », on a P(C) = 12 et P(A ∩ C) = 16 6= P(A)P(C), A et C ne sont pas
indépendants.

Attention !
On veillera à ne pas confondre indépendance de deux événements (qui dépend de la probabilité) et l’incompatibilité
de deux événements (qui ne dépend pas de la probabilité).

Théorème 24.10
NT
Si A est B sont deux événements indépendants de (Ω, P) alors :
• A et Bc sont indépendants ;
• Ac et B sont indépendants ;
• Ac et Bc sont indépendants.

Preuve : P(A) = P(A ∩ B) + P(A ∩ Bc ) = P(A)P(B) + P(A ∩ Bc ) d’où P(A ∩ Bc ) = P(A)[1 − P(B)] = P(A)P(Bc ). Les deux autres
résultats en découlent. 

2) Indépendance d’une famille d’événements

Définition 24.8
MO

Soient A1 , . . . , An des événements dans (Ω, P) :


• On dit ces événements sont deux à deux indépendants lorsque :
∀i , j ∈ J1; n K , i 6= j =⇒ P(Ai ∩ A j ) = P(Ai )P(A j ).
• On dit ces événements sont mutuellement indépendants lorsque :
∀J ⊂ J1; n K , P( Ak ) = P(Ak ).
T Q
k∈J k∈J

Remarque 24.9 – La vérification de l’indépendance mutuelle nécessite beaucoup de vérifications : nk=2 nk =


P ¡ ¢

2n − n − 1. Il découle de la définition que des événements mutuellement indépendants sont deux à deux
indépendants.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 237 ©Fradin Patrick – http://mpsi.tuxfamily.org


Indépendance Chapitre 24 : Probabilités sur un univers fini

Attention !
Des événements deux à deux indépendants ne sont pas nécessairement mutuellement indépendants comme le

NE
montre l’exemple suivant.

ZExemple : On lance deux dés parfaits, on note A1 : « le premier dé amène un nombre pair », A2 : « le deuxième
dé amène un nombre pair » et A3 : « la somme des nombres obtenus est paire ». On a P(A1 ) = 12 , P(A2 ) = 12 ,
P(A3 ) = 18 1 1 1 1 1
36 = 2 , P(A1 ∩ A2 ) = 4 , P(A1 ∩ A3 ) = 4 , P(A2 ∩ A3 ) = 4 , mais P(A1 ∩ A2 ∩ A3 ) = P(A1 ∩ A2 ) = 4 : les
événements sont deux à deux indépendants mais pas mutuellement indépendants.
FExercice 24.10 Soient A1 , . . . , An des événements mutuellement indépendants dans (Ω, P).
1/ Montrer que les événements B1 , . . . , Bn où Bi = Ai ou Aci , sont mutuellement indépendants.
2/ Soit p ∈ J1; n − 1K, montrer que B1 ∪ · · · ∪ Bp et Bp+1 ∩ · · · ∪ Bn sont indépendants.

Solution 24.10
1/ Il suffit de traiter le cas où un seul des Bi est égal Aci (on peut supposer que c’est Bn ), si J est une partie de

AIG
J1; n − 1K, alors on sait que A j et An sont indépendants, donc A j et Acn aussi.
T T
j ∈J j ∈J

2/ On sait que Bc1 , . . . , Bcp , Bp+1 , . . . , Bn


sont mutuellement indépendants, donc Bc1 ∩ · · · ∩ Bcp et Bp+1 ∩ · · · ∩ Bn sont
ich
indépendants, par conséquent, Bc1 ∩ · · · ∩ Bcp = B1 ∪ · · · ∪ Bp et Bp+1 ∩ · · · ∩ Bn sont indépendants.
NT
MO

MPSI3 (2015-16) LYCÉE M ONTAIGNE 238 ©Fradin Patrick – http://mpsi.tuxfamily.org


NE
Chapitre 25

Déterminants

Sommaire

AIG
I Le groupe symétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
1) Décomposition des permutations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
2) Signature . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
II Applications n-linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
2) Développement suivant une base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
III Déterminant dans une base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
1) Formes n-linéaires en dimension n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
2) Déterminants de n vecteurs dans une base . . . . . . . . . . . . . . . . . . . . . . . . . . 243
3) Propriétés du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
IV Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
2) Propriétés du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
NT
V Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
2) Propriétés du déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . 246
3) Développement suivant une ligne ou une colonne . . . . . . . . . . . . . . . . . . . . . 246
4) Comatrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
VI Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
1) Géométrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
2) Systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
3) Orientation d’un espace vectoriel réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250

I LE GROUPE SYMÉTRIQUE
MO

1) Décomposition des permutations

Définition 25.1
Soit En = J1; n K, avec n ∈ N∗ , on note Sn l’ensemble des permutations de En , c’est à dire l’ensemble
des bijections de En vers lui-même. On rappelle que (Sn , ◦) est un groupe de cardinal n! (non abélien
dès que n > 3), ce groupe est appelé groupe symétrique de type n.

Représentation d’une permutation :


µ ¶
1 ··· n
On adoptera la notation suivante : soit σ ∈ Sn , σ = , la deuxième ligne étant les images
σ(1) · · · σ(n)
de la première par σ (dans le même ordre).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 239 ©Fradin Patrick – http://mpsi.tuxfamily.org


Le groupe symétrique Chapitre 25 : Déterminants

Définition 25.2 (notion de cycle)


Soit σ ∈ Sn , on dit que σ est un cycle lorsqu’il existe k entiers distincts dans J1; n K : i 1 , . . . , i k (k > 1)

NE
tels que σ(i 1 ) = i 2 , . . . , σ(i k−1 ) = i k , σ(i k ) = i 1 , les autres entiers de En étant fixes par σ. Dans ce cas, on
notera σ = (i 1 i 2 . . . i k ). Le nombre k est appelé longueur du cycle, et un cycle de longueur 2 est appelé
une transposition. L’ensemble {i 1 , . . . , i k } est appelé support du cycle σ. On convient que l’identité
de En est un cycle de longueur nulle et à support vide.

FExercice 25.1
1/ Décrire tous les cycles de S3 .
2/ Combien y-a-t’il de cycles de longueur k dans Sn ?
3/ Si σ est un cycle dans Sn , déterminer σ−1 .
4/ Si σ est un cycle de longueur k dans Sn , montrer que σk = id et que σi 6= id si i < k. En déduire que si a est un
élément du support de σ, alors σ = (a σ(a) . . . σk−1 (a)).

AIG
Théorème 25.1 (admis)
Toute permutation de En est un produit (pour la loi ◦) de cycles à supports disjoints, cette décompo-
sition est unique à l’ordre près.

ZExemples : µ ¶
1 2 3 4 5 6
– Soit σ = , alors σ = (1 3) ◦ (4 6 5).
3 2 1 6 4 5
– Montrer que deux cycles à supports disjoints commutent. Et si les supports sont non disjoints ?

Théorème 25.2
Toute permutation est un produit de transpositions.

Preuve : Il suffit de le prouver pour un cycle, soit σ = (i 1 . . . i k ), il est facile de vérifier que σ = (i 1 i 2 )(i 2 i 3 ) · · · (i k−1 i k ). On
NT
remarquera que les supports des transpositions ne sont pas disjoints deux à deux, et que le nombre de transpositions
dans la décomposition est égal à k − 1. 

2) Signature

Définition 25.3 (inversion)


2
Soit σ ∈ Sn , on appelle inversion de σ tout couple d’entiers (i , j ) ∈ J1; n K tel que i < j et σ(i ) > σ( j ).
Le nombre d’inversions de σ est noté Iσ .

Théorème 25.3 (Nombre d’inversions d’une transposition)


Soit σ = (a b) une transposition de Sn avec a < b : alors Iσ = 2(b − a) − 1.
MO

Preuve : En effet, soit i < j deux entiers de En :


– Si i , j ∉ {a, b}, alors i et j sont fixes, donc (i , j ) n’est pas une inversion de σ.
– Si i = a et j = b, alors (i , j ) est une inversion.
– Si i = a et j 6= b, alors (i , j ) est une inversion ssi j ∈ Ja + 1; b − 1K.
– Si i 6= a et j = b, alors (i , j ) est une inversion ssi i ∈ Ja + 1; b − 1K.
Ce qui nous fait au total 2(b − a) − 1 inversions pour la transposition (a b). 

Définition 25.4 (signature d’une permutation)


Soit σ ∈ Sn , on appelle signature de σ le nombre noté ε(σ) et défini par ε(σ) = (−1)Iσ .

σ(i )−σ( j )
On peut vérifier que ε(σ) =
Q
i−j .
16i < j 6n
ZExemple : Signature d’une transposition, si σ = (a b) avec a < b ∈ En , alors Iσ = 2(b − a) − 1, donc ε(σ) = −1.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 240 ©Fradin Patrick – http://mpsi.tuxfamily.org


Applications n-linéaires Chapitre 25 : Déterminants

Théorème 25.4 (admis)


L’application signature ε : (Sn , ◦) → ({±1}, ×), est un morphisme de groupes, c’est à dire :

NE
∀ σ, σ0 ∈ Sn , ε(σ ◦ σ0 ) = ε(σ) × ε(σ0 ).

Application – Calcul de la signature d’une permutation. Pour calculer la signature d’une permutation σ, il suffit de
connaître sa décomposition en produit de transpositions : σ = τ1 ◦ . . . ◦ τk , on a alors ε(σ) = ε(τ1 ) × . . . ε(τk ) = (−1)k .

ZExemples :
– Calculer la signature d’un cycle de longueur p > 1.
µ ¶
1 2 3 4 5 6 7 8 9 10
– Calculer la signature de σ = .
3 10 4 6 9 7 1 5 8 2

II APPLICATIONS N-LINÉAIRES

AIG
1) Définition

Définition 25.5
Soient E et F deux K-espaces vectoriels et f : En → F une application. On dit que f est n-linéaire
lorsque f est linéaire par rapport à chacune de ses variables (les autres étant fixes), c’est à dire :
∀ x 1 , . . . , x n ∈ E, ∀ i ∈ J1; n K, l’application f i : E → F définie par :

f i (x) = f (x 1 , . . . , x i −1 , x, x i +1 , . . . , x n ) est linéaire.

ZExemples :
– L’application f : R2 × R2 → R définie par f (u, v) = u 1 v 1 + u 2 v 2 (avec u = (u 1 , u 2 , ) et v = (v 1 , v 2 )), est
bilinéaire, plus précisément, c’est une forme bilinéaire sur R2 .
– L’application f : R2 × R2 → R définie par f (u, v) = u 1 v 2 − u 2 v 1 (avec u = (u 1 , u 2 , ) et v = (v 1 , v 2 )), est une
NT
forme bilinéaire sur R2 .
– Soit E = Mn (K), l’application f : E3 → E définie par f (A, B, C) = A × B × C, est trilinéaire.
Rb
– Soit E = C 0 ([a; b], R). L’application f : E2 → R définie par f (u, v) = a u(t )v(t ) d t , est une forme bili-
néaire sur E.

Définition 25.6
Soit f : En → F une application n-linéaire, on dit que f est :
– symétrique : lorsque ∀ σ ∈ Sn , ∀ x 1 , . . . , x n ∈ E : f (x σ(1) , . . . , x σ(n) ) = f (x 1 , . . . , x n ), autrement dit,
changer l’ordre des vecteurs ne change pas le résultat.
– antisymétrique : lorsque ∀ σ ∈ Sn , ∀ x 1 , . . . , x n ∈ E : f (x σ(1) , . . . , x σ(n) ) = ε(σ). f (x 1 , . . . , x n ), autre-
ment dit, échanger deux vecteurs change le signe du résultat.
MO

– alternée : lorsque ∀ x 1 , . . . , x n ∈ E, s’il existe i , j ∈ J1; n K tels que i 6= j et x i = x j , alors f (x 1 , . . . , x n ) = 0,


autrement dit, si deux des vecteurs sont égaux alors le résultat est nul.

Notation : Soit f : En → F une application n-linéaire, pour σ ∈ Sn on pose : f σ : En → F définie par


f σ (x 1 , . . . , x n ) = f (x σ(1) , . . . , x σ(n) ). On remarquera que f σ est également n-linéaire.
ZExemple : En reprenant les exemples ci-dessus, la première application et la quatrième sont symétriques, la
deuxième est antisymétrique et alternée, la troisième est ni symétrique, ni antisymétrique, ni alternée.

Théorème 25.5
Il y a équivalence entre antisymétrique et alternée.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 241 ©Fradin Patrick – http://mpsi.tuxfamily.org


Déterminant dans une base Chapitre 25 : Déterminants

Preuve : Si f : En → F est n-linéaire alternée, soient x 1 , . . . , x n ∈ E, soit τ = (i j ) avec i , j ∈ J1; n K, posons x i0 = x 0j = x i + x j ,


et S = f (x 1 , . . . , x i −1 , x i0 , x i +1 , . . . , x j −1 , x 0j , x j +1 , . . . , x n ), comme f est alternée, S = 0, mais S = f (x 1 , . . . , x i −1 , x i , x i +1 , . . . , x j −1 , x j , x j +1 , . . . ,
f (x 1 , . . . , x i −1 , x j , x i +1 , . . . , x j −1 , x i , x j +1 , . . . , x n ) (en développant par rapport à la i -ième variable puis par rapport à la

NE
j -ième), ce qui donne f τ = − f = ε(τ). f , mais comme toute permutation est un produit de transpositions, on en déduit
que ∀ σ ∈ Sn , f σ = ε(σ). f c’est à dire f est antisymétrique.
Si f est antisymétrique : supposons x i = x j avec i 6= j , alors soit τ = (i j ), on a f (x 1 , . . . , x n ) = f τ (x 1 , . . . , x n ) =
− f (x 1 , . . . , x n ), donc f (x 1 , . . . , x n ) = 0, i.e. f est alternée. 

Théorème 25.6
L’ensemble des applications n-linéaires de En vers F est un K-espace vectoriel (s.e.v. de F (En , F)).
L’ensemble des applications n-linéaires alternées de En vers F est un K-espace vectoriel (s.e.v. de
F (En , F)).

Preuve : Celle-ci est simple et laissée en exercice. 

AIG
2) Développement suivant une base
Soit E de dimension p, soit B = (e 1 , . . . , e p ) une base de E, soit S = (x 1 , . . . , x n ) un système de n vecteurs
de E et soit A = P B,S ∈ Mp,n (K) la matrice de passage de B à S. Soit u = f (x 1 , . . . , x n ), en développant par
rapport à la première variable, on obtient :
X
u= a j 1 ,1 f (e j 1 , x 2 , . . . , x n )
16 j 1 6 p

Puis on développe chacun de ces termes par rapport à la deuxième variable x 2 , ce qui donne
X
u= a j 1 ,1 a j 2 ,2 f (e j 1 , e j 2 , x 3 , . . . , x n )
16 j 1 , j 2 6 p

etc..., ce qui donne à la fin :


NT
X
f (x 1 , . . . , x n ) = a j 1 ,1 · · · a j n ,n f (e j 1 , . . . , e j n )
16 j 1 ,..., j n 6p

C’est le développement de f (x 1 , . . . , x n ) dans la base B, on voit ainsi qu’une application n-linéaire


f : En → F est entièrement déterminée par la donnée des vecteurs f (e j 1 , . . . , e j n ).

III DÉTERMINANT DANS UNE BASE

1) Formes n-linéaires en dimension n


Avec les notations précédentes, supposons que la dimension de E soit égale à n, soit B = (e 1 , . . . , e n ) une
base de E, et f une forme n-linéaire alternée sur E, d’après ce qui précède, on a :
MO

X
f (x 1 , . . . , x n ) = a j 1 ,1 · · · a j n ,n f (e j 1 , . . . , e j n )
16 j 1 ,..., j n 6n

comme f est alternée, dès que deux indices sont égaux, le terme correspondant est nul, il reste donc :
X
f (x 1 , . . . , x n ) = a j 1 ,1 · · · a j n ,n f (e j 1 , . . . , e j n )
16 j 1 ,..., j n 6n,distincts

Lorsque les indices sont distincts deux à deux, on a forcément, j 1 , . . . , j n = J1; n K, en posant σ(k) = j k
© ª

on définit une permutation des entiers de 1 à n et on peut alors écrire :


X
f (x 1 , . . . , x n ) = a σ(1),1 · · · a σ(n),n f (e σ(1) , . . . , e σ(n) )
σ∈Sn

Or, f (e σ(1) , . . . , e σ(n) ) = ε(σ). f (e 1 , . . . , e n ) ( f est antisymétrique), finalement on a la formule :


à !
ε(σ)a σ(1),1 · · · a σ(n),n f (e 1 , . . . , e n )
X
f (x 1 , . . . , x n ) =
σ∈Sn

MPSI3 (2015-16) LYCÉE M ONTAIGNE 242 ©Fradin Patrick – http://mpsi.tuxfamily.org


Déterminant dans une base Chapitre 25 : Déterminants

Donc si f est une forme n-linéaire alternée sur E, alors il existe un scalaire α tel que :

∀ x 1 , . . . , x n ∈ E, f (x 1 , . . . , x n ) = α ε(σ)a σ(1),1 a σ(2),2 . . . a σ(n),n .


X

NE
σ∈Sn

Avec α = f (e 1 , . . . , e n ) (ce qui détermine entièrement f ), et les scalaires a i , j étant les coefficients de la matrice
de la famille (x 1 , . . . , x n ) dans la base B.
Si σ parcourt Sn , alors σ−1 aussi, on peut donc écrire :

∀x 1 , . . . , x n ∈ E, f (x 1 , . . . , x n ) = α ε(σ)a 1,σ−1 (1) a 2,σ−1 (2) . . . a n,σ−1 (n)


X

σ−1 ∈Sn

=α ε(σ)a 1,σ(1) . . . a n,σ(n) .


X
σ∈Sn

AIG
Théorème 25.7
ε(σ)a 1,σ(1) . . . a n,σ(n) , alors f 1 est une forme n-linéaire
P
On pose pour x 1 , . . . , x n ∈ E, f 1 (x 1 , . . . , x n ) =
σ∈Sn
alternée sur E et f 1 (e 1 , . . . , e n ) = 1 (en particulier f 1 est non nulle).

Preuve : On note c i la forme linéaire qui à tout vecteur x de E associe sa coordonnée sur e i .
On note alors f (x 1 , . . . , x n ) = c 1 (x 1 )c 2 (x 2 ) · · · c n (x n ), on vérifie que f ainsi définie, est n-linéaire de En vers K. On
ε(σ) f (x σ(1) , . . . , x σ(n) ), on sait que g est n-linéaire (combinaison linéaire de formes n-linéaires),
P
pose g (x 1 , . . . , x n ) =
σ∈Sn
soit τ une transposition de En , alors : g (x τ(1) , . . . , x τ(n) ) = ε(σ) f (x τ(σ(1)) , . . . , x τ(σ(n)) ), on effectue un changement
P
σ∈Sn
d’indice en posant σ0 = τ ◦ σ (σ0 parcourt Sn une et seule fois lorsque σ parcourt Sn ), on a ε(σ0 ) = −ε(σ), d’où :
ε(σ0 ) f (x σ0 (1) , . . . , x σ0 (n) ) = −g (x 1 , . . . , x n ), donc g est alternée.
P
g (x τ(1) , . . . , x τ(n) ) = −
σ0 ∈Sn
n
P
En revenant à la définition de f , et en posant x j = a i j e i , on a :
i =1
NT
ε(σ)a 1σ(1) × · · · × a nσ(n) = f 1 (x 1 , . . . , x n )
X
g (x 1 , . . . , x n ) =
σ∈Sn

Lorsqu’on calcule f 1 (e 1 , . . . , e n ), tous les a i j sont nuls sauf ceux de la diagonale qui valent 1, il reste seulement le terme
correspondant à l’identité de En , ce qui donne f 1 (e 1 , . . . , e n ) = a 11 × · · · × a nn = 1. 

Théorème 25.8
Si dim(E) = n, alors l’ensemble des formes n-linéaires alternées sur E est un K-espace vectoriel de
dimension 1 (droite vectorielle), dont une base est l’application f 1 ci-dessus.

Preuve : D’après le début de ce paragraphe, toute forme f , n-linéaire alternée sur E, est du type f = α f 1 avec α ∈ K. 
MO

2) Déterminants de n vecteurs dans une base

Définition 25.7
L’application f 1 définie ci-dessus est appelée déterminant dans la base B, elle est notée detB .
C’est donc une forme n-linéaire alternée sur E, qui constitue une base de l’ensemble des formes
n-linéaires alternées sur E, plus précisément, c’est l’unique forme n-linéaire alternée sur E qui vérifie :
detB (e 1 , . . . , e n ) = 1.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 243 ©Fradin Patrick – http://mpsi.tuxfamily.org


Déterminant d’un endomorphisme Chapitre 25 : Déterminants

Expression du déterminant : Soit B = (e 1 , . . . , e n ) une base de E et soit (x 1 , . . . , x n ) une famille de n vecteurs


de E, et soit A = (a i , j ) ∈ Mn (K) la matrice de cette famille dans la base B, on a l’expression suivante :

NE
ε(σ)a 1,σ(1) . . . a n,σ(n)
X
det(x 1 , . . . , x n ) =
B σ∈Sn

ZExemples :
– Soit E = K2 , B = (i , j ), la base canonique, soient u = (u 1 , u 2 ), v = (v 1 , v 2 ) ∈ E, alors detB (u, v) =
a 1,1 a 2,2 − a 1,2 a 2,1 = u 1 v 2 − u 2 v 1 .
– Soit E = K3 , B = (i , j , k), la base canonique, soient u = (u 1 , u 2 , u 3 ), v = (v 1 , v 2 , v 3 ) et w = (w 1 , w 2 , w 3 ) ∈
E, alors detB (u, v, w) = u 1 v 2 w 3 − u 2 v 1 w 3 − u 3 v 2 w 1 − u 1 v 3 w 2 + u 3 v 1 w 2 + u 2 v 3 w 1 .
– Si dim(E) = n, B = (e 1 , . . . , e n ) une base de E, (x 1 , . . . , x n ) une famille de E telle que la matrice A du
système dans la base B soit triangulaire supérieure, alors : detB (x 1 , . . . , x n ) = a 1,1 . . . a n,n , produit des
coefficients diagonaux de la matrice.
En effet : pour que a 1,σ(1) . . . a n,σ(n) ait une chance d’être non nul, il faut que 1 6 σ(1), . . . , n 6 σ(n), ce

AIG
qui ne donne qu’une seule possibilité : σ = id.

3) Propriétés du déterminant
Soit E un K-espace vectoriel de dimension n et B = (e 1 ; . . . , e n ) une base de E.
– L’application detB est une forme n-linéaire alternée , donc :
• elle est linéaire par rapport à chaque variable, par exemple :
detB (αx 1 + βx 10 , x 2 , . . . , x n ) = α detB (x 1 , x 2 , . . . , x n ) + β detB (x 10 , x 2 , . . . , x n ).
• si on échange deux vecteurs dans le déterminant, alors le résultat change de signe. Par exemple :
detB (x 2 , x 1 , x 3 , . . . , x n ) = − detB (x 1 , x 2 , x 3 , . . . , x n ). Plus généralement :

∀ σ ∈ Sn , det(x σ(1) , . . . , x σ(n) ) = ε(σ) det(x 1 , . . . , x n ).


B B

• Si deux des vecteurs de la famille (x 1 , . . . , x n ) sont égaux, alors detB (x 1 , . . . , x n ) = 0. On en déduit


NT
si l’un des vecteurs de la famille est combinaison linéaire des autres (i.e. la famille est liée), alors
le déterminant est nul, on en déduit également qu’ajouter à l’un des vecteurs une combinaison
linéaire des autres, ne change pas le déterminant, par conséquent on peut calculer un déterminant
avec la méthode de Gauss (pour obtenir un système de vecteurs dont la matrice dans la base B est
triangulaire supérieure).
– det(e 1 , . . . , e n ) = 1 , ce que l’on note detB (B) = 1, c’est l’unique forme n-linéaire alternée sur E qui
B
vérifie cette égalité.
– Si B0 est une autre base de E, alors det = det(B). det . On en déduit que detB0 (B) detB (B0 ) = 1.
B0 B0 B
Preuve : L’ensemble des forme n-linéaires alternées est une droite vectorielle engendrée par detB , donc il existe
un scalaire α tel que detB0 = α. detB , pour obtenir α, il suffit d’appliquer cette égalité sur les vecteurs de B. 
– La famille (x 1 , . . . , x n ) est une base de E ssi detB (x 1 , . . . , x n ) 6= 0 .
MO

Preuve : Soit B0 = (x 1 , . . . , x n ), si B0 est une base de E, alors l’ensemble des formes n-linéaires alternées sur
E est une droite engendrée par detB0 et detB = detB (B0 ). detB0 , or detB n’est pas l’application nulle, donc
detB (B0 ) 6= 0.
Réciproquement, si detB (B0 ) 6= 0 : alors la famille B0 est libre, car si elle était liée, l’un de ses vecteurs serait
combinaison linéaire des autres et donc le déterminant dans la base B serait nul, ce qui est absurde. Donc B0
est une famille libre de n vecteurs en dimension n, c’est donc une base de E. 

IV DÉTERMINANT D’UN ENDOMORPHISME

1) Définition
Soit E un K-espace vectoriel, soient B = (e 1 , . . . , e n ) et B0 = (e 10 , . . . , e n0 ) deux bases de E, et soit u ∈ L (E),
on note f la forme n-linéaire alternée définie par :

f (x 1 , . . . , x n ) = det(u(x 1 ), . . . , u(x n ))
B

MPSI3 (2015-16) LYCÉE M ONTAIGNE 244 ©Fradin Patrick – http://mpsi.tuxfamily.org


Déterminant d’une matrice carrée Chapitre 25 : Déterminants

On sait qu’il existe un scalaire α tel que f = α detB0 , avec α = f (e 10 , . . . , e n0 ), or detB = detB (B0 ) detB0 , d’où
α = detB (B0 ) detB0 (u(e 10 ), . . . , u(e n0 )), En calculant f (e 1 , . . . , e n ), on obtient :

NE
det(u(e 1 ), . . . , u(e n )) = α det(B) = det(u(e 10 ), . . . , u(e n0 ))
B B0 B0

car detB0 (B) detB (B0 ) = 1.

Définition 25.8
Soit E un K-espace vectoriel et soit B = (e 1 , . . . , e n ) une base de E, soit u ∈ L (E), on appelle dé-
terminant de u le scalaire, noté det(u) et défini par : det(u) = detB (u(e 1 ), . . . , u(e n )). Ce scalaire est
indépendant de la base B choisie.

ZExemple : Soit u ∈ L (R2 ) défini par u(x, y) = (x + y; 2x − y), notons B = (i , j ) la base canonique de R2 , alors

AIG
det(u) = detB (i + 2 j , i − j ) = detB (3i , i − j ) = detB (3i , − j ) = −3 detB (i , j ) = −3.
Expression du déterminant : Soit u ∈ L (E) et soit B = (e 1 , . . . , e n ) une base de E, la matrice du système
(u(e 1 ), . . . , u(e n )) est en fait la matrice de u dans la base B, posons A = (a i , j ) = mat(u), alors on peut écrire :
B

ε(σ)a 1σ(1) · · · a nσ(n)


X
det(u) =
σ∈Sn

2) Propriétés du déterminant
– Soit u ∈ L (E), soit B une base de E, alors :

∀ x 1 , . . . , x n ∈ E, det(u(x 1 ), . . . , u(x n )) = det(u) det(x 1 , . . . , x n )


B B

Preuve : L’application f définie par f (x 1 , . . . , x n ) = detB (u(x 1 ), . . . , u(x n )) est n-linéaire alternée, donc il existe
NT
un scalaire α tel que f = α detB , ce scalaire vaut α = f (e 1 , . . . , e n ) (en posant B = (e 1 , . . . , e n )), donc α = det(u)
d’après la définition. 
– Soient u, v ∈ L (E), on a det(u ◦ v) = det(v ◦ u) = det(u) det(v) .
Preuve : Soit B = (e 1 , . . . , e n ) une base de E, alors :

det(u ◦ v) = det(u(v(e 1 )), . . . , u(v(e n ))) = det(u) det(v(e 1 ), . . . , v(e n )) = det(u) det(v),
B B

de même, on obtient det(v ◦ u) = det(v) det(u), ce qui donne l’égalité. 


– Soit u ∈ L (E) et soit B une base de E, alors u ∈ GL(E) ssi det(u) 6= 0 , et si c’est le cas, alors det(u −1 ) =
1
det(u) .
Preuve : Si u ∈ GL(E), alors det(u) det(u −1 ) = det(u ◦ u −1 ) = det(idE ) = 1, donc det(u) 6= 0, et on a la formule.
Réciproquement, si det(u) 6= 0, alors la famille (u(e 1 ), . . . , u(e n )) est libre, donc u est bien un automorphisme de
MO

E. 

V DÉTERMINANT D’UNE MATRICE CARRÉE

1) Définition

Définition 25.9
Soit A = (a i , j ) ∈ Mn (K), et soit u l’endomorphisme de Kn canoniquement associé à A, on appelle
déterminant de A le déterminant de u et on pose :

det(A) = det(u) = det(C1 (A), . . . , Cn (A)),


B

où B désigne la base canonique de Kn .

MPSI3 (2015-16) LYCÉE M ONTAIGNE 245 ©Fradin Patrick – http://mpsi.tuxfamily.org


Déterminant d’une matrice carrée Chapitre 25 : Déterminants

Expression du déterminant : A est la matrice de u dans la base canonique de Kn , donc d’après le paragraphe
précédent, on a :
ε(σ)a 1,σ(1) · · · a n,σ(n)
X
det(A) =

NE
σ∈Sn
¯ ¯
¯ a 1,1 ··· a 1,n ¯¯
¯ . .. ¯
¯
Notation : on écrit : det(A) = ¯ .. . ¯¯
¯
¯a ··· a n,n ¯
n,1
ZExemples : ¯ ¯
¯a b ¯¯
– Cas d’une matrice carrée de taille 2 : ¯¯ = ad − bc.
c d¯
n
Q
– Cas d’une matrice triangulaire : si A est triangulaire, alors det(A) = a i ,i (produit des éléments
i =1
diagonaux).

AIG
2) Propriétés du déterminant d’une matrice carrée
– Une matrice carrée A et sa transposée, ont le même déterminant. On en déduit que si B est la base
canonique de Kn , alors det(A) = detB (C1 (A), . . . , Cn (A)) = detB (L1 (A), . . . , Ln (A)).
ε(σ)a 1,σ(1) · · · a n,σ(n) = ε(σ)a σ(1),1 · · · a σ(n),n = det(t A).
P P
Preuve : En effet, on a det(A) = 
σ∈Sn σ∈Sn
– Soit u ∈ L (E), et soit B une base quelconque de E, si mat(u) = A ∈ Mn (K), alors det(u) = det(A). On en
B
déduit en particulier que si P ∈ GLn (K), alors det(P −1 × A × P) = det(A).
– Si A, B ∈ Mn (K), alors det(A × B) = det(A) det(B), en particulier, on a det(A × B) = det(B × A).
– Une matrice carrée est inversible ssi son déterminant est non nul, si c’est le cas, alors det(A−1 ) =
det(A)−1 .
– Utilisation de la méthode de Gauss : on utilise celle-ci pour se ramener au calcul du déterminant d’une
matrice triangulaire, plus précisément :
• L’opération Li ↔ L j , change le signe du déterminant (idem avec les colonnes).
NT
• L’opération Li ← αLi (α 6= 0), multiplie le déterminant par α (idem avec les colonnes).
• L’opération Li ← Li + αL j , ne change pas le déterminant (idem avec les colonnes).
1 1 1
 

ZExemple : Avec A = −1 2 0.


2 3 1

¯ ¯ ¯ ¯ ¯ ¯
¯1 1 1 ¯
¯ L3 ←L3 −L1 ¯1 1 1 ¯ L3 ←L3 −L2 ¯1 1 1 ¯
¯ ¯ ¯ ¯
C1 ↔C3 ¯
det(A) = − ¯0 2 −1¯
¯ ¯ = − ¯0 2 −1¯
¯ ¯ = − ¯0 2 −1¯¯ = −4.
¯
¯1 3 2 ¯ ¯0 2 1 ¯ ¯0 0 2 ¯

FExercice 25.2 Soit A ∈ Mn (K) et λ ∈ K, montrer que det(λA) = λn det(A).


Solution 25.2 Par linéarité sur chaque vecteur colonne, on peut sortir le coefficient λ de chaque colonne.
MO

3) Développement suivant une ligne ou une colonne


Soit A = (a i , j ) ∈ Mn (K), soit B = (e 1 , . . . , e n ) la base canonique de Kn , notons C1 , . . . , Cn les vecteurs
Pn
colonnes de A, pour j ∈ J1; n K, on a C j = a i , j e i , par linéarité par rapport à la j -ième variable, on peut
i =1
écrire :
n
X
det(A) = a i , j det(C1 , . . . , C j −1 , e i , C j +1 , . . . , Cn ).
i =1 B
n
En posant γi , j (A) = detB (C1 , . . . , C j −1 , e i , C j +1 , . . . , Cn ), on a alors det(A) = a i , j γi , j (A), c’est le développe-
P
i =1
ment de det(A) suivant la colonne j .

MPSI3 (2015-16) LYCÉE M ONTAIGNE 246 ©Fradin Patrick – http://mpsi.tuxfamily.org


Déterminant d’une matrice carrée Chapitre 25 : Déterminants

Définition 25.10
Le scalaire γi , j (A) est appelé cofacteur (i j ) de la matrice A, c’est le déterminant de la matrice A dans

NE
laquelle la colonne j a été remplacée par le i -ième vecteur de la base canonique de Kn .

Calcul de γi , j (A) :
¯ ¯
¯ a 1,1 · · · a 1, j −1 0 a 1, j +1 · · · a 1,n ¯
¯ .. .. .. .. .. ¯
¯ ¯
¯ . . . . . ¯
¯ ¯
¯a
¯ i −1,1 · · · a i −1, j −1 0 a i −1, j +1 · · · a i −1,n ¯
¯
On a γi , j (A) = ¯ a i ,1 · · · a i , j −1 1 a i , j +1 · · · a i ,n ¯, on échange les colonnes C j +1 et C j , puis
¯ ¯
¯ ¯
¯a i +1,1 · · · a i +1, j −1 0 a i +1, j +1 · · · a i +1,n ¯
¯ .. .. .. .. .. ¯
¯ ¯
¯ . . . . . ¯
¯ ¯
¯ a · · · a n, j −1 0 a n, j +1 · · · a n,n ¯
n,1

AIG
C j +1 et C j +2 , . . . etc, pour amener la colonne j en dernière position, sans changer l’ordre sur les autres
colonnes, le déterminant est multiplié par (−1)n− j . De le même façon, on amène la ligne i en dernière
position sans changer l’ordre des autres lignes, le déterminant est multiplié par (−1)n−i . On obtient alors :
¯ ¯
¯ a 1,1 ··· a 1, j −1 a 1, j +1 ··· a 1,n 0¯¯
¯ .. .. .. .. .. ¯
¯
¯ . . . . . ¯¯
¯
¯a ··· a i −1, j −1 a i −1, j +1 ··· a i −1,n 0¯¯
¯ i −1,1
i+j ¯
γi , j (A) = (−1) ¯a i +1,1 ··· a i +1, j −1 a i +1, j +1 ··· a i +1,n 0¯ ,
¯
¯ .. .. .. .. .. ¯
¯ ¯
¯ . . . . .¯
¯ ¯
¯ a n,1 ··· a n, j −1 a n, j +1 ··· a n,n 0¯¯
¯
¯ a ··· a i , j −1 a i , j +1 ··· a i ,n 1¯
i ,1

notons b i , j les coefficients de la matrice à l’intérieur de ce déterminant, on a


NT
γi , j (A) = (−1)i + j ε(σ)b σ(1),1 · · · b σ(n),n ,
X
σ∈Sn

on remarque que lorsque σ(n) 6= n, alors b σ(n),n = 0, on peut donc ne retenir que les permutations ayant n
comme point fixe, c’est à dire en fait les éléments de Sn−1 , et comme b n,n = 1, on a alors :

γi , j (A) = (−1)i + j ε(σ)b σ(1),1 · · · b σ(n−1),n−1 .


X
σ∈Sn−1

C’est le déterminant de la matrice extraite de A par suppression de la ligne i et de la colonne j , multi-


plié par (−1)i + j .

Définition 25.11
Soit A ∈ Mn (K), on appelle mineur (i j ) de la matrice A, le déterminant ∆i , j (A) de la matrice Ai , j
MO

obtenue par suppression de ligne i et de la colonne j de A. Le lien entre cofacteur et mineur est :
γi , j (A) = (−1)i + j ∆i , j (A).

Le développement de det(A) suivant la colonne j s’écrit donc :

n
a i , j (−1)i + j ∆i , j (A).
X
det(A) =
i =1

∆i , j (A) est un déterminant d’ordre n − 1, c’est donc une formule récurrente.

ZExemple : En développant suivant la deuxième colonne :


¯ ¯
¯ 1 2 1¯ ¯ ¯ ¯ ¯
¯−1 0 2¯ = −2 ¯−1 2¯ − 3 ¯ 1 1¯ = (−2)(−3) − 9 = −3.
¯ ¯ ¯ ¯ ¯ ¯
¯ ¯ ¯ 1 1¯ ¯−1 2¯
¯ 1 3 1¯

MPSI3 (2015-16) LYCÉE M ONTAIGNE 247 ©Fradin Patrick – http://mpsi.tuxfamily.org


Applications Chapitre 25 : Déterminants

Développement suivant la ligne j : comme une matrice A ∈ Mn (K) a le même déterminant que sa trans-
posée, développer det(A) suivant la ligne j revient à développer det(t A) suivant la colonne j , ce qui donne
n

NE
det(A) = (t A)i , j (−1)i + j ∆i , j (t A), mais ∆i , j (t A) = ∆ j ,i (A), ce qui donne finalement :
P
i =1
n
a j ,i (−1)i + j ∆ j ,i (A)
X
det(A) =
i =1

Un exemple classique : le déterminant de Vandermonde 1

1 α0 · · · αn0
 
 .. .. .. 
Soit A =  . . . , où α0 , . . . , αn ∈ K, soit Vn = det(A), alors on a le résultat suivant :
1 αn · · · αnn
(α j − αi )
Y
Vn =
06i < j 6n

AIG
Preuve : Si deux des scalaires sont égaux, le résultat est évident. Supposons les αi distincts deux à deux. On peut
vérifier que pour n = 2 le résultat est vrai. Supposons le vrai au rang n, et remplaçons dans Vn+1 la dernière ligne par
(1 X X 2 . . . X n+1 ), le déterminant obtenu en développant suivant la dernière ligne, est un polynôme P(X) de degré au plus
n
n +1, dont les racines sont α0 , . . . , αn , de plus son coefficient dominant est Vn , par conséquent on a P(X) = Vn (X −αi ),
Q
i =0
n
(αn+1 − αi ) = (α j − αi ).
Q Q
d’où Vn+1 = Vn 
i =0 06i < j 6n+1

4) Comatrice

Définition 25.12
Soit A ∈ Mn (K), on appelle comatrice de A la matrice de Mn (K) dont les coefficients sont les cofacteurs
γi , j (A). Notation : Com(A) = (γi , j (A))16i , j 6n .
NT
µ ¶ µ ¶
a b d −c
ZExemple : Si A = , alors Com(A)) = .
c d −b a

Théorème 25.9 (relation fondamentale)


∀ A ∈ Mn (K), A × t Com(A) = t Com(A) × A = det(A)In

n
Preuve : Soit B = A × t Com(A), alors b i , j = a i ,k (−1) j +k ∆ j k (A), qui est le déterminant de la matrice obtenue en
P
k=1
remplaçant dans A, la ligne j par la ligne i , d’où b i , j = det(A)δi , j .
n
Posons C = t Com(A) × A, alors c i , j = a k, j (−1)i +k ∆k,i (A), qui est le déterminant de la matrice obtenue en rempla-
P
k=1
MO

çant dans A, la colonne i par la colonne j , on a donc c i , j = det(A)δi , j . 


Application – Si A ∈ Mn (K) est inversible, alors :

1 t
A−1 = Com(A)
det(A)

VI APPLICATIONS

1) Géométrie
Soit E un espace de dimension n, muni d’un repère R = (O, B) avec B = (e 1 , . . . , e n ), soit H un hyperplan
passant par A(a 1 , . . . , a n ) et de direction un hyperplan vectoriel de base (u 1 , . . . , u n−1 ). On a alors :

1. VANDERMONDE Alexandre (1735 – 1796) : mathématicien français qui fut le premier à étudier les déterminants.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 248 ©Fradin Patrick – http://mpsi.tuxfamily.org


Applications Chapitre 25 : Déterminants

−−→
M(x 1 , . . . , x n ) ∈ H ⇐⇒ AM ∈ H

NE
−−→
⇐⇒ (u 1 , . . . , u n−1 , AM ) est liée
−−→
⇐⇒ det B(u 1 , . . . , u n−1 , AM ) = 0
¯ ¯
¯ a 11 · · · a 1n−1 x 1 − a 1 ¯
¯ . .. ..
¯ ¯
⇐⇒ ¯ .. ¯=0
¯
¯ . . ¯
¯a ··· a x −a ¯
n1 nn−1 n n
n+1
⇐⇒ (−1) ∆1n (x 1 − a n ) + · · · + (−1)n+n ∆nn (x n − a n ) = 0 (développement suivant la colonne n)
⇐⇒ α1 (x 1 − a 1 ) + · · · + αn (x n − a n ) = 0
⇐⇒ α1 x 1 + · · · + αn x n = d

AIG
on obtient ainsi une équation cartésienne de l’hyperplan affine H , on remarquera qu’une équation carté-
sienne de la direction H est α1 x 1 + · · · + αn x n = 0.

2) Systèmes linéaires

 a 11 x 1 + . . . + a 1p x p = b 1

..
C’est un système de la forme (S) : . , où les scalaires x 1 , . . . , x p sont les


a n1 x 1 + . . . + a np x p = b n
inconnues.
Le système (S) peut s’interpréter de plusieurs façons :
– Interprétation géométrique : chaque équation de (S) peut être vue comme l’équation d’un hyperplan
de Kp (lorsque les coefficients ne sont pas tous nuls). Les solutions de (S) sont les coordonnées des
points de l’intersection de n hyperplans.
NT
x1 b1 a 11 · · · a 1n
     
 .   .   . .. 
– Sous forme matricielle : (S) ⇐⇒ AX = B où X =  .. , B =  .. , et A =  .. . , A est la matrice
xp bn a n1 · · · a np
du système. Le rang de la matrice A est appelé le rng du système S, il peut être vu comme le nombre
maximal d’équations indépendantes du système.
– Sous forme linéaire : soit u ∈ L (Kp , Kn ) l’application linéaire canoniquement associée à A, soit x ∈ Kp
le vecteur de coordonnées (x 1 , . . . , x p ) dans la base canonique, et soit b le vecteur de Kn de coordonnées
(b 1 , . . . , b n ), on a alors (S) ⇐⇒ u(x) = b.
– Sous forme vectorielle : soient v 1 , . . . , v p les vecteurs colonnes de A, on a (S) ⇐⇒ x 1 v 1 + . . . + x p v p = b,
c’est une équation vectorielle dans Kn .
Rappel : structure de l’ensemble des solutions de l’équation linéaire u(x) = b :
Il y a des solutions si et seulement si b ∈ Im(u), si c’est le cas, et si x 0 ∈ Kp désigne une solution particulière,
MO

alors l’ensemble des solutions est x 0 + ker(u), où ker(u) est l’ensemble des solutions de l’équation homogène,
qui est un s.e.v de Kp de dimension p − rg(u). L’ensemble des solutions est donc un sous-espace affine de
direction ker(u).

Définition 25.13 (Systèmes de C RAMER)


C’est un système linéaire carré possédant une unique solution, ce qui revient à dire que la matrice
du système est carrée inversible.

Formules de Cramer 2 : on a ici n = p, notons C1 , . . . , Cn les colonnes de A ,on a B = x 1 C1 + . . . + x n Cn , soit Di


la matrice obtenue en remplaçant dans A la colonne i par la colonne B, on a :
n
X
det(Di ) = x k det(C1 , . . . , Ci −1 , Ck , Ci +1 , . . . , Cn )
k=1

2. CRAMER Gabriel (1704 – 1752) : mathématicien français qui s’est intéressé aux systèmes linéaires et à la théorie des détermi-
nants.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 249 ©Fradin Patrick – http://mpsi.tuxfamily.org


Applications Chapitre 25 : Déterminants

ce qui donne det(Di ) = x i det(A), d’où les formules :

det(C1 , . . . , Ci −1 , B, Ci +1 , . . . , Cn )

NE
∀ i ∈ J1; n K , x i =
det(A)
(
ax + b y =u
ZExemple : Si ad − bc 6= 0, alors le système (S) : , possède une unique solution :
cx + d y =v
(
ud −vb
x = ad −bc
av−cu
y = ad −bc

3) Orientation d’un espace vectoriel réel


Soient B et B0 deux bases d’un R-espace vectoriel de dimension finie, E, soit P la matrice de passage,

AIG
alors P est une matrice inversible, donc det(P) 6= 0, on a alors soit det(P) > 0, soit det(P) < 0.

Définition 25.14
On dit que la base B est en relation avec la base B0 lorsque la matrice de passage a un déterminant
strictement positif, on note alors BR B0 .

ZExemple : Une base B = (e 1 , . . . , e n ) est en relation avec elle-même, mais pas avec B0 = (−e 1 , e 2 , . . . , e n ).

Théorème 25.10
La relation R est une relation d’équivalence, et il n’y a que deux classes d’équivalence.

−1
Preuve : La réflexivité est évidente. La symétrie découle de la formule PB,B0 = PB 0 ,B . La transitivité découle de la
formule : PB,B = PB,B × PB ,B .
NT
00 0 0 00

D’après l’exemple ci-dessus, il y a au moins deux classes d’équivalence, soit B00 une troisième base, supposons que
B ne soit pas en relation avec B00 , alors PB0 ,B00 = PB0 ,B × PB,B00 , d’où det(PB0 ,B00 ) = det(PB0 ,B ) × det(PB,B00 ) > 0, car
ces deux déterminants sont négatifs, par conséquent B00 R B0 , et donc la classe de B00 et égale à celle de B0 . 

Définition 25.15
Orienter l’espace vectoriel E c’est choisir une des deux classes d’équivalence, que l’on appelle classe
des bases directes, l’autre étant alors appelée classe des bases indirectes. Il n’y a donc que deux
orientations possibles.

Remarque 25.1 – À retenir : le déterminant de la matrice de passage entre deux bases directes (ou deux bases
indirectes) est strictement positif. Le déterminant de la matrice de passage entre une base directe et une base
MO

indirecte est strictement négatif.

Définition 25.16 (orientation induite sur un hyperplan)


Soit H un hyperplan de E (R-espace vectoriel orienté), et soit e n un vecteur de E n’appartenant pas à
H, soit B = (e 1 , . . . , e n−1 ) une base de H, la famille (e 1 , . . . , e n ) est une base de E, si cette base est directe,
on dira que (e 1 , . . . , e n−1 ) est une base directe de H pour l’orientation induite sur H par le vecteur e n .

MPSI3 (2015-16) LYCÉE M ONTAIGNE 250 ©Fradin Patrick – http://mpsi.tuxfamily.org


Applications Chapitre 25 : Déterminants


e→
3

NE

e→
2


e→
1

AIG
H

F IGURE 25.1: Exemple en dimension 3 : (e 1 , e 2 ) est une base directe de H pour l’orientation induite par e 3 ,
l’espace étant « orienté avec la règle du tire-bouchon ».
NT
MO

MPSI3 (2015-16) LYCÉE M ONTAIGNE 251 ©Fradin Patrick – http://mpsi.tuxfamily.org


NE
Chapitre 26

Espaces euclidiens

AIG
Sommaire
I Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
2) Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
3) Bases orthonormales dans un euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
4) Projections orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256
5) Distance d’un vecteur à un s.e.v . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
6) Hyperplans affines dans un euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
II Endomorphismes orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
2) Matrices orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
3) Espace vectoriel euclidien orienté - Produit mixte . . . . . . . . . . . . . . . . . . . . . . 261
III Endomorphismes orthogonaux en dimension 1 et 2 . . . . . . . . . . . . . . . . . . . . . . . 262
1) En dimension 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262
NT
2) En dimension 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262

Dans tout le chapitre, E désigne un R-espace vectoriel.

I PRODUIT SCALAIRE

1) Définitions

Définition 26.1
Un produit scalaire sur E est une forme bilinéaire sur E, généralement notée (.|.), qui à tout couple de
vecteurs (x, y) associe le réel (x|y), et qui vérifie :
– ∀ x, y ∈ E, (x|y) = (y|x) (symétrie).
MO

– ∀ x ∈ E, (x|x) > 0 (positive).


– ∀ x ∈ E, si (x|x) = 0, alors x = 0 (définie).
Lorsque E est muni d’un produit scalaire (.|.), on dit que (E, (.|.)) est un espace euclidien s’il est de
dimension finie, ou un espace préhilbertien réel sinon.

ZExemples :
n
– Produit scalaire canonique de Rn : (x|y) =
P
xi y i .
i =1
b
– E = C 0 ([a; b], R) et ∀ f , g ∈ E, ( f |g ) = a f (t )g (t ) d t (avec a < b).
R

– E = R[X], on définit un produit scalaire sur E en posant :


Z b
∀ P, Q ∈ E, (P|Q) = P(t )Q(t ) d t (avec a < b)
a

– Pour x, y ∈ R , ϕ(x, y) = x 1 y 1 + x 1 y 2 + x 2 y 1 + 2x 2 y 2 est un produit scalaire sur R2 , mais pas ψ(x, y) =


2

x1 y 1 + x1 y 2 + x2 y 1 + x2 y 2 .

MPSI3 (2015-16) LYCÉE M ONTAIGNE 252 ©Fradin Patrick – http://mpsi.tuxfamily.org


Produit scalaire Chapitre 26 : Espaces euclidiens

– E = Rn [X], soient a 0 , . . . , a n des réels distincts, on définit un produit scalaire sur E en posant :
n
X

NE
∀ P, Q ∈ E, (P|Q) = P(a k )Q(a k )
k=0

Théorème 26.1 (Inégalité de Cauchy-Schwarz)


∀ x, y ∈ E, (x|y)2 6 (x|x)(y|y).

Preuve : ∀ λ ∈ R, (x + λy|x + λy) > 0, ce qui donne en développant : λ2 (y|y) + 2λ(x|y) + (x|x) > 0. Lorsque (y|y) 6= 0,
le discriminant du trinôme en λ doit être négatif ou nul (s’il était strictement positif il y aurait deux racines réelles
distinctes r 1 < r 2 et le trinôme serait strictement négatif dans l’intervalle ouvert ]r 1 ; r 2 [), ce qui donne l’inégalité.
Lorsque (y|y) = 0, alors y = 0 et l’inégalité est triviale. 

Théorème 26.2 (cas d’égalité)

AIG
∀ x, y ∈ E, (x|y)2 = (x|x)(y|y) ⇐⇒ (x, y) est liée.

Preuve : Celle-ci est simple et laissée en exercice. 

Définition 26.2 (norme euclidienne)


p
Soit x ∈ (E, (.|.)), on pose kxk = (x|x), c’est la norme euclidienne de x. Un vecteur de norme égale à 1
est dit unitaire. L’inégalité de Cauchy-Schwarz peut alors s’écrire : |(x | y)| 6 kxkkyk.

1
Remarque 26.1 – Si x est non nul alors le vecteur kxk x est unitaire.

Théorème 26.3 (Propriétés)


• kxk = 0 ⇐⇒ x = 0.
NT
• ∀ λ ∈ R, kλxk = |λ|kxk.
• kx + yk 6 kxk + kyk (inégalité triangulaire).

Preuve : Celle-ci est simple et laissée en exercice. 

Définition 26.3 (écart angulaire)


³ ´
|(x|y)| (x|y)
Soient x et y deux vecteurs non nuls, on a kxkkyk 6 1, donc en posant θ = arccos kxkkyk ∈ [0; π],
on peut écrire : (x | y) = kxkyk cos(θ), ce réel θ est appelé écart angulaire entre les vecteurs x et y.
Lorsque θ ∈ [0; π2 ] (c’est à dire (x | y) > 0) on dit que les vecteurs sont dans le même sens, et lorsque
θ ∈ [ π2 ; π] (c’est à dire (x | y) 6 0) on dit que les vecteurs sont dans le sens contraire.
MO

FExercice 26.1 Soient x, y ∈ E deux vecteurs non nuls, montrer que :


1/ |kxk − kyk| 6 kx + yk.
2/ x et y sont colinéaires si et seulement si leur écart angulaire vaut 0 ou π (pour x et y non nuls).
3/ kx + yk = kxk + kyk ⇐⇒ ∃ α > 0, x = αy.

ZExemples :
– E = Rn , avec le produit scalaire canonique, l’inégalité de Cauchy-Schwarz s’écrit :
à !2 à !à ! s
n n n n
2 2
X X X X
xi y i 6 xi y i et kxk = x i2
i =1 i =1 i =1 i =1
Rb
– E = C 0 ([a; b], R) avec le produit scalaire : ( f |g ) = a f (t )g (t ) d t , l’inégalité de Cauchy-Schwarz s’écrit :
³R ´2 ³R ´ ³R ´ q
b
6 ab f 2 ab g 2 et k f k =
Rb
2
a f (t ) f g (t ) d t a f .

MPSI3 (2015-16) LYCÉE M ONTAIGNE 253 ©Fradin Patrick – http://mpsi.tuxfamily.org


Produit scalaire Chapitre 26 : Espaces euclidiens

À retenir : Relations entre le produit scalaire et la norme


• kx + yk2 = kxk2 + kyk2 + 2(x|y) et kx − yk2 = kxk2 + kyk2 − 2(x|y).

NE
• kx + yk2 + kx − yk2 = 2(kxk2 + kyk2 ) (théorème de la médiane ou identité du parallélogramme).
• (x|y) = 14 kx + yk2 − kx − yk2 = 12 kx + yk2 − kxk2 − kyk2 = 12 kxk2 + kyk2 − kx + yk2 (identités de
¡ ¢ ¡ ¢ ¡ ¢

polarisation).

2) Orthogonalité

Définition 26.4
Soient x, y ∈ E, et soient F, G deux s.e.v de E, on dit que :
• x et y sont orthogonaux lorsque (x|y) = 0.
• F et G sont orthogonaux lorsque ∀ x ∈ F, ∀ y ∈ G, (x|y) = 0.

AIG
On appelle orthogonal de A (une partie de E), l’ensemble des vecteurs de E orthogonaux à tous les
vecteurs de A, notation : A⊥ = {x ∈ E / ∀ y ∈ A, (x|y) = 0}. On remarquera que dire que F et G sont
orthogonaux équivaut à F ⊂ G⊥ , ou encore G ⊂ F⊥ .

Remarque 26.2 :
– Le seul vecteur orthogonal à tous les autres est le vecteur nul, i.e. E⊥ = {0}, car le produit scalaire est
défini.
– Deux vecteurs non nuls sont orthogonaux si et seulement si leur écart angulaire vaut π2 .
FExercice 26.2 Si A est une partie de E, montrer que A⊥ est un sev de E.

Théorème 26.4 (de Pythagore)


Deux vecteurs x et y sont orthogonaux si et seulement si kx + yk2 = kxk2 + kyk2 .
NT
Théorème 26.5
Si F est un s.e.v de E, alors F⊥ est un s.e.v de E en somme directe avec F.

Preuve : Pour y ∈ E, on pose f y : E → R définie par f y (x) = (x|y), alors f y est une forme linéaire sur E, et il est facile de
voir que F⊥ = ker( f y ), ce qui prouve que F⊥ est un s.e.v de E. Si x ∈ F ∩ F⊥ , alors on doit avoir (x|x) = 0, d’où x = 0. 
T
y∈F

Propriétés :
– Si A et B sont deux parties de E telles que A ⊂ B, alors B⊥ ⊂ A⊥ .
– Si A est une partie de E, alors A ⊂ (A⊥ )⊥ .
– Si F et G sont deux sev de E, alors (F + G)⊥ = F⊥ ∩ G⊥ .
MO

Théorème 26.6
Si E est un espace euclidien de dimension n, et si F est un s.e.v de E de dimension p, alors dim(F⊥ ) =
n − p, on a donc :
E = F ⊕ F⊥ .

Preuve : On sait que dim(F ⊕ F⊥ ) 6 n, d’où dim(F⊥ ) 6 n − p.


Soit f : E → Rp l’application définie par f (x) = ((e 1 |x), . . . , (e p |x)) où B = (e 1 , . . . , e p ) désigne une base de F, alors il est
facile de voir que f est linéaire et que ker( f ) = F⊥ . D’après le théorème du rang, on a n = dim(F⊥ ) +rg( f ) 6 dim(F⊥ ) + p,
ce qui donne dim(F⊥ ) > n − p, et donc dim(F⊥ ) = n − p. 

Attention !
R1
Ce théorème est faux en dimension ¤infinie. Par exemple dans E = R[X] avec le produit scalaire (P | Q) = 0 P(t )Q(t ) d t ,
l’orthogonal de F = Vect X, X 2 , . . . est réduit au polynôme nul alors que F 6= E.
£

MPSI3 (2015-16) LYCÉE M ONTAIGNE 254 ©Fradin Patrick – http://mpsi.tuxfamily.org


Produit scalaire Chapitre 26 : Espaces euclidiens

Quelques conséquences :
– (F⊥ )⊥ = F.
– (F ∩ G)⊥ = F⊥ + G⊥ .

NE
Théorème 26.7 (représentation des formes linéaires sur E)
Soit E un euclidien et f : E → R une forme linéaire, alors il existe un unique vecteur a ∈ E tel que
∀ x ∈ E, f (x) = (a|x).

Preuve : Pour l’existence : si f est nulle alors on peut prendre a = 0. Si f est non nulle, alors ker( f ) est un hyperplan de
λ
E, donc ker( f )⊥ = Vect [u] est une droite vectorielle. Posons f (u) = λ et prenons a = kuk 2 u. Il est facile de vérifier que

pour tout x ∈ E, f (x) = (a|x).


Si b est un autre vecteur qui convient, alors ∀ x ∈ E, (a − b|x) = 0, donc a − b = 0. 

3) Bases orthonormales dans un euclidien

AIG
Définition 26.5
Une famille (x 1 , . . . , x p ) de E est dite orthonormale lorsque ∀ i , j ∈ J1; p K , (e i |e j ) = δi j . Cette famille
est dite orthogonale lorsque ∀ i , j ∈ J1; p K , i 6= j =⇒ (e i |e j ) = 0.

Théorème 26.8
Une famille orthogonale ne contenant pas le vecteur nul est libre. En particulier, une famille ortho-
normale est libre.

p
λk e k = 0, alors soit i ∈ J1; p K, on
P
Preuve : Soit (e 1 , . . . , e p ) une famille orthogonale ne contenant pas le vecteur nul, si
k=1
p p
λk e k ) = λk (e i |e k ) = λi ke i k2 = 0, ce qui entraîne λi = 0.
P P
a (e i | 
NT
k=1 k=1

Cas particulier
Si E est un euclidien de dimension n, alors une famille orthonormale de n vecteurs est une base de E, on
dit que l’on a une base orthonormale (b.o.n en abrégé). Par exemple, la base canonique que Rn est une base
orthonormale pour le produit scalaire canonique.

Théorème 26.9
p p
e i k2 = ke i k2 .
P P
Si (e 1 , . . . , e p ) est une famille orthogonale, alors : k
k=1 i =1

p p p
e i k2 = ke i k2 .
P P P
Preuve : En effet, on a k (e i |e j ) = 
MO

i =1 i , j =1 i =1

Théorème 26.10 (interêt d’une b.o.n)


Soit B = (e 1 , . . . , e n ) une b.o.n de E, alors ∀ x, y ∈ E :
n
P
•x= (x|e i )e i , autrement dit, la coordonnée de x sur e i est (x|e i ) ;
i =1
n
x i y i , expression analogue au produit scalaire canonique de Rn ;
P
• (x|y) =
i =1
n
• kxk2 = x i2 .
P
i =1
avec x i = (x|e i ) et y i = (y|e i ) les coordonnés de x et de y.

n n
Preuve : Soit CoordB (x) = (λ1 , . . . , λn ), on a (x|e k ) = ( λi e i |e k ) = λi (e i |e k ) = λk . Pour les deux autres points, il suffit
P P
i =1 i =1
de développer le produit scalaire. 

MPSI3 (2015-16) LYCÉE M ONTAIGNE 255 ©Fradin Patrick – http://mpsi.tuxfamily.org


Produit scalaire Chapitre 26 : Espaces euclidiens

Attention !
Le théorème ci-dessus est fondamental et démontre l’interêt des b.o.n. dans les espaces euclidiens.

NE
Théorème 26.11
Dans un espace euclidien, il existe toujours des bases orthonormales.

e1
Preuve : Par récurrence sur n = dim(E) : pour n = 1, on a E = Vect [e 1 ], une b.o.n de E est (e 10 ) avec e 10 = ke 1 k .
Supposons le théorème vrai au rang n − 1 (n > 1), et soit e 1 un vecteur unitaire de E, soit F = Vect [e 1 ]⊥ , alors F est
un s.e.v de dimension n − 1, soit (e 2 , . . . , e n ) une b.o.n de F, il est facile de voir que (e 1 , e 2 , . . . , e n ) est une b.o.n de E. 

4) Projections orthogonales

AIG
Définition 26.6
Soit p ∈ L (E) une projection (p ◦ p = p), on dit que p est une projection orthogonale lorsque ker(p) =
ker(p − id)⊥ . Si F est un s.e.v de E, la projection orthogonale sur F, notée p F , est la projection sur F
parallèlement à F⊥ .

Remarque 26.3 – Si F est un s.e.v de E, alors la projection orthogonale sur F⊥ est id − p F .

Théorème 26.12 (projét orthogonal sur un s.e.v.)


p
P
Si F est un s.e.v de E, et si (e 1 , . . . , e p ) est une b.o.n de F, alors ∀ x ∈ E, p F (x) = (x|e i )e i .
i =1

n
Preuve : Soit (e p+1 , . . . , e n ) une b.o.n de F⊥ , alors B = (e 1 , . . . , e n ) est une b.o.n de E, donc x =
P
(x|e i )e i , ce qui donne
i =1
NT
p n
(x|e i )e i , la première somme désigne un vecteur de F, et la seconde un vecteur de F⊥ , donc
P P
x= (x|e i )e i +
i =1 i =p+1
p
P
p F (x) = (x|e i )e i . 
i =1

Remarque 26.4 – On peut en déduire que : si E est un espace préhilbertien réel, et si F est un sev de E
p
de dimension finie, alors E = F ⊕ F⊥ , car si (e 1 , . . . , e p ) est une b.o.n de F, alors le vecteur x − (x|e i )e i est dans
P
i =1
F⊥ .
u
ZExemple : Si D = Vect [u] est une droite vectorielle, alors (e 1 = kuk ) est une b.o.n de D, donc ∀ x ∈ E, p D (x) =
(x|u)
(x|e 1 )e 1 , c’est à dire : p D (x) = kuk2
.u.
MO

Théorème 26.13 (procédé d’orthonormalisation de Schmidt 1 )


Soit E un espace préhilbertien réel, et soit (e 1 , . . . , e n ) une famille libre de E, alors il existe une unique
famille orthonormale (v 1 , . . . , v n ) de E telle que :
½
Vect [e 1 , . . . , e i ] = Vect [v 1 , . . . , v i ]
∀ i ∈ J1; n K , .
(e i |v i ) > 0

Preuve : On pose v 1 = kee 11 k , on a bien Vect [e 1 ] = Vect [v 1 ] et (e 1 |v 1 ) > 0.


Supposons les vecteurs v 1 , . . . , v i construits et vérifiant les conditions, on pose e i0 +1 = p F⊥ (e i +1 ) où Fi = Vect [v 1 , . . . , v i ] =
i
i
Vect [e 1 , . . . , e i ], ce qui donne e i0 +1 (e i +1 |v k )v k , ce vecteur e i0 +1
P
= e i +1 − est non nul et dans Fi +1 , on pose ensuite v i +1 =
k=1
e i0 +1
ke i0 +1 k
, il est facile de voir que Vect [e 1 , . . . , e i +1 ] = Vect [v 1 , . . . , v i +1 ]. D’autre part, (e i +1 |v i +1 ) = (e i0 +1 |v i +1 ) = ke i0 +1 k > 0.
On remarque qu’à chaque étape, il y a deux choix pour v i , mais la condition (e i |v i ) > 0 élimine une des deux
possibilités, ce qui entraîne l’unicité, car on doit prendre e i0 +1 dans Fi +1 ∩ F⊥
i
qui est une droite vectorielle. 

1. SCHMIDT Erhard (1876 – 1959) : mathématicien allemand.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 256 ©Fradin Patrick – http://mpsi.tuxfamily.org


Produit scalaire Chapitre 26 : Espaces euclidiens

Remarque 26.5 – Si (e 1 , . . . , e n ) une base de E, alors la famille (v 1 , . . . , v n ) obtenue par la méthode Schmidt est
une b.o.n de E.

NE
FExercice 26.3 Soit E = R3 , muni du produit scalaire canonique, on pose v 1 = (1, 1, 0), v 2 = (1, 0, 1) et v 3 = (0, 1, 1).
Appliquer la méthode de Schmidt à la base (v 1 , v 2 , v 3 ).
v1 e 20
Solution 26.3 On pose e 1 = = p1 (1, 1, 0), puis e 20 = v 2 − (v 2 | e 1 ) · e 1 = ( 12 , − 12 , 1) et e 2 = = p1 (1, −1, 2). Enfin,
kv 1 k 2 ke 20 k 6
e 30
e 30 = v 3 − (v 3 | e 1 ) · e 1 − (v 3 | e 2 ) · e 2 = 23 (−1, 1, 1) et e 3 = ke 30 k
= p1 (−1, 1, 1).
3

Dans la suite, (E, (.|.)) désigne un espace euclidien.

5) Distance d’un vecteur à un s.e.v


Soit F un s.e.v de E et soit x ∈ E, pour tout vecteur y ∈ F, on a :
kx − yk2 = k(p F (x) − y) + p F⊥ (x)k2 = kp F (x) − yk2 + kp F⊥ (x)k2

AIG
on voit donc que ∀ y ∈ E, kx − yk2 > kp F⊥ (x)k2 , et que cette valeur est un minimum atteint uniquement pour
y = p F (x),

F⊥

x−y
p F⊥ (x)

p F (x) y F

F IGURE 26.1: Projection orthogonale et distance à F


d’où le théorème :
NT
Théorème 26.14
Soit F un s.e.v de E, pour x ∈ E, l’ensemble {kx − yk / y ∈ F} admet un minimum, celui-ci est atteint
uniquement pour y = p F (x), et vaut kp F⊥ (x)k. Ce minimum est appelé distance de x à F et noté d(x, F) :
d(x, F) = min kx − yk = kp F⊥ (x)k = kx − p F (x)k.
y∈F

ZExemples :
(x|u)
– Distance d’un vecteur à une droite : soit D = Vect [u] une droite vectorielle, on sait que p D (x) = kuk2
u,
q 2
d’où d(x, D) = kx − p D (x)k2 = kxk2 − (x|u)
p
kuk2
.
– Distance d’un vecteur à un hyperplan : soit H un hyperplan de E, alors H⊥ = Vect [u] est une droite
vectorielle, d’où d(x, H) = kp D (x)k = |(x|u)|
kuk .
MO

6) Hyperplans affines dans un euclidien


On se place dans un repère R = (O, B) orthonormal (ce qui signifie que B est un b.o.n. de E).

Équation cartésienne et produit scalaire


Soit H un hyperplan affine de direction H, on sait que H admet une équation cartésienne de la forme
α1 x 1 + · · · + αn x n = c où les αi sont non tous nuls, soit n(α1 , . . . , αn ), et soit A(a 1 , · · · , a n ) un point de H , alors :
M(x 1 , . . . , x n ) ∈ H ⇐⇒ α1 x 1 + · · · + αn x n = c
⇐⇒ α1 x 1 + · · · + αn x n = α1 a 1 + · · · + αn a n (car A ∈ H )
⇐⇒ α1 (x 1 − a 1 ) + · · · + αn (x n − a n ) =
−−→
⇐⇒ (n|AM ) = 0
On dit que H est l’hyperplan affine passant par A et normal au vecteur n.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 257 ©Fradin Patrick – http://mpsi.tuxfamily.org


Endomorphismes orthogonaux Chapitre 26 : Espaces euclidiens

À retenir
Les coordonnées d’un vecteur normal à H se lisent directement sur une équation cartésienne de H .

NE
La direction de l’hyperplan affine est H = {x ∈ E / (n|x) = 0} = Vect [n]⊥ .

Distance d’un point à un hyperplan affine


M
Soit H un hyperplan affine, M ∈ E, P son projeté orthogonal sur H
et soit A ∈ H , alors AM2 = AP 2 + PM2 , par conséquent la distance AM
est minimale lorsque A = P auquel on a AM = PM, cette distance est


appelée distance de M à H et notée : n

d(M, H ) = PM. P
A

AIG
H

Calcul de d(M, H )
−−→ −−→ −−→ −−→ − −−→ −
Soit →

n un vecteur normal à H et A un point de H on a AM = AP + PM or AP ⊥→
n , d’où AM · →
n =
−−→ →− →

PM · n = ±PMk n k (vecteurs colinéaires) et donc :
¯−−→ ¯

−¯
¯AM · n ¯
¯
d(M, H ) = PM =
k→

nk
Si H est donné par une équation cartésienne α1 x 1 + · · · + αn x n = c dans un repère orthonormal, alors on
−−→ −
peut prendre n(α1 , . . . , αn ) et on a AM · →
n = α1 (x 1 − a 1 ) + · · · + αn (x n − a n ) = α1 x 1 + · · · + αn x n − c car A ∈ H ,
par conséquent on a :

|α1 x 1 + · · · + αn x n − c|
d(M, H ) =
NT
q
α21 + · · · + α2n

II ENDOMORPHISMES ORTHOGONAUX

1) Définition

Définition 26.7
Une isométrie vectorielle de E (ou endomorphisme orthogonal de E) est une application f ∈ L (E)
telle que ∀ x ∈ E, k f (x)k = kxk (on dit que f conserve la norme), l’ensemble des endomorphismes
orthogonaux de E est noté O(E).
MO

ZExemple : idE , h−1 sont des endomorphismes orthogonaux de E.

Théorème 26.15
Un endomorphisme f de E est une isométrie si et seulement si f conserve le produit scalaire, c’est à
dire :
∀ x, y ∈ E, ( f (x)| f (y)) = (x|y).

Preuve : Si f conserve le produit scalaire, il est clair que f conserve la norme, et donc f ∈ O(E).
Réciproquement, si f ∈ O(E) : soient x, y ∈ E, k f (x) + f (y)k2 = kxk2 + kyk2 + 2( f (x)| f (y)), mais on a aussi k f (x) +
f (y)k2 = k f (x + y)k2 = kx + yk2 = kxk2 + kyk2 + 2(x|y), d’où ( f (x)| f (y)) = (x|y). 

MPSI3 (2015-16) LYCÉE M ONTAIGNE 258 ©Fradin Patrick – http://mpsi.tuxfamily.org


Endomorphismes orthogonaux Chapitre 26 : Espaces euclidiens

Théorème 26.16
O(E) est un groupe pour la loi ◦, plus précisément c’est un sous-groupe de GL(E), on l’appelle groupe

NE
orthogonal de E.

Preuve : Si f ∈ O(E), alors si x ∈ ker( f ), on a k f (x)k = 0 = kxk, d’où x = 0, donc f est injective, comme E est de
dimension finie, on a bien f ∈ GL(E). D’autre part, idE ∈ O(E), soient f , g ∈ O(E), k f (g (x))k = kg (x)k = kxk, donc
f ◦ g ∈ O(E), kxk = k f ( f −1 (x))k = k f −1 (x)k, donc f −1 ∈ O(E). 

Définition 26.8 (symétrie orthogonale)


Soient s ∈ L (E) une symétrie (s 2 = idE ), soit F = ker(s − id) et G = ker(s + id), alors on sait que s est
la symétrie par rapport à F et parallèlement à G. On dit que s est une symétrie orthogonale lorsque
F = G⊥ , on parle alors de la symétrie orthogonale par rapport à F (notée s F ).

AIG
Théorème 26.17
Une symétrie orthogonale est une isométrie vectorielle.

Preuve : Soit s F la symétrie orthogonale par rapport au s.e.v F, soit p = 12 (s + id), alors on sait que p est la projection
sur F parallèlement à ker(s + id) = F⊥ , donc p est une projection orthogonale. Soit x ∈ E, ks F (x)k2 = kp F (x) − p F⊥ (x)k2 =
kp F (x)k2 + kp F⊥ (x)k2 , or kxk2 = kp F (x) + p F⊥ (x)k2 = kp F (x)k2 + kp F⊥ (x)k2 = ks F (x)k2 , d’où s F ∈ O(E). 
Remarque 26.6 – Une projection orthogonale qui n’est pas l’identité, n’est pas une isométrie (elle n’est pas
bijective).

Définition 26.9 (réflexion)


Une réflexion est une symétrie orthogonale par rapport à un hyperplan.
NT
FExercice 26.4 Soient u, v ∈ E deux vecteurs non nuls, de même norme et distincts. Montrer qu’il existe une unique
réflexion qui échange u et v.

Solution 26.4 Soit w = u − v, soit H = Vect [w]⊥ et s = s H , on a (u − v|u + v) = kuk2 −kvk2 = 0, donc u + v ∈ H, on a donc
s(u − v) = v − u et s(u + v) = u + v, la résolution de ce système donne s(u) = v et s(v) = u.
Si s 0 est une autre réflexion qui convient, alors on doit avoir s 0 (u − v) = v − u, donc ker(s 0 + id) = Vect [w] et par
conséquent, s 0 = s.
Remarque : l’hyperplan H s’appelle hyperplan médiateur de [u; v], car si x ∈ H, alors ku − xk = ks(v) − s(x)k = kv − xk.

Théorème 26.18
Soit f ∈ L (E), alors f ∈ O(E) ⇐⇒ f transforme une b.o.n en une b.o.n de E.
MO

Preuve : Soit B = (e 1 , . . . , e n ) une b.o.n de E, on a (e i |e j ) = δi , j . Si f ∈ O(E), alors ( f (e i )| f (e k )) = (e i |e j ) = δi , j , donc


B0 = ( f (e 1 ), . . . , f (e n )) est une b.o.n de E.
n n
Réciproquement, si B0 = ( f (e 1 ), . . . , f (e n )) est une b.o.n de E, alors pour x ∈ E, k f (x)k2 = k x i f (e i )k2 = x i2 =
P P
i =1 i =1
kxk2 , donc f ∈ O(E). 

2) Matrices orthogonales

Théorème 26.19
Soit f ∈ L (E), soit B une base orthonormale de E et soit A = mat( f ) ∈ Mn (R), alors :
B
f ∈ O(E) ⇐⇒ t A × A = In .

n
Preuve : Soit B = (e 1 , . . . , e n ), on a [t A × A]i , j = a k,i a k, j = ( f (e i )| f (e j )) = δi , j , donc t A × A = In .
P

k=1

MPSI3 (2015-16) LYCÉE M ONTAIGNE 259 ©Fradin Patrick – http://mpsi.tuxfamily.org


Endomorphismes orthogonaux Chapitre 26 : Espaces euclidiens

À retenir
Plus généralement, si x 1 , . . . , x p est une famille de vecteurs de E et si A désigne la matrice des coordon-

NE
nées de cette famille dans une b.o.n., alors t A × A est la matrice carrée de taille p dont le terme général
est (x i |x j ), cette matrice est appelée matrice de Gram de la famille.

Définition 26.10
Soit A ∈ Mn (R), on dit que A est une matrice orthogonale lorsque t A × A = In , l’ensemble des matrices
orthogonales de taille n est noté On (R).

Théorème 26.20 (Caractérisations des matrices orthogonales)


Soit A ∈ Mn (R), les assertions suivantes sont équivalentes :

AIG
• A ∈ On (R).
• A est inversible et A−1 = t A.
• Les vecteurs colonnes de A forment une b.o.n de Rn .

n
Preuve : On sait que [t A × A]i , j = a k,i a k, j = (c i (A)|c j (A)) (produit scalaire canonique dans Rn ). Donc le troisième
P
k=1
point équivaut [t A × A]i , j = δi , j . 

Conséquences
On (R) est un groupe multiplicatif, c’est en fait un sous-groupe de (GLn (R), ×), que l’on appelle groupe
orthogonal de type n sur R.

Théorème 26.21
Si f ∈ O(E), alors det( f ) = ±1. Si A ∈ On (R) alors det(A) = ±1.
NT
Preuve : Si A est la matrice de f dans une base orthonormale, alors A ∈ On (R) donc t A × A = In , on en déduit que
det(t A × A) = 1 = det(A)2 , et donc det(A) = ±1. 

Définition 26.11
© ª
Il est facile de vérifier que l’ensemble f ∈ O(E) / det( f ) = 1 est un sous-groupe de (O(E), ◦). On
l’appelle groupe des rotations et on le note SO(E) groupe spécial orthogonal de E (parfois noté
O+ (E)). On a donc SO(E) = { f ∈ O(E) / det( f ) = 1}.
De même, on vérifie que l’ensemble des matrices orthogonales de déterminant égal à 1 est un sous-
groupe de On (R), on le note SOn (R) et on l’appelle groupe spécial orthogonal de type n sur R (ou
groupe des matrices de rotation de taille n).
MO

ZExemples :  
−1 1 −1 1
1 1 1 1
– Soit A = 12  , les vecteurs colonnes de A sont unitaires et deux à deux orthogonaux,
 
 1 −1 −1 1
−1 −1 1 1
donc A ∈ O4 (R), on a det(A) = 1, donc A est la matrice d’une rotation.
– Une réflexion n’est pas dans SO(E), en effet, soit s la réflexion par rapport à un hyperplan H, soit e n un
de la droite H⊥ , et
vecteur unitaire   soit (e 1 , . . . , e n−1 ) une b.o.n de H, alors B = (e 1 , . . . , e n ) est une b.o.n
1 0 ··· 0
0 . . .
 .. 
. 
de E et mat(s) =  . , on voit donc que det(s) = −1.
 
B .
. 1 0

 
0 · · · 0 −1

MPSI3 (2015-16) LYCÉE M ONTAIGNE 260 ©Fradin Patrick – http://mpsi.tuxfamily.org


Endomorphismes orthogonaux Chapitre 26 : Espaces euclidiens

À retenir : composée d’endomorphismes orthogonaux


En raisonnant sur le déterminant, on obtient :

NE
• La composée de deux rotations est une rotation.
• La composée d’une rotation et d’une isométrie négative (det = −1) est une isométrie négative.
• La composée de deux isométries négatives est une rotation.

Théorème 26.22
Soit f ∈ O(E), soit F un s.e.v de E, montrer que si F est stable par f , alors F⊥ aussi.

Preuve : Celle-ci est simple et laissée en exercice. 

AIG
3) Espace vectoriel euclidien orienté - Produit mixte
Soit (E, (.|.)) un espace euclidien orienté (on a donc choisi la classe des bases directes).

Théorème 26.23 (caractérisation des rotations)


Un endomorphisme f de E est une rotation si et seulement si f transforme une b.o.n.d en une b.o.n.d
(on dit que f conserve l’orientation).

Preuve : Si f ∈ SO(E), soit B = (e 1 , . . . , e n ) une b.o.n.d de E, on sait que f transforme B en une b.o.n de E, B0 =
( f (e 1 ), . . . , f (e n )), le déterminant de la matrice de passage est le déterminant de f qui vaut 1, donc B0 est une base
directe.
Réciproquement : si f transforme une b.o.n.d B en une b.o.n.d B0 , alors on sait que f ∈ O(E), le déterminant de f
vaut ±1, or le déterminant de f est le déterminant de la matrice de passage de B à B0 et celui-ci est strictement positif,
donc det( f ) = 1, i.e. f est une rotation. 
NT
Théorème 26.24
Soit B une b.o.n.d de E, soit B0 une autre base orthonormale de E, alors :
• Si B0 est directe, alors detB0 = detB .
• Si B0 est indirecte, alors detB0 = − detB .

Preuve : Si B0 est indirecte, alors la matrice de passage de B à B0 a un déterminant strictement négatif, mais cette
matrice est une matrice orthogonale, donc son déterminant vaut −1. Or on a la relation detB = detB (B0 ) detB0 , et
donc detB = − detB0 . 

L’espace vectoriel E est euclidien, orienté et de dimension n.


MO

Définition 26.12
Soit B = (e 1 , . . . , e n ) une b.o.n.d de E, soit (x 1 , . . . , x n ) une famille de vecteurs de E. On appelle pro-
duit mixte des vecteurs x 1 , . . . , x n , le réel noté [x 1 , . . . , x n ] et défini par : [x 1 , . . . , x n ] = detB (x 1 , . . . , x n ).
D’après le théorème précédent, ce nombre ne dépend pas de la b.o.n.d choisie.

Remarque 26.7 – Le produit mixte étant un déterminant, il hérite des propriétés de ce dernier.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 261 ©Fradin Patrick – http://mpsi.tuxfamily.org


Endomorphismes orthogonaux en dimension 1 et 2 Chapitre 26 : Espaces euclidiens

Interprétation géométrique
– En dimension 2 : si E est un plan euclidien orienté et (u, v) est une base (quelconque) de E, alors [u, v]
est l’aire orientée du parallélogramme construit sur u et v, positive si (u, v) est dans le sens directe,

NE
négative sinon. Lorsque (u, v) est liée, le résultat est encore valable car le produit mixte est nul dans ce
cas, et l’aire aussi.
En effet : on construit une b.o.n.d (i , j ) de telle sorte que u = kuki , on a alors u(kuk, 0) et v(a, b) d’où
[u, v] = kukb or cette quantité représente effectivement l’aire annoncée (base fois hauteur).
– En dimension 3 : si E est un espace euclidien orienté de dimension 3, et (u, v, w) est une base (quel-
conque) de E, alors [u, v, w] est le volume orienté du parallélépipède construit sur u, v et w, positif si
(u, v, w) est dans le sens directe, négatif sinon. Lorsque (u, v, w) est liée, le résultat est encore valable
car le produit mixte est nul dans ce cas, et le volume aussi (vecteurs coplanaires).
En effet : on construit une b.o.n.d (i , j , k) de telle sorte que u = kuki , v = ai + b j et b > 0, on a alors
u(kuk, 0, 0), v(a, b, 0) et w(α, β, γ), d’où [u, v, w] = kukbγ = [u, v]γ (produit mixte [u, v] dans le plan
(i , j ) orienté par k), cette quantité représente effectivement le volume annoncé (base fois hauteur).

AIG
III ENDOMORPHISMES ORTHOGONAUX EN DIMENSION 1 ET 2

1) En dimension 1
Si dim(E) = 1 et si f ∈ O(E), alors f est une homothétie de rapport λ ∈ R, mais f conserve la norme donc
∀ x ∈ E, kλxk = kxk, ce qui donne en prenant x 6= 0, |λ| = 1, d’où O(E) = {±idE } et SO(E) = {idE }.

2) En dimension 2
Soit E un plan euclidien orienté et soit f ∈ O(E), on peut effectuer la classification suivant les invariants
de f , c’est à dire suivent le s.e.v. F = ker( f − idE ).
– dim(F) = 2 : alors f = idE ∈ SO(E) .
– dim(F) = 1 : alors F = Vect [u] est une droite vectorielle (avec u unitaire) stable par f , donc F⊥ est
une droite vectorielle stable par f également et sur laquelle le seul vecteur invariant est 0, donc la
NT
restriction de f à F⊥ est −idF⊥ . Soit v un vecteur unitaire de F⊥ , alors B = (u, v) est une b.o.n de E et on
µ ¶
1 0
a mat( f ) = , donc f est la réflexion d’axe F .
B 0 −1
Soit B0 = (i , j ) une b.o.n.d, il existe un réel θ tel que u = cos(θ/2)i + sin(θ/2) j , on prend alors v =
µ ¶
0 cos(θ/2) − sin(θ/2)
− sin(θ/2)i + cos(θ/2) j , la matrice de passage de B à B est P = , et la matrice
sin(θ/2) cos(θ/2)
µ ¶
cos(θ) sin(θ)
de f dans la base B0 est mat( f ) = .
B0 sin(θ) − cos(θ)
µ ¶
a b
– dim(F) = 0, seul 0 est invariant par f , soit B = (i , j ) une b.o.n.d de E, alors mat( f ) = A = , avec
B c d

2 2
a + c =1

MO


= 1 , avec les complexes z = a+i c et z 0 = b+i d , on a |z| = |z 0 | = 1, donc z = e i θ , z 0 = e i θ , avec
0
2 2
b +d


ab + cd = 0
(
b = cos(θ0 ) = − sin(θ)
Re(zz ) = ab +cd = 0, donc cos(θ−θ ) = 0, d’où θ = θ+π/2+kπ, ce qui donne
0 0 0
,
d = sin(θ0 ) = cos(θ)
(
b = cos(θ0 ) = sin(θ)
ou bien , mais le second cas correspond à une réflexion d’après l’étude précé-
d = sin(θ0 ) = − cos(θ)
µ ¶
cos(θ) − sin(θ)
dente, il reste donc : mat( f ) = , cette matrice est notée R(θ), c’est la matrice d’une
B sin(θ) cos(θ)
rotation (déterminant 1). µ ¶
a
Soit u un vecteur non nul, et soit v = f (u), notons X = les coordonnées de u dans la base B, alors
b
µ ¶
a cos(θ) − b sin(θ)
les coordonnées de v sont X 0 = AX = , d’où l’affixe de v, z v = a cos(θ) − b sin(θ +
a sin(θ) + b cos(θ)

MPSI3 (2015-16) LYCÉE M ONTAIGNE 262 ©Fradin Patrick – http://mpsi.tuxfamily.org


Endomorphismes orthogonaux en dimension 1 et 2 Chapitre 26 : Espaces euclidiens

i (a sin(θ) + b cos(θ)) = e i θ (a + i b) = e i θ z u , donc θ est l’angle orienté des deux vecteurs u et v. On dit
que f est la rotation d’angle θ .

NE
À retenir
En dimension 2, la matrice de la rotation d’angle θ est R(θ) dans toutes les b.o.n.d de E.

En résumé :

→ SO(E) = { f ∈ O(E) / ∃ θ ∈ R, mat( f ) = R(θ)}, où B est une b.o.n.d quelconque de E


B µ ¶
cos(θ) sin(θ)
→ O (E) = { f ∈ O(E) / ∃ θ ∈ R, mat( f ) =

},
B sin(θ) − cos(θ)
où B est une b.o.n.d quelconque de E. Ce sont des réflexions d’axe Vect [u]

AIG
où u = cos(θ/2)i + sin(θ/2) j .
µ ¶
cos(θ) sin(θ)
→ SO2 (R) = {R(θ) / θ ∈ R} et O−2 ( R) = { / θ ∈ R}
sin(θ) − cos(θ)



x
D⊥
D

x→
2

− →
−
x =−
x→ −→
1 + x2 θ/2 →
−
θ



ı →

ı

x→
1 −−
x→
2
NT
r (→

x)
s(→

x )=−
x→ −→
1 − x2

F IGURE 26.2: Réflexion et rotation


µ ¶
cos(θ) − sin(θ)
Propriété : L’application R : R → SO2 (R) définie par R(θ) = est un morphisme de groupes
sin(θ) cos(θ)
surjectif. En particulier, on a R(0) = I2 et ∀ θ, θ0 ∈ R, R(θ + θ0 ) = R(θ) × R(θ0 ), d’où R(θ)−1 = R(−θ).

Théorème 26.25 (composée de deux rotations)


Pour tous réels θ et θ0 , on a R(θ)×R(θ0 ) = R(θ+θ0 ). On en déduit que le groupe des rotations, (SO(E), ◦),
MO

est commutatif, ainsi que le groupe (SO2 (R), ×).

Preuve : Celle-ci est simple et laissée en exercice. 


On en déduit également que R(−θ) × R(θ) = R(0) = I2 et donc :
la bijection réciproque de la rotation d’angle θ est la rotation d’angle −θ.

Composée de deux réflexions


Soit B = (i , j ) une b.o.n.d de E, soit s la réflexion d’axe Vect [u] et s 0 la réflexion d’axe Vect u 0 avec
£ ¤

u = cos(θ/2)i + sin(θ/2) j et u 0 = cos(θ0 /2)i + sin(θ0 /2) j . La matrice de s ◦ s 0 dans la base B est la matrice
cos(θ0 ) sin(θ0 )
µ ¶ µ ¶
cos(θ) sin(θ)
A= × = R(θ − θ0 ), donc s ◦ s 0 est la rotation d’angle θ − θ0 = 2(u 0 , u)
sin(θ) − cos(θ) sin(θ0 ) − cos(θ0 )
(mod 2π). Ce calcul montre en même temps, qu’une rotation peut s’écrire comme la composée de deux
réflexions dont une est arbitraire.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 263 ©Fradin Patrick – http://mpsi.tuxfamily.org


NE
Chapitre 27

Variables aléatoires sur un univers fini

Sommaire

AIG
I Notion de variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
2) Loi d’une VA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
3) Image d’une VA par une fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
II Lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
1) Variables certaines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
2) Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
3) Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
4) Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
III Espérance et variance d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
1) Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
2) Variance et écart-type . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269
3) Cas des lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270
NT
IV Couples de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
2) Indépendance de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273
3) Applications de l’indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275
4) Covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276

Souvent, lors d’une expérience aléatoire, on ne s’intéresse pas vraiment à l’ensemble des résultats possibles,
mais un aspect particulier du résultat, par exemple : la somme obtenue lors d’un lancer de deux dés, le
temps d’attente du premier pile dans un lancer de pièce etc.

I NOTION DE VARIABLE ALÉATOIRE


MO

1) Définition

Définition 27.1
Soit Ω un univers fini. Toute application X : Ω → E est appelée variable aléatoire, lorsque E = R, on dit
que X est une variable aléatoire réelle (notée VAR). Lorsque X est constante, on parle de VA constante
ou de variable aléatoire certaine.

Remarque 27.1 –
– Notons qu’une variable aléatoire n’est une pas une variable en réalité, mais une application, et n’a rien
d’aléatoire !
– L’ensemble des images X(Ω) est un ensemble fini qu’on note parfois X(Ω) = {x 1 , . . . , x n }.
ZExemples :
– Expérience : on lance deux dés, on note X la somme des chiffres obtenus.
Univers : Ω = J1; 6K, X(Ω) = J2; 12K.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 264 ©Fradin Patrick – http://mpsi.tuxfamily.org


Notion de variable aléatoire Chapitre 27 : Variables aléatoires sur un univers fini

NE
– Expérience : on lance n fois une pièce, on note X le numéro du lancer où apparaît un pîle la première
fois.
Univers : Ω = {P, F}n , X(Ω) = J0; n K.

Définition 27.2 (variable indicatrice d’un événement)


(
1si ω ∈ A
Soit A un événement, l’application 1A : Ω → R définie par 1A (ω) = est la variable indica-
0 sinon
trice de A.

Remarque 27.2 –
– L’ensemble des VAR sur Ω est F (Ω, R) qui a une structure de R-espace vectoriel et d’anneau pour les lois
usuelles.

AIG
– Si X : Ω → E est une VA et u : E → F est une application, alors u ◦ X est une VA sur Ω, elle est généralement
notée u(X).

Événements liés à une VA


– Si X : Ω → E est une VA, si A est une partie de E alors X −1 (A) est un événement, on le note généralement
(X ∈ A), on a donc (X ∈ A) = {ω ∈ Ω / X(ω) ∈ A}.
– Plus généralement, si P(x) désigne une propriété définie sur E, l’événement {ω ∈ Ω / P(X(ω))} est noté
(X vérifie P).
– Dans le cas particulier d’une VAR, on écrit pour tout x ∈ R : (X 6 x) = {ω ∈ Ω / X(ω) 6 x} ; (X > x) =
{ω ∈ Ω / X(ω) > x} ; etc. En particulier (X 6 x) = (X < x) ∪ (X = x).

2) Loi d’une VA

Théorème 27.1
Si X est une VA sur (Ω, P), l’application PX : P (X(Ω)) → [0; 1] définie par PX (A) = P(X ∈ A) pour toute
NT
partie A de X(Ω), est une probabilité sur X(Ω), on l’appelle loi de X.

Preuve : On a PX (X(Ω)) = P(X ∈ X(Ω)) = P(Ω) = 1. Soient A et B deux parties disjointes de X(Ω) alors X −1 (A) et X −1 (B) sont
deux événements incompatibles de Ω, donc PX (A ∪ B) = P(X −1 (A ∪ B)) = P(X −1 (A) ∪ X −1 (B)) = P(X −1 (A)) + P(X −1 (B)) =
PX (A) + PX (B). 
Remarque 27.3 – Si A est une partie de X(Ω) alors P(X ∈ A) = PX (A) = PX ({x}) = P(X = x).
P P
x∈A x∈A

À retenir
Déterminer la loi de X, c’est déterminer X(Ω) et pour tout x ∈ X(Ω), la probabilité P(X = x). On
remarquera que si X est une VA sur l’univers fini Ω, alors la famille d’événements ((X = x))x∈X(Ω) est
un système complet d’événements.

Il est clair que ces événements sont incompatibles deux à deux et que :
MO

P(X = x) = P( (X = x)) = P(Ω) = 1


X [
x∈(Ω) x∈X(Ω)

Remarque 27.4 – Parfois on ne connaît pas exactement X(Ω) mais un ensemble E contenant X(Ω), dans ce cas,
pour x ∉ X(Ω) on trouve P(X = x) = 0.
FExercice 27.1 On lance un dés deux fois, on note X la somme obtenue. Déterminer la loi de X.
n o
2 2
Solution 27.1 Ω = J1; 6K , X(Ω) = J2; 12K et P(X = k) = P( (i , j ) ∈ J1; 6K / i + j = k ). On doit avoir j = k −i ∈ J1; 6K, d’où
k−1
k−1
k − 6 6 i 6 k − 1 avec i ∈ J1; 6K, d’où la discussion : si k 6 6, alors P(X = k) = P({(i , k − i )}) =
P
36 , et si 7 6 k 6 12 alors
i =1
6
13−k
P(X = k) = P({(i , k − i )}) =
P
36 .
i =k−6
FExercice 27.2 Soit X un VAR à valeurs entières, montrer que P(X = k) = P(X 6 k)−P(X 6 k −1) = P(X > k))−P(X > k +1).
Solution 27.2 Il suffit d’écrire que (X 6 k) = (X = k) ∪ (X 6 k − 1) et que (X > k) = (X = k) ∪ (X > k + 1) (réunion
d’événements incompatibles).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 265 ©Fradin Patrick – http://mpsi.tuxfamily.org


Lois usuelles Chapitre 27 : Variables aléatoires sur un univers fini

NE
3) Image d’une VA par une fonction

Théorème 27.2
Soit X une VA sur (Ω, P) et u une fonction définie sur X(Ω), notons Y = u ◦ X et X(Ω) = {x 1 , . . . , x n },
alors :
∀y ∈ Y(Ω), P(Y = y) = P(X = x)
X

x∈u −1 ({ y })

Preuve : En effet, (Y = y) = ω ∈ Ω / u ◦ X(ω) = y = (X ∈ u −1 ( y )).


© ª © ª

FExercice 27.3 On lance un dé successivement deux fois, on note X le premier résultat moins le deuxième, déterminer la
loi de X, de |X| et de X 2 .

AIG
Solution 27.3 X(Ω) = J−5; 5K, si k = i − j alors i = k + j ∈ J1; 6K d’où 1 − k 6 j 6 6 − k, d’où la discussion, si k 6 0, alors
6 6−k
P(X = k) = P( (k + j , j ) ) = 6+k
36 , et si k > 1, P(X = k) = P( (k + j , j ) ) = 6−k
P © ª P © ª
36 .
j =1−k j =1
P(|X| = k) = P((X = k) ∪ (X = −k)) = 16 si k = 0 et 6−k
18 si k ∈ 1; 5 .
J K
2 2 1 6−k
P(X = k ) = P((X = k) ∪ (X = −k)) = 6 et 12 si k ∈ J1; 5K.

Attention !
Comme on le voit dans l’exemple ci-dessus, deux VA peuvent avoir la même loi sans être égales pour autant !

Remarque 27.5 – Si X et Y sont deux VA sur (Ω, P) alors on peut définir les lois de X + Y et de XY :

P(X + Y = z) = P((X = x) ∩ (Y = y)) où Iz = (x, y) ∈ X(Ω) × Y(Ω) / x + y = z


X © ª
(x,y)∈Iz

P(XY = z) = P((X = x) ∩ (Y = y)) où Iz = (x, y) ∈ X(Ω) × Y(Ω) / x y = z


X © ª
(x,y)∈Iz
NT
II LOIS USUELLES

1) Variables certaines

Définition 27.3
Une VA est dire certaine lorsqu’elle est constante, auquel cas on a X(Ω) = {x 1 } et donc P(X = x 1 ) = 1.

2) Loi uniforme

Définition 27.4
MO

On dit que la VA X suit une loi uniforme sur X(Ω) = {x 1 , . . . , x n } lorsque ∀k ∈ J1; n K , P(X = x k ) = n1 . Ce
que l’on note X ,→ U (X(Ω)).

ZExemple : On lance un dé parfait, on note X le chiffre obtenu alors X ,→ U (J1; 6K).

3) Loi de Bernoulli

Définition 27.5
Soit p ∈ [0; 1] et q = 1 − p. On dit que la VA X suit une loi de Bernoulli de paramètre p, lorsque sur
X(Ω) = {0, 1}, P(X = 1) = p et P(X = 0) = q. Ce que l’on note X ,→ B(p).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 266 ©Fradin Patrick – http://mpsi.tuxfamily.org


Espérance et variance d’une variable aléatoire Chapitre 27 : Variables aléatoires sur un univers fini

Remarque 27.6 – Cette loi est utile pour les expériences aléatoires ayant deux issues possibles : succès avec
probabilité p ou bien échec avec une probabilité de 1 − p, ce que l’on appelle des épreuves de Bernoulli.

NE
ZExemple : La variable indicatrice d’un événement A suit une loi de Bernoulli de paramètre p = P(A).
Remarque 27.7 – Si X et Y sont deux VA qui suivent une loi de Bernoulli, alors XY également.

4) Loi binomiale

Définition 27.6
Soient n ∈ N, p ∈ [0; 1] et q = 1 − p. On dit que la VA X suit une loi binomiale de paramètres n et p,
lorsque sur X(Ω) = J0; n K, et ∀k ∈ J0; n K, P(X = k) = nk p k (1 − p)n−k . Ce que l’on note X ,→ B(n, p).
¡ ¢

On vérifie qu’il s’agit bien d’une loi de probabilité sur J0; n K.

AIG
À retenir
La loi binomiale apparaît quand on considère le nombre X de succès dans une suite de n épreuves de
Bernoulli mutuellement indépendantes et dans lesquelles la probabilité du succès est p ∈ [0; 1].

En effet, on a X(Ω) = J0; n K et l’événement (X = k) est l’ensemble des n-uplets de 1 ou 0 contenant k fois
le nombre 1, il y en a nk , la probabilité de chacun d’eux est p k (1 − p)n−k car les épreuves sont mutuellement
¡ ¢

indépendantes, d’où P(X = k) = nk p k (1 − p)n−k .


¡ ¢

ZExemples :
– On effectue n tirages successifs avec remise dans une urne contenant des boules blanches et noires
dans des proportions de p et q = 1 − p. On note X le nombre de boules blanches obtenues, alors
X ,→ B(n, p).
– Une pièce donne face avec une probabilité p et pile avec une probabilité q = 1−p. On effectue n lancers
NT
dans les mêmes conditions à chaque fois, on note X le nombre de faces obtenus, alors X ,→ B(n, p).

III ESPÉRANCE ET VARIANCE D’UNE VARIABLE ALÉATOIRE

1) Espérance

Définition 27.7
L’espérance d’une variable aléatoire X est le réel noté E(X) et défini par :
E(X) = x P(X = x).
P
x∈X(Ω)
Lorsque son espérance est nulle, on dit que la variable aléatoire X est centrée.
MO

Remarque 27.8 – Il s’agit de la moyenne pondérée des valeurs prises par X, car la somme des probabilités vaut
1.
ZExemples :
6
i 21
– On lance un dé équilibré, X est le numéro de la face supérieure, E(X) = = 27 .
P
6 = 6
i =1
– Si A est un événement, l’espérance de l’indicatrice de A est E(1A ) = P(A).
– L’espérance d’une variable certaine est la constante.

Théorème 27.3
Si X est une variable aléatoire sur (Ω, P) alors E(X) = X(ω)P({ω}).
P
ω∈Ω

MPSI3 (2015-16) LYCÉE M ONTAIGNE 267 ©Fradin Patrick – http://mpsi.tuxfamily.org


Espérance et variance d’une variable aléatoire Chapitre 27 : Variables aléatoires sur un univers fini

Preuve : Soit X(Ω) = x 1 , . . . , x p , soit Ak = X −1 ( x k ), alors (A1 , . . . , A p ) est un système complet d’événements et P(Ak ) =
© ª © ª

P({ω}). On a donc :
P
ω∈Ak

NE
à !
X p
X X
X(ω)P({ω}) = X(ω)P({ω})
ω∈Ω k=1 ω∈Ak
à !
p
x k P({ω})
X X
=
k=1 ω∈Ak
à !
p
P({ω})
X X
= xk
k=1 ω∈Ak
p p
x k P(Ak ) = x k P(X = x k ) = E(X).
X X
=
k=1 k=1

AIG
Théorème 27.4 (linéarité de l’espérance)
Si X et Y sont deux variables aléatoires sur (Ω, P) alors pour tout réel λ :
E(λX + Y) = λE(X) + E(Y).

Preuve : En utilisant le résultat du théorème précédent, on a :

E(λX + Y) = [λX(ω) + Y(ω)]P({ω}) = λ Y(ω)P({ω}) = λE(X) + E(Y).


X X X
X(ω)P({ω}) +
ω∈Ω ω∈Ω ω∈Ω

À retenir
Si X est une variable aléatoire alors X−E(X) est une variable aléatoire centrée. C’est la variable aléatoire
centrée associée à X.
NT
FExercice 27.4 Une urne contient n boules numérotées de 1 à n, on les tire successivement et sans remise, on dit qu’il y
a rencontre au tirage i lorsque la boule tirée est la boule numéro i . Déterminer le nombre moyen de rencontres.

Solution 27.4 Soit X le nombre de rencontres, on demande E(X), notons X i la variable aléatoire qui vaut 1 si le i e tirage
n n
est une rencontre, 0 sinon (variable de Bernoulli), on a alors X = X 1 + · · · + X n et donc E(X) = E(X i ) = P(X i = 1). On
P P
i =1 i =1
(n−1)! 1
peut modéliser l’expérience par le choix équiprobable d’une permutation des n boules, on alors P(X i = 1) = n! = n
(autrement dit X i ,→ B( n1 )) et donc E(X) = 1.

Théorème 27.5 (positivité de l’espérance)


Si X est une variable aléatoire positive ou nulle sur (Ω, P) alors :
• E(X) > 0 (positivité).
MO

• E(X) = 0 ⇐⇒ P(X = 0) = 1, on dit que la variable X est presque sûrement nulle.

n
Preuve : Le premier point découle de la définition d’espérance E(X) = x k P(X = x k ), car chaque valeur x k de X est
P
k=1
positive ou nulle et les probabilités aussi. Si cette somme est nulle, alors tous les termes doivent être nuls, X prend donc
nécessairement la valeur 0 (sinon E(X) > 0 car les probabilités ne peuvent pas être toutes nulles) et pour x k 6= 0 on a
forcément P(X = x k ) = 0), ce qui entraîne que P(X = 0) = 1 puisque la somme des probabilités doit faire 1. La réciproque
est immédiate. 

Théorème 27.6 (croissance de l’espérance)


Si X et Y sont deux variables aléatoires réelles définies sur (Ω, P) telles que X 6 Y, alors E(X) 6 E(Y).

Preuve : La variable Z = Y − X est positive, donc E(Z) > 0, la linéarité permet alors d’écrire E(Y) − E(X) > 0 ce qui donne
le résultat. 

MPSI3 (2015-16) LYCÉE M ONTAIGNE 268 ©Fradin Patrick – http://mpsi.tuxfamily.org


Espérance et variance d’une variable aléatoire Chapitre 27 : Variables aléatoires sur un univers fini

Théorème 27.7 (inégalité de Markov)


Pour tout variable aléatoire positive X on a :
E(X)

NE
∀a > 0, P({X > a}) 6 a .

Preuve : Notons A = {x ∈ X(Ω) / x > a}, A ⊂ X(Ω) donc :


E(X)
E(X) = P(X = x) = aP(A), d’où P(A) 6
P P P
xP(X = x) > xP(X = x) > a a . 
x∈X(Ω) x∈A x∈A

X
Remarque 27.9 – On peut aussi montrer l’inégalité de Markov en remarquant que 1X>a 6 a et utiliser la
croissance de l’espérance.

Théorème 27.8 (de transfert)


Si X est une variable aléatoire sur (Ω, P) et si u est une application de X(Ω) vers R, alors :
E(u(X)) = u(x)P(X = x).
P

AIG
x∈X(Ω)

Preuve : Posons X(Ω) = {x 1 , . . . , x n } et Ak = X −1 ( x k ), alors (A1 , . . . , An ) est un système complet d’événements de Ω, et


© ª

on a :

E(u(X)) =
X
u(X(ω))P({ω})
ω∈Ω
à ! à !
n n
P({ω})
X X X X
= u(X(ω))P({ω}) = u(x k )
k=1 ω∈Ak k=1 ω∈Ak
n
X n
X
= u(x k )P(Ak ) = u(x k )P(X = x k )
k=1 k=1
X
= u(x)P(X = x)
x∈X(Ω)


NT
Remarque 27.10 – La formule de droite proposée dans le théorème n’est autre que l’espérance de la variable
aléatoire u sur l’espace probabilisé (X(Ω), PX ). Cette formule fait intervenir la loi de probabilité de X mais pas
celle de u(X), ce qui fait son interêt.
FExercice 27.5 Si X ,→ U (J1; n K), calculer E(X2 ) et E(e X ).
n n
(2n+1)(n+1) e(e n −1)
Solution 27.5 E(X 2 ) = k 2 n1 = , et E(e X ) = e k n1 =
P P
6 n(e−1) .
k=1 k=1

2) Variance et écart-type

Définition 27.8 (moments d’une variable aléatoire)


Soit X un variable aléatoire réelle et r ∈ N, on appelle moment d’ordre r de la variable X l’espérance
MO

de la variable aléatoire X r , c’est à dire le nombre E(X r ) = x r P(X = x) (théorème de transfert), on


P
x∈X(Ω)
le note parfois m r (X).

Remarque 27.11 – Le moment d’ordre 0 vaut 1, et le moment d’ordre 1 est l’espérance.

Définition 27.9 (variance, écart-type)


On appelle variance de la variable aléatoire X le réel V(X) = E [X − E(X)]2 , et l’écart-type de X est le
¡ ¢
p
réel σ(X) = V(X).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 269 ©Fradin Patrick – http://mpsi.tuxfamily.org


Espérance et variance d’une variable aléatoire Chapitre 27 : Variables aléatoires sur un univers fini

Remarque 27.12 –
– La définition a bien un sens puisque X − E(X) est une variable aléatoire. Ces notions permettent de
mesurer la dispersion de X autour de sa valeur moyenne.

NE
– V(X) = 0 ⇐⇒ P(X = E(X)) = 1, la variable aléatoire X est presque sûrement constante.
– Il résulte du théorème de transfert que V(X) = (x − E(X))2 P(X = x), mais la formule la plus utilisée
P
x∈X(Ω)
est celle du théorème suivant.

Théorème 27.9 (formule de Kœnig-Huygens)


Si X est une variable aléatoire réelle sur (Ω, P) alors V(X) = E(X 2 ) − (E(X))2 .

Preuve : En effet :
(X − E(X))2 = X 2 + E(X)2 − 2XE(X), l’espérance étant linéaire, on a V(X) = E(X 2 ) + E(X)2 − 2E(X)E(X) = E(X 2 ) − (E(X))2 .

FExercice 27.6

AIG
1/ Si X(Ω) = J1; n K et P(X = k) = ak. Calculer a, E(X) et V(X).
2/ Si X est une VAR, déterminer le minimum de la fonction f : t 7→ E([X − t ]2 ) sur R.

Solution 27.6
n n n
2 2 (2n+1)n(n+1) 2n+1 n(n+1)
E(X) = ak 2 = E(X 2 ) = ak 3 =
P P P
1/ On doit avoir ak = 1 d’où a = n(n+1) . n(n+1) 6 = 3 . 2 ,
k=1 k=1 k=1
n(n+1) 2
V(X) = E(X 2 ) − E(X)2 = 2 − (2n+1)
9 = (n−1)(n+2)
18 .
2/ f (t ) = E(X 2 ) − 2t E(X) + t = (t − E(X))2 + E(X ) − E(X)2 = (t − E(X))2 + V(X), cette quantité est minimale lorsque
2 2

t = E(X) et le minimum est V(X).

À retenir
Il est parfois judicieux de calculer E(X(X − 1)) ou E(X(X + 1)) pour en déduire E(X 2 ).
NT
Théorème 27.10 (propriétés)
Soit X une variable aléatoire réelle sur (Ω, P) alors :
• V(X) > 0.
• ∀a, b ∈ R, V(aX + b) = a 2 V(X) et σ(aX + b) = |a|σ(X).
V(X)
• Inégalité de Bienaymé-Tchebychev : ∀ε > 0, P(|X − E(X)| > ε|) 6 ε2
.

Preuve :
• Par définition, V(X) = E([X − E(X)]2 ) qui est donc un réel positif par positivité de l’espérance.
• On a E(aX + b) = aE(X) + b d’où [(aX + b) − E(aX + b)]2 = a 2 [X − E(X)]2 et donc V(aX + b) = E(a 2 [X − E(X)]2 ) = a 2 V(X).
En prenant la racine carrée on obtient σ(aX + b) = |a|σ(X).
• Soit Y = [X − E(X)]2 , alors P(|X − E(X)| > ε|) = P(Y > ε2 ) 6 E(Y)
MO

ε2
(inégalité de Markov), ce qui donne exactement le
résultat. 
Applications :
– Une variable aléatoire dont l’écart-type vaut 1 est appelée variable aléatoire réduite. Si X est une VAR dont la
variance est non nulle, alors la variable aléatoire X ∗ = X−E(X)
σ(X) est une variable aléatoire centrée réduite, appelée
variable centrée réduite associée à X.
– L’inégalité de Bienaymé-Tchebychev apporte réellement un renseignement lorsque V(X) ε2
6 1, mais cette majo-
ration est en général assez grossière et son intérêt est surtout théorique. Elle indique néanmoins que X prend
des valeurs proches de sa moyenne avec une grande probabilité. On peut également l’écrire sous la forme :
P(|X − E(X)| < ε) > 1 − V(X)
ε2
.

3) Cas des lois usuelles

MPSI3 (2015-16) LYCÉE M ONTAIGNE 270 ©Fradin Patrick – http://mpsi.tuxfamily.org


Couples de variables aléatoires Chapitre 27 : Variables aléatoires sur un univers fini

Théorème 27.11
• Si X est une variable certaine de valeur a ∈ R, alors E(X) = a et V(X) = 0.

NE
x +···+x
• Si X suit la loi uniforme sur {x 1 , . . . , x n } alors E(X) = 1 n n . En particulier si X ,→ U (J1; n K) alors
2
E(X) = n+1 n −1
2 et V(X) = 12 .
• Si X suit une loi de Bernoulli de paramètre p ∈ [0; 1] alors E(X) = p et V(X) = p(1 − p).
• Si X suit une loi binomiale de paramètres n et p, alors E(X) = np et V(X) = np(1 − p).

Preuve :
• Immédiat.
n n 2
k2 (2n+1)(n+1)
• Si X ,→ U (J1; n K) : E(X) = k n+1 2
2 , E(X ) = , d’où V(X) = (2n+1)(n+1) − (n+1) (n+1)(n−1)
P P
n = n = 6 6 4 = 12 .
k=1 k=1
• Si X ,→ B(p), E(X) = P(X = 1) = p, X 2 suit la même loi que X donc V(X) = p − p 2 = p(1 − p).
n
• Si X ,→ B(n, p), il s’agit de calculer E(X) = k nk p k q n−k (avec q = 1 − p), cette expression est la dérivée en 1 de la
P ¡ ¢
k=0
n ¡ ¢
n k k n−k
= (px + q) , d’où f 0 (x) = pn(px + q)n−1 et donc f 0 (1) = np.
n

AIG
P
fonction f (x) = k x p q
k=0
Autre méthode : une pièce donne face avec une probabilité p et pile avec une probabilité q = 1 − p. On effectue n
lancers dans les mêmes conditions à chaque fois, on note X le nombre de faces obtenus, alors X ,→ B(n, p). Notons X i
la variable aléatoire valant 1 si on a obtenu face au lancer numéro i , 0 sinon, alors X i ,→ B(p) et X = X 1 + · · · + X n , d’où
E(X) = E(X 1 ) + · · · + E(X n ) = np.
n
Pour la variance, on calcule E(X(X − 1)) = k(k − 1) nk p k q n−k = f 00 (1) avec les notations ci-dessus, or f 00 (x) =
P ¡ ¢
k=0
p 2 n(n − 1)(px + q)n−2 et donc E(X(X − 1)) = n(n − 1)p 2 = E(X 2 ) − E(X), d’où E(X 2 ) = n(n − 1)p 2 + np = np[np − p + 1] et
V(X) = E(X 2 ) − E(X)n = np[np − p + 1] − (np)2 = np(1 − p). 

IV COUPLES DE VARIABLES ALÉATOIRES

1) Définitions

Définition 27.10
NT
Soient X et Y deux variables aléatoires sur (Ω, P) à valeurs dans E pour X et F pour Y, on appelle couple
des variables X et Y, et on note Z = (X, Y), l’application :
Z: Ω → E ×F .
ω 7→ Z(ω) = (X(ω), Y(ω))

Remarque 27.13 – L’application Z est une variable aléatoire sur (Ω, P) et Z(Ω) ⊂ X(Ω) × Y(Ω).

Définition 27.11 (loi conjointe)


Soient X : Ω → E et Y : Ω → F deux variables aléatoires sur (Ω, P). On appelle loi conjointe du couple
des variables X et Y, la loi de la variable aléatoire Z = (X, Y), c’est à dire l’application :
MO

Z(Ω) → [0; 1]
.
(x, y) 7→ P([X = x] ∩ [Y = y])

Remarque 27.14 – Déterminer la loi conjointe revient donc à déterminer X(Ω) = {x 1 , . . . , x n } et Y(Ω) =
y 1 , . . . , y p , puis à calculer les probabilités p i j = P([X = x i ] ∩ [Y = y j ]) pour (i , j ) ∈ J1; n K × J1; p K. Dans la
© ª

pratique on présente la loi conjointe sous forme d’un tableau :

Y y1 y2 ··· yp
X
x1 p 11 p 12 ··· p 1p

x2 p 21 p 22 ··· p 2p
.. .. .. ..
. . . .
xn p n1 p n2 ··· p np

MPSI3 (2015-16) LYCÉE M ONTAIGNE 271 ©Fradin Patrick – http://mpsi.tuxfamily.org


Couples de variables aléatoires Chapitre 27 : Variables aléatoires sur un univers fini

Définition 27.12 (lois marginales)


Si (X, Y) est un couple de variables aléatoires sur (Ω, P), les lois de probabilités de X et de Y sont

NE
appelées lois marginales du couple.

À retenir
La loi conjointe permet d’obtenir les lois marginales, car on peut écrire (avec les notations précé-
dentes) :
p p
P(X = x i ) = P([X = x i ] ∩ [Y = y j ]) =
P P
pi j
j =1 j =1
et :
n n
P(Y = x j ) = P([X = x i ] ∩ [Y = y j ]) =
P P
pi j .
i =1 i =1
Notation : on écrit p i • = P(X = x i ) et p • j = P(Y = y j ).

AIG
FExercice 27.7 On lance 2 dés parfaits, on note X le minimum des deux résultats et Y le maximum. Déterminer la loi
conjointe et les lois marginales.
1 1
Solution 27.7 On a X(Ω) = Y(Ω) = J1; 6K, pour (i , j ) ∈ J1; 6K, on a p i j = 0 si i > j , p i i = 36 et p i j = 18 si i < j , d’où la
table :
Y 1 2 3 4 5 6 pi •
X
1 1 1 1 1 1 11
1 36 18 18 18 18 18 36
1 1 1 1 1 9
2 0 36 18 18 18 18 36
1 1 1 1 7
3 0 0 36 18 18 18 36
1 1 1 5
4 0 0 0 36 18 18 36
1 1 1
5 0 0 0 0 36 18 12
1 1
6 0 0 0 0 0
NT
36 36
p• j 1 1 5 7 9 11 1
36 12 36 36 36 36 1

Attention !
La connaissance des lois marginales ne permet pas en général de retrouver la loi conjointe, comme on peut s’en
convaincre sur l’exemple précédent.

Définition 27.13
Soient X : Ω → E et Y : Ω → F deux variables aléatoires sur (Ω, P). Soit y ∈ Y(Ω), on appelle loi condi-
tionnelle de X sachant (Y = y) la loi de X dans l’espace (Ω, P(Y=y) ), c’est à dire l’application :
X(Ω) → [0; 1]
MO

P([X=x]∩[Y=y]) .
x 7→ P(Y=y) (X = x) = P(Y=y)
De même, soit x ∈ X(Ω), on appelle loi conditionnelle de Y sachant (X = x) la loi de Y dans l’espace
(Ω, P(X=x) ), c’est à dire l’application :
Y(Ω) → [0; 1]
P([Y=y]∩[X=x]) .
y 7→ P(X=x) (Y = y) = P(X=x)

ZExemple : En reprenant l’exercice précédent, la loi de X sachant (Y = 4) est :


xi 1 2 3 4 5 6
P(Y=4) (X = x i ) 27 27 2
7
1
7 0 0


0 si i > j

 1/36 1
Plus généralement P(Y= j ) (X = i ) = 2 j −1 = 2 j −1 si i = j
 36
 2/36
 2 j −1 = 2
 si i < j
2 j −1
36

MPSI3 (2015-16) LYCÉE M ONTAIGNE 272 ©Fradin Patrick – http://mpsi.tuxfamily.org


Couples de variables aléatoires Chapitre 27 : Variables aléatoires sur un univers fini

Il découle de la formule des probabilités totales :

À retenir

NE
Si (X, Y) est un couple de variables aléatoires sur (Ω, P), on suppose que pour tout x ∈ X(Ω) et tout
y ∈ Y(Ω), P(X = x) 6= 0 et P(Y = y) 6= 0, alors :
P(X = x) = P(Y = y) × P(Y=y) (X = x),
P
y∈Y(Ω)
et :
P(Y = y) = P(X = x) × P(X=x) (Y = y),
P
x∈X(Ω)

La notion de couple de variables aléatoires se généralise à un n-uplet de variables aléatoires :

Définition 27.14 (généralisation : vecteurs aléatoires)

AIG
Soient, X 1 , . . . , X n des variables aléatoires sur (Ω, P) à valeurs dans E1 , . . . , En respectivement, le vecteur
aléatoire Z = (X 1 , . . . , X n ) est l’application :
Z : Ω → E1 × · · · × En .
ω 7→ Z(ω) = (X 1 (ω), · · · , X n (ω))
La loi conjointe du vecteur Z est la loi de probabilité de la variable aléatoire Z = (X 1 , . . . , X n ), c’est à
dire l’application :
Z(Ω) → R
.
(x 1 , . . . , x n ) 7→ P([X 1 = x 1 ] ∩ · · · ∩ [X n = x n ])
et les lois des variables aléatoires X 1 , . . . , X n sont appelées lois marginales du vecteur Z.

2) Indépendance de variables aléatoires

Définition 27.15
NT
Soient X et Y deux variables aléatoires sur (Ω, P), on dit que X et Y sont indépendantes lorsque :
∀A ⊂ X(Ω), ∀B ⊂ Y(Ω), P([X ∈ A] ∩ [Y ∈ B]) = P(X ∈ A) × P(Y ∈ B),
c’est à dire les événements (X ∈ A) et (Y ∈ B) sont indépendants.

Théorème 27.12
Deux variables aléatoires X et Y sur (Ω, P) sont indépendantes si et seulement si :
∀(x, y) ∈ X(Ω) × Y(Ω), P([X = x] ∩ [Y = y]) = P(X = x) × P(Y = y).

Preuve : Le sens =⇒ est évident. Montrons la réciproque : soient A une partie de X(Ω) et B une partie de Y(Ω), on a alors
S
[X ∈ A] ∩ [Y ∈ B] = [X = x] ∩ [Y = y] et ces événements sont incompatibles deux à deux, d’où :
MO

(x,y)∈A×B

P([X ∈ A] ∩ [Y ∈ B]) = P([X = x] ∩ [Y = y])


X
(x,y)∈A×B

P(X = x) × P(Y = y) (d’après l’hypothèse)


X
=
(x,y)∈A×B

P(X = x) × P(Y = y)
X X
=
x∈A y∈B
à ! à !
P(X = x) × P(Y = y)
X X
=
x∈A y∈B

= P(X ∈ A) × P(Y ∈ B)

donc les deux variables aléatoires sont indépendantes. 

MPSI3 (2015-16) LYCÉE M ONTAIGNE 273 ©Fradin Patrick – http://mpsi.tuxfamily.org


Couples de variables aléatoires Chapitre 27 : Variables aléatoires sur un univers fini

Remarque 27.15 – Lorsque X et Y sont deux variables aléatoires indépendantes sur (Ω, P), la connaissance des
deux lois marginales permet de reconstituer la loi conjointe car p i j = p i • × p • j , et les lois conditionnelles sont
égales aux lois marginales.

NE
ZExemple : Dans l’exercice 27.7, les variables aléatoires X et Y ne sont pas indépendantes.

Théorème 27.13 (indépendance de fonctions de variables aléatoires)


Soient X et Y deux variables aléatoires indépendantes sur (Ω, P), si f est une application sur X(Ω) et g
une application sur Y(Ω), alors les variables aléatoires f (X) et g (Y) sont indépendantes.

Preuve : Soient a ∈ Im( f ) et b ∈ Im(g ), soit A = f −1 ({a}) et B = g −1 ({b}), alors :

P([ f (X) = a] ∩ [g (Y) = b]) = P([X ∈ A] ∩ [Y ∈ B]) = P(X ∈ A) × P(Y ∈ B) = P( f (X) = a) × P(g (Y) = b)

Les variables aléatoires f (X) et g (Y) sont donc indépendantes. 

AIG
Voici un autre résultat utile :

À retenir
Soit X et Y deux variables aléatoires indépendantes sur (Ω, P), et f : X(Ω) × Y(Ω) → E, alors :
P( f (X, Y) = z) = P(X = x) × P(Y = y).
P
(x,y)∈ f −1 ({z})

S
En effet, il suffit de remarquer que l’événement ( f (X, Y) = z) s’écrit [X = x] ∩ [Y = y].
(x,y)∈ f −1 ({z})
FExercice 27.8 Soient X et Y deux variables aléatoires indépendantes sur (Ω, P) suivant la même loi uniforme sur J1; n K.
Déterminer les lois de X + Y et de X − Y.
Solution 27.8 Soit Z = X + Y, alors Z(Ω) = J2; 2n K et :
min(k−1,n)
P(Z = k) = P(X = i ) × P(Y = k − i )
X
NT
i =max(k−n,1)
min(k − 1, n) − max(k − n, 1) + 1 n − |n + 1 − k|
= =
n2 n2
(
k−1
n2
si k 6 n + 1
= 2n+1−k
n2
sinon

n−|k|
De même, en posant H = X − Y, on montre que H(Ω) = J−(n − 1); (n − 1)K et P(H = k) = n2
.

Définition 27.16 (généralisation : indépendance de n variables aléatoires)


Soit (X 1 , . . . , X n ) un vecteur aléatoire sur (Ω, P) à valeurs dans E1 × · · · × En . On dit que ces n variables
aléatoires sont :
2
• deux à deux indépendantes : lorsque pour tout couple (i , j ) ∈ J1; n K , X i et X j sont indépendantes ;
MO

• mutuellement indépendantes : lorsque pour toute partie A1 de E1 , A2 de E2 , . . . , An de En , les


événements (X 1 ∈ A1 ), . . . , (X n ∈ An ) sont mutuellement indépendants.

Remarque 27.16 – Comme pour les événements, l’indépendance mutuelle des variables aléatoires entraîne
l’indépendance deux à deux, mais la réciproque est fausse.
En généralisant la preuve du théorème 27.12

Théorème 27.14
Les variables aléatoires X 1 , . . . , X n sur (Ω, P) sont mutuellement indépendantes si et seulement si :
pour tout (x 1 , . . . , x n ) ∈ X 1 (Ω) × · · · × X n (Ω), les événements (X 1 = x 1 ), . . . , (X n = x n ) sont mutuellement
indépendantes.

De même, on montrerait que f 1 (X 1 ), . . . , f n (X n ) sont mutuellement indépendantes, avec f i : X i (Ω) → Fi .

MPSI3 (2015-16) LYCÉE M ONTAIGNE 274 ©Fradin Patrick – http://mpsi.tuxfamily.org


Couples de variables aléatoires Chapitre 27 : Variables aléatoires sur un univers fini

Théorème 27.15
On considère des variables aléatoires X 1 , . . . , X n sur (Ω, P) mutuellement indépendantes.

NE
• Soit 1 < p < n, les variables aléatoires Y = (X 1 , . . . , Yp ) et Z = (X p+1 , . . . , X n ) sont indépendantes.
• Si f est une fonction à p variables et g à n − p variables, alors f (X 1 , . . . , X p ) et g (X p+1 , . . . , X n ) sont
indépendantes.

Preuve : Celle-ci est simple et laissée en exercice. 


Remarque 27.17 – Le résultat ci-dessus se généralise au cas où on partage l’ensemble des n variables aléatoires
en plus de deux parties, on remplace alors « indépendantes » par « mutuellement indépendantes » dans les
conclusions. Par exemple, si X, Y, Z et T sont mutuellement indépendantes, alors XY et ZT sont indépendantes,
les variables aléatoires X, Y + Z et T 2 sont mutuellement indépendantes etc.

3) Applications de l’indépendance

AIG
Théorème 27.16
Si X 1 , . . . , X n n variables aléatoires sur (Ω, P) suivent toutes une même loi de Bernoulli de paramètre
p ∈ [0; 1], et sont mutuellement indépendantes, alors la somme X 1 + · · · + X n suit une loi binomiale de
paramètre n et p.

Preuve : On a X i ,→ B(p), soit X = X 1 + · · · + X n , alors X(Ω) = J0; n K, l’événement ¡ ¢(X = k) se réalise si et seulement si k
des variables X i prennent la valeur 1 et les n − k autres la valeur 0, il y a donc nk cas possibles incompatibles deux à
deux, calculons la probabilité d’un cas : notons X i 1 , . . . , X i k celles qui prennent la valeur 1 et X i k+1 , . . . , X i n les autres alors
du fait de l’indépendance, on a :
P([X i 1 = 1] ∩ · · · ∩ [X i k = 1] ∩ [X i k+1 = 0] ∩ · · · ∩ [X i n = 0]) =
¡n ¢ k P(X i 1 = 1) × · · · × P(X i k = 1) × P(X i k+1 = 0) × · · · × P(X i n = 0) = p k (1 − p)n−k .
n−k
par conséquent P(X = k) = k p (1 − p) . 
NT
À retenir
Si X ,→ B(n, p), alors on peut écrire X = X 1 + · · · + X n où les X i sont mutuellement indépendantes et
suivent toutes la loi de Bernoulli de paramètre p. On a donc E(X) = E(X 1 )+· · ·+ E(X n ) = p +· · ·+ p = np.

FExercice 27.9 Soit (Xk )k∈J1;m K m variables aléatoires sur (Ω, P) qui suivent toutes une loi binomiale de paramètre (n k , p)
(respectivement) avec p ∈ [0; 1], et sont mutuellement indépendantes, alors :
X 1 + · · · + X m ,→ B(n 1 + · · · + n m , p).
Solution 27.9 Par récurrence sur m, il suffit de montrer le théorème pour m = 2 : soit Z = X 1 + X 2 , alors Z(Ω) =
J0; n 1 + n 2 K et :
k
P(Z = k) = P([X 1 = i ] ∩ [X 2 = k − i ])
X
i =0
MO

k
P(X 1 = i ) × P(X 2 = k − i ) (indépendance)
X
=
i =0
à ! à ! à !
k n
1 i n 1 −i n 2 k−i n 2 −k+i n
X
= p (1 − p) p (1 − p) (en convenant que = 0 si k > n ou k < 0)
i =0 i k −i k
à ! à !
k n
1 i n 1 −i n 2
p k−i (1 − p)n2 −k+i
X
= p (1 − p)
i =0 i k −i
à !à !
k n n2
1
p k (1 − p)n1 +n2 −k
X
=
i =0 i k −i
à !à !
k n n2
k n 1 +n 2 −k
X 1
= p (1 − p)
i =0 i k −i
à !
n1 + n2 k
= p (1 − p)n1 +n2 −k (formule de Vandermonde)
k

donc X 1 +X 2 ,→ B(n 1 +n 2 , p). Le passage du rang n au rang n +1 se ramène au rang 2 en posant X 02 = X 2 +· · ·+X n+1 .

MPSI3 (2015-16) LYCÉE M ONTAIGNE 275 ©Fradin Patrick – http://mpsi.tuxfamily.org


Couples de variables aléatoires Chapitre 27 : Variables aléatoires sur un univers fini

Théorème 27.17 (espérance d’un produit)


Si X et Y sont deux variables aléatoires indépendantes sur (Ω, P), alors E(XY) = E(X)E(Y), mais la

NE
réciproque est fausse. Le résultat se généralise au produit de n variables aléatoires mutuellement
indépendantes.

Preuve : Soit Z = (X, Y) et u : (x, y) 7→ x y, alors :

E(XY) = E(u(Z)) =
X
u(x, y)P(Z = (x, y)) (théorème de transfert)
(x,y)∈Z(Ω)

x yP(X = x) × P(Y = y)) (indépendance)


X
=
(x,y)∈X(Ω)×Y(Ω)
à !à !
X X
= xP(X = x) yP(Y = y)
x∈X(Ω) y∈Y(Ω)

= E(X)E(Y)

AIG
une récurrence permet ensuite la généralisation. 
FExercice 27.10 Soit X une variable aléatoire qui suit une loi uniforme sur {−1; 0; 1} et Y la fonction indicatrice de
l’événement (X = 0). Montrer que E(XY) = E(X)E(Y) mais que X et Y ne sont pas indépendantes.

Solution 27.10 Ces variables ne sont pas indépendantes, car P([X = 1] ∩ [Y = 1]) = P([X = 1] ∩ [X = 0]) = 0 alors que
P(X = 1) × P(Y = 1) = 19 . D’autre part E(X) = 0, E(Y) = 13 , et E(XY) = 0 car XY est une variable certaine égale à 0, on a donc
E(XY) = E(X)E(Y).

Théorème 27.18 (variance et indépendance)


Si X et Y sont deux variables aléatoires indépendantes sur (Ω, P), alors V(X + Y) = V(X) + V(Y). Le
résultat se généralise au cas de n variables aléatoires mutuellement indépendantes.

Preuve : D’après la formule de Kœnig-Huygens, V(X + Y) = E([X + Y]2 ) − [E(X) + E(Y)]2 avec la linéarité de l’espérance,
on a donc V(X + Y) = E(X 2 ) + E(Y 2 ) + 2E(XY) − E(X)2 − E(Y)2 − 2E(X)E(Y) = V(X) + V(Y) car les variables aléatoires étant
NT
indépendantes, on a E(XY) = E(X)E(Y). Une récurrence permet ensuite la généralisation. 

À retenir
Si X ,→ B(n, p), alors on peut écrire X = X 1 + · · · + X n où les X i sont mutuellement indépendantes et
suivent toutes la loi de Bernoulli de paramètre p. On a donc V(X) = V(X 1 ) + · · · + V(X n ) = p(1 − p) +
· · · + p(1 − p) = np(1 − p).

4) Covariance

Définition 27.17
MO

Soient X et Y deux variables aléatoires réelles sur (Ω, P). On appelle covariance de X et Y le réel défini
par :
cov(X, Y) = E([X − E(X)][Y − E(Y)]).

Remarque 27.18 – C’est l’espérance du produit des variables centrées associées à X et Y. Lorsque Y = X on a
cov(X, X) = V(X) > 0, on dit que la covariance est positive.

Théorème 27.19 (propriétés de la covariance)


Soient X et Y deux variables aléatoires réelles sur (Ω, P) :
• cov(X, Y) = E(XY) − E(X)E(Y) ;
• cov(Y, X) = cov(X, Y), la covariance est symétrique ;
• La covariance est bilinéaire : cov(aX + Y, Z) = acov(X, Z) + cov(Y, Z) (même chose sur la deuxième
variable) ;

MPSI3 (2015-16) LYCÉE M ONTAIGNE 276 ©Fradin Patrick – http://mpsi.tuxfamily.org


Couples de variables aléatoires Chapitre 27 : Variables aléatoires sur un univers fini

• V(X + Y) = V(X) + V(Y) + 2cov(X, Y) ;


• Si X et Y sont indépendantes, alors cov(X, Y) = 0 mais la réciproque est fausse.

NE
Preuve :
• On a [X − E(X)][Y − E(Y)] = XY − E(X)Y − E(Y)X + E(X)E(Y), on applique ensuite la linéarité de l’espérance ce qui donne
la formule ;
• immédiat ;
• On utilise la formule ci-dessus et la linéarité de l’espérance : E([aX+Y]Z)−E(aX+Y)E(Z) = aE(XZ)+E(YZ)−aE(X)E(Z)−
E(Y)E(Z) = acov(X, Z) + cov(Y, Z). Par symétrie on a la linéarité sur la deuxième variable.
• D’après un calcul fait plus haut : V(X + Y) = E([X + Y]2 ) − [E(X) + E(Y)]2 avec la linéarité de l’espérance, on a donc
V(X + Y) = E(X 2 ) + E(Y 2 ) + 2E(XY) − E(X)2 − E(Y)2 − 2E(X)E(Y) = V(X) + V(Y) + 2cov(X, Y).
• On sait que si X et Y sont indépendantes alors E(XY) = E(X)E(Y) ce qui donne cov(X, Y) = 0. 
Remarque 27.19 – La covariance est une forme bilinéaire symétrique et positive, mais ce n’est pas un produit
scalaire car V(X) = 0 n’entraîne pas X = 0, mais seulement P(X = m) = 1. On peut cependant établir l’inégalité
de Cauchy-Schwarz pour ce type d’applications, ce qui ce traduit ici par :

AIG
cov(X, Y)2 6 V(X)V(Y) ou encore |cov(X, Y)| 6 σ(X)σ(Y)

FExercice 27.11 On lance deux fois un dé équilibré dans les mêmes conditions, on note S la somme obtenue et D la
différence (premier moins deuxième). Calculer cov(S, D). Les variables aléatoires S et S sont-elles indépendantes ?

Solution 27.11 Soit X le premier résultat et Y le second, alors S = X + Y et D = X − Y, on calcule donc cov(X + Y, X − Y) =
V(X) − cov(X, Y) + cov(Y, X) − V(Y) = 0 car X et Y suivent la même loi uniforme sur J1; 6K. Les deux variables aléatoires ne
sont pas indépendantes car par exemple P([S = 3] ∩ [D = 0]) = 0 alors que P(S = 3) et P(D = 0) ne sont pas nulles.

Théorème 27.20
Si X 1 , . . . , X n sont des variables aléatoires sur (Ω, P) alors :
n
V(X 1 + · · · + X n ) = V(X i ) + 2
P P
cov(X i , Y j ).
i =1 16i < j 6n
Si les variables aléatoires X i sont deux à deux indépendantes, alors :
NT
n
V(X 1 + · · · + X n ) = V(X i ).
P
i =1

Preuve : La deuxième formule découle de la première, et la première se montre par récurrence sur n. 

Définition 27.18
Lorsque cov(X, Y) = 0 on sait que les variables aléatoires ne sont pas forcément indépendantes, on dit
qu’elles sont non corrélées.
cov(X,Y)
Plus généralement, lorsque V(X) et V(Y) sont non nuls, on sait que σ(X)σ(Y) ∈ [−1; 1], ce nombre est
appelé coefficient de corrélation entre X et Y.
MO

FExercice 27.12 On suppose que V(X) et V(Y) sont non nuls et le coefficient de corrélation vaut ±1. Montrer qu’il existe
deux réels a et b tel que P(Y = aX + b) = 1, c’est à dire il est presque sûr que Y = aX + b.

Solution 27.12 Reprendre la démonstration du cas d’égalité de Cauchy-Schwarz vue dans les espaces euclidiens en
partant de V(λX + Y) > 0 pour tout réel λ.
FExercice 27.13 Montrer que deux variables de Bernoulli sont indépendantes si et seulement si elles sont non corrélées.
Solution 27.13 Il y a déjà un sens connu : indépendantes implique non corrélées. Supposons X et Y non corrélées
et suivant une loi de Bernoulli de paramètres respectifs p 1 et p 2 , alors XY suit une loi de Bernoulli, de paramètre
p = E(XY) = E(X)E(Y) = p 1 p 2 , par conséquent P([X = 1] ∩ [Y = 1]) = P(X = 1) × P(Y = 1), les événements (X = 1) et (Y = 1)
sont indépendants, donc (X = 0) et (Y = 1) aussi etc. Les deux variables aléatoires sont indépendantes.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 277 ©Fradin Patrick – http://mpsi.tuxfamily.org


NE
Chapitre 28

Intégration sur un segment

AIG
Sommaire
I Intégrale des fonctions en escalier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278
1) Fonctions en escalier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278
2) Intégrale d’une fonction en escalier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
II Intégrale des fonctions continues par morceaux . . . . . . . . . . . . . . . . . . . . . . . . . . 280
1) Fonctions continues par morceaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
2) Approximation uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
3) Définition de l’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282
4) Premières propriétés de l’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
III Calcul d’une intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
1) Primitives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
2) Rappels : techniques de calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286
IV Propriétés de l’intégration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286
1) Inégalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286
NT
2) Sommes de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
V Compléments : recherche de primitives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288
1) Fonctions usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
2) Fractions rationnelles en sinus et cosinus . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
3) Fractions rationnelles en ch et sh . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
4) Fonctions se ramenant aux types précédents . . . . . . . . . . . . . . . . . . . . . . . . 290
5) Polynômes trigonométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290

Dans tout le chapitre K désigne R ou C

I INTÉGRALE DES FONCTIONS EN ESCALIER


MO

1) Fonctions en escalier

Définition 28.1
Soit f : [a; b] → K une fonction, on dit que f est en escalier sur [a; b] lorsqu’il existe un entier n ∈ N∗ ,
des réels x 0 = a < x 1 < · · · < x n = b, et des nombres c 0 , . . . , c n−1 de K tels que sur chacun des intervalles
ouverts : ]x k ; x k+1 [ la fonction f est constante égale à c k (0 6 k 6 n − 1). On dit aussi parfois que f est
constante par morceaux. L’ensemble des fonctions en escalier sur [a; b] est noté E ([a; b], K).

ZExemples :
– Une fonction constante sur [a; b] est en escalier.
– La fonction partie entière restreinte à [a; b] est en escalier.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 278 ©Fradin Patrick – http://mpsi.tuxfamily.org


Intégrale des fonctions en escalier Chapitre 28 : Intégration sur un segment

NE
1
0
−3 −2 −1 0 1 2 3
−1

−2

−3

−4

F IGURE 28.1: La fonction partie entière sur [−3.5, 3.5].

AIG
Remarque 28.1 –
– La courbe représentative d’une fonction en escalier a la forme d’un escalier !
– Les réels x 0 = a < · · · < x n = b de la définition constituent ce que l’on appelle une subdivision de l’inter-
valle [a; b]. Une telle subdivision est dite adaptée à la fonction en escalier f lorsque f est constante sur
chacun des morceaux (ouverts) de la subdivision. Il est facile de voir qu’il y a une infinité de subdivisions
adaptées à f lorsque f est en escalier. Le réel max06k 6n−1 x k+1 − x k est appelé le pas de la subdivision.
Lorsque le pas est constant, il vaut b−a n , on dit que la subdivision est régulière.
– La définition ne fait pas intervenir la valeur de f aux points de la subdivision.
– Une fonction en escalier sur [a; b] est bornée.

Définition 28.2
Si σ, σ0 sont deux subdivisions de [a; b], on dit que σ0 est plus fine que σ lorsque les points de la
subdivision σ font partie de la subdivision σ0 , ce que l’on note σ ⊂ σ0 , si de plus σ est adaptée à
NT
f ∈ E ([a; b], K), alors σ0 aussi.

Remarque 28.2 –
– Si σ, σ0 sont deux subdivisions de [a; b], on note σ ∪ σ0 la subdivision obtenue en réunissant les points de
σ avec ceux de σ0 (et en les rangeant dans l’ordre croissant). Cette nouvelle subdivision est plus fine que
les deux précédentes.
– Il en découle que si f et g sont en escalier sur [a; b] alors il existe une subdivision σ de [a; b] qui est à la
fois adaptée à f et à g .

Théorème 28.1
MO

L’ensemble E ([a; b], K) est un K-espace vectoriel (et même une K-algèbre) pour les opérations
usuelles sur les fonctions.

Preuve : Celle-ci est simple et laissée en exercice. 

2) Intégrale d’une fonction en escalier

Théorème 28.2
Soit f ∈ E ([a; b], K) et soit σ = (x i )06i 6n une subdivision de [a; b] adaptée à f , alors la quantité :
n−1
P
Iσ ( f ) = (x i +1 − x i )c i ,
i =0
où c i désigne la valeur de f sur l’intervalle ]x i , x i +1 [, est indépendante de la subdivision adaptée à f .
Autrement dit, si σ0 est une autre subdivision adaptée à f , alors Iσ ( f ) = Iσ0 ( f ).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 279 ©Fradin Patrick – http://mpsi.tuxfamily.org


Intégrale des fonctions continues par morceaux Chapitre 28 : Intégration sur un segment

Preuve : Si on rajoute un point d à la subdivision σ, on obtient une nouvelle subdivision σ0 et il existe un indice
j ∈ J0; (n − 1)K tel que d ∈]x j , x j +1 [, mais alors c j (x j +1 − x j ) = c j (d − x j ) + c j (x j +1 − d ), on voit donc que Iσ ( f ) = Iσ0 ( f ).
Par récurrence, on en déduit que si σ0 est une subdivision plus fine que σ, alors Iσ ( f ) = Iσ0 ( f ).

NE
Soit σ0 une autre subdivision de [a; b] adaptée à f , la subdivision σ00 = σ0 ∪ σ est adaptée à f et plus fine que σ et σ0 ,
donc Iσ00 ( f ) = Iσ0 ( f ) = Iσ ( f ). 

1
0
−4 d −3 −2 −1 0 1 2 3 4
−1

AIG
−2

F IGURE 28.2: Interprétation géométrique

Remarque 28.3 – Géométriquement, si f ∈ E ([a; b], K) et si σ est une subdivision de [a; b] adaptée à f , alors
dans un repère orthonormé, la quantité Iσ ( f ) représente l’aire algébrique de la portion de plan délimitée par la
courbe de f , l’axe des abscisses, et les droites d’équation : x = a et x = b, c’est une somme d’aires de rectangles.

Définition 28.3 (intégrale d’une fonction en escalier)


Si f ∈ E ([a; b], R), on appelle intégrale de f sur [a; b] le nombre (complexe) noté
R
[a;b] f et défini par :
R n−1
P
[a;b] f = Iσ ( f ) = (x i +1 − x i )c i ,
i =0
où σ = (x i )06i 6n est une subdivision adaptée à f .
NT
À retenir
• L’intégrale de f sur [a; b] ne dépend pas de la valeur de f aux points de la subdivision. Il en découle
que si on modifie la valeur de f en un nombre fini de points, la valeur de l’intégrale reste inchangée.
• Si f , g ∈ E ([a; b], K) et si f et g coïncident sur [a; b] \ {x 1 , . . . , x n }, alors [a;b] f = [a;b] g car il suffit de
R R

changer la valeur de f aux points x 1 , . . . , x n pour obtenir la fonction g , ce qui ne change pas l’intégrale
de f .

Théorème 28.3 (Propriétés élémentaires)


MO

Soient f , g ∈ E ([a; b], K) :


• linéarité : [a;b] f + g = [a;b] f + [a;b] g et si λ ∈ K, [a,b] λ f = λ [a;b] f .
R R R R R
R
• positivité : si f est à valeurs réelles positives, alors [a;b] f > 0. On en déduit que si f et g sont à
R R
valeurs réelles et si f 6g, alors [a;b] f 6 [a;b] g .
R R
• majoration : | [a;b] f | 6 [a;b] | f |.
• relation de C HASLES 1 : si a < c < b, alors [a;b] f = [a;c] f + [c;b] f .
R R R

Preuve : Celle-ci est simple et laissée en exercice. 

II INTÉGRALE DES FONCTIONS CONTINUES PAR MORCEAUX

1) Fonctions continues par morceaux

1. CHASLES M ICHEL (1793 – 1880) : mathématicien français, auteur d’importants travaux en géométrie.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 280 ©Fradin Patrick – http://mpsi.tuxfamily.org


Intégrale des fonctions continues par morceaux Chapitre 28 : Intégration sur un segment

Définition 28.4
Une fonction f : [a; b] → K est dite continue par morceaux sur le segment [a; b], lorsqu’il existe une

NE
subdivision σ = (a = x 0 , . . . , x n = b) de [a; b] telle que sur chaque morceau ]x k ; x k+1 [ la fonction f est
continue et prolongeable par continuité sur [x k ; x k+1 ] (i.e. f a une limite finie à droite en x k et à
gauche en x k+1 ).
L’ensemble des fonctions continues par morceaux sur [a; b] est noté CM ([a; b], K). Plus généralement,
on dit qu’une fonction est continue par morceaux sur un intervalle I, lorsque sa restriction à tout
segment inclus dans I est continue par morceaux.

ZExemples :
– Une fonction continue sur [a; b] est continue par morceaux.
– Une fonction en escalier sur [a; b] est continue par morceaux.
– La fonction f définie par f (x) = sin( x1 ) sur ]0; 1] et f (0) = 0 n’est pas continue par morceaux sur [0; 1].

AIG −5 −4 −3 −2 −1 0 1
−1
−2
−3
−4
2
1
0

F IGURE 28.3: Exemple de fonction continue par morceaux


2 3 4

Remarque 28.4 –
NT
– Une fonction continue par morceaux sur [a; b] est bornée.
– La valeur de f aux points de la subdivision n’intervient pas dans la définition.

Théorème 28.4
L’ensemble des fonctions continues par morceaux sur [a; b], CM ([a; b], K), est un K-espace vectoriel
(et même une K-algèbre) pour les opérations usuelles sur les fonctions.

Preuve : Celle-ci est simple et laissée en exercice. 

2) Approximation uniforme
MO

Théorème 28.5
Si f : [a; b] → K est continue par morceaux sur le segment [a; b], alors pour tout ε > 0, il existe une
fonction ψ en escalier sur [a; b] telle que | f − ψ| 6 ε, c’est à dire :
∀t ∈ [a; b], | f (t ) − ψ(t )| 6 ε.

Preuve :
• Cas où f est continue : f est uniformément continue sur [a; b] (théorème de Heine), il existe donc un réel α > 0 tel que
j k b−a
pour tout x, y ∈ [a, b], |x − y| < α =⇒ | f (x) − f (y)| < ε. Soit n = 1 + b−a
α , on a alors < α. Découpons l’intervalle
n
b−a
[a; b] en n morceaux de longueur b−a n , on obtient ainsi une subdivision dont les points sont les réels x k = a + k n
pour k ∈ J0; n K. On définit maintenant la fonction g en posant :
(
f (b) si t = b
g (t ) =
f (x k ) si t ∈ [x k ; x k+1 [

MPSI3 (2015-16) LYCÉE M ONTAIGNE 281 ©Fradin Patrick – http://mpsi.tuxfamily.org


Intégrale des fonctions continues par morceaux Chapitre 28 : Intégration sur un segment

il est alors facile de vérifier que pour tout réel t de [a; b], on a | f (t )− g (t )| < ε en distinguant les cas t = b et t ∈ [x k ; x k+1 [,
on a donc | f − g | < ε.
• Cas où f est continue par morceaux : sur chaque morceau ]x k ; x k+1 [ la fonction f est prolongeable par continuité

NE
sur [x k ; x k+1 ] en une fonction f k . On sait alors qu’il existe une fonction g k en escalier sur [x k ; x k+1 ] telle que ∀ t ∈
[x k ; x k+1 ], | f k (t ) − g k (t )| < ε, en particulier ∀ t ∈]x k ; x k+1 [, | f (t ) − g k (t )| < ε.
On construit la fonction g en posant : g (x k ) = f (x k ) et pour t ∈]x k ; x k+1 [, g (t ) = g k (t ). Il est clair que g est en escalier
sur [a; b] et que ∀ t ∈ [a; b], | f (t ) − g (t )| < ε, donc | f − g | < ε. 

0
−3 −2 −1 0 1 2 3
C f +ε
−1 Cf
C f −ε

AIG
−2 Cψ

Remarque 28.5 –
– C’est l’uniforme continuité de f qui fait aboutir la démonstration.
– Si f est continue sur [a, b], alors pour tout ε > 0 il existe deux fonctions en escalier φ et ψ telle que
∀ t ∈ [a; b], ψ(t ) 6 f (t ) 6 φ(t ) avec φ(t ) − ψ(t ) < ε.
En effet, on sait qu’il existe une fonction en escalier g telle que | f −g | < ε/2, on a donc pour t ∈ [a; b], g (t )−
ε/2 6 f (t ) 6 g (t ) + ε/2, il suffit donc de prendre ψ = g − ε/2 et φ = g + ε/2.
– Si f ∈ CM ([a; b], K) alors il existe une suite (ψn ) de fonctions en escalier sur [a; b] telle que :
sup | f (x) − ψn (x)| −→ 0.
x∈[a;b] n→+∞
On dit que la suite (ψn ) converge uniformément vers f sur [a; b].
NT
3) Définition de l’intégrale

Théorème 28.6
Soit f ∈ CM ([a; b], K) et soit (φn ) une suite de fonctions en escalier qui converge uniformément vers
f sur [a; b], alors :
• la suite ( [a;b] φn ) converge vers un nombre ` ∈ K ;
R

• ce nombre ` qui ne dépend pas de la suite (φn ) choisie.

Preuve : Posons u n = [a;b] φn , soit ε > 0, il existe un entier N ∈ N tel que n > N =⇒ |φn − f | < ε, on en déduit que
R

|φn | < | f |+ε 6 M+ε où M est un majorant de | f |, on a alors |u n | 6 (b − a)(M+ε) : la suite u est bornée, on peut donc en
extraire une suite convergente : u σ(n) → `, mais pour n > N on a |φn − φσ(n) | 6 |φn − f | + | f − φσ(n) | 6 2ε, on en déduit
MO

que |u n − u σ(n) | 6 (b − a)2ε ce qui entraîne que u n → `.


Soit (ψn ) une autre suite de fonctions en escalier qui converge uniformément vers f , posons v n = [a;b] ψn , d’après
R

ce qui précède, la suite (v n ) converge vers un nombre `0 . Soit (g n ) la suite de fonctions en escalier
R définie par g 2n = φn
et g 2n+1 = ψn , il est facile de voir que (g n ) converge uniformément vers f , donc la suite (w n = [a;b] g n ) converge vers
un nombre `00 , or w 2n = u n et w 2n+1 = v n , on en déduit que `00 = ` = `0 . 

Définition 28.5 (intégrale d’une fonction continue par morceaux)


Soit f ∈ CM ([a; b], K), on appelle intégrale de f sur [a; b] le nombre noté
R
[a;b] f et défini par :
[a;b] f = lim [a;b] φn ,
R R
n→+∞
où (φn ) est une suite de fonctions en escalier sur [a; b] qui converge uniformément vers f .
R
Géométriquement, dans un repère orthonormé, si f est à valeurs réelles, on dit que [a;b] f représente
l’aire algébrique de la portion de plan délimitée par la courbe de f , l’axe des abscisses, et les droites
d’équation x = a et x = b.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 282 ©Fradin Patrick – http://mpsi.tuxfamily.org


Intégrale des fonctions continues par morceaux Chapitre 28 : Intégration sur un segment

NE
1

0
−2 −1 0 1 2 3

−1

AIG
F IGURE 28.4: Cas d’une fonction continue

4) Premières propriétés de l’intégrale

Théorème 28.7 (linéarité de l’intégrale)


Soient f , g ∈ CM ([a; b], K) et soit λ ∈ K, alors :
[a;b] ( f + g ) = [a;b] f + [a;b] g et [a;b] λ. f = λ. [a;b] f .
R R R R R

Preuve : Soient (φn ) et (ψn ) deux suites de fonctions en escalier qui convergent uniformément respectivement vers
R voir que la suite (φn + ψn ) converge uniformément vers f + g . D’après la définition,
Rf et g , il est facile de R on a
[a;b] ( f + g ) = lim (φ
[a;b] n + ψ n ), la linéarité étant vérifiée pour les fonctions en escalier, on peut écrire que [a;b] ( f +
n→+∞
g ) = [a;b] φn + [a;b] ψn , le résultat s’obtient alors par passage à la limite. La preuve est du même type pour le second
R R

point. 
NT
Remarque 28.6 – Soit f ∈ CM ([a; b], K), posons u = Re( f ) et v = Im( f ). La linéarité de l’intégrale permet
R R R
d’écrire : [a;b] f = [a;b] Re( f ) + i [a;b] Im( f ). On peut donc toujours se ramener à intégrer des fonctions à
valeurs réelles (mais ce n’est pas toujours la meilleure solution). D’autre part, on a établi :
R R R R R R
Re( [a;b] f ) = [a;b] Re( f ) et Im( [a;b] f ) = [a;b] Im( f ), d’où [a;b] f = [a;b] f .

Théorème 28.8 (positivité)


Si f ∈ CM ([a; b], R) est à valeurs positives, alors 0 6 f . En particulier si f , g ∈ CM ([a; b], R) et si
R
R R [a;b]
f 6 g , alors [a;b] f 6 [a;b] g .

Preuve : Si f est à valeurs positives, on peut construire une suite (φn ) de fonctions en escalier positives, qui converge
MO

uniformément vers f , comme [a;b] f = lim φn , on a le résultat par passage à la limite.


R
n→+∞
Si f 6 g , on applique ce qui précède à la fonction h = g − f et on conclut avec la linéarité. 

Théorème 28.9 (majoration en module)


Si f ∈ CM ([a; b], K), alors | [a;b] f | 6 [a;b] | f |.
R R
R
En particulier si | f | 6 M sur [a; b], alors | [a;b] f | 6 M(b − a).

Preuve : Si f est continue par morceaux sur [a; b], alors | f | aussi, et si (φn ) est une suite de fonctions en escalier qui
converge uniformément vers f , il est facile de vérifierR que la suite
R (|φn |) est une suite de fonctions en escalier qui
converge uniformément vers | f |, de plus, on sait que | [a;b] φn | 6 [|a;b] |φn |, le résultat s’obtient par passage à la limite.


MPSI3 (2015-16) LYCÉE M ONTAIGNE 283 ©Fradin Patrick – http://mpsi.tuxfamily.org


Calcul d’une intégrale Chapitre 28 : Intégration sur un segment

Théorème 28.10 (relation de Chasles)


Si f ∈ CM ([a; b], K) et si a < c < b, alors
R R R
[a;b] f = [a;c] f+ [c;b] f.

NE
Preuve : Même type de preuve que pour les résultats précédents. 

Théorème 28.11 (cas d’une intégrale nulle)


R
Si f est à valeurs réelles, continue, positive sur [a; b], et si [a;b] f = 0, alors f est nulle sur [a; b].

Preuve : Par l’absurde, supposons f 6= 0, alors il existe t 0 ∈ [a; b] tel que f (t 0 ) > 0, soit ε = f (t 0 )/2, f étant ( continue en
0 si t ∉ [t 1 ; t 2 ]
t 0 , il existe t 1 < t 2 ∈ [a; b] tels que ∀ t ∈ [t 1 ; t 2 ], f (t ) > ε. Soit g la fonction en escalier définie par g (t ) = ,
ε si t ∈ [t 1 ; t 2 ]
alors on g 6 f , donc [a;b] g 6 [a;b] f , or [a;b] g = ε(t 2 − t 1 ) > 0, ce qui est contradictoire, donc f est nulle sur [a; b]. 
R R R

AIG
Remarque 28.7 – Le théorème ci-dessus est faux si f n’est pas continue sur [a; b], on peut considérer par
(
1 si t = a
exemple la fonction f définie par f (t ) = , cette fonction est positive, non nulle et d’intégrale nulle.
0 sinon

Théorème 28.12 (égalité d’intégrales)


Si f , g ∈ CM ([a; b], K) coïncident sur [a; b] \ {x 1 , . . . , x n }, alors
R R
[a;b] f = [a;b] g .

Preuve : Posons h = g − f , alors h est une R fonction en escalier qui coïncide avec la fonction nulle sauf éventuellement
aux points x 1 , . . . , x n , on sait alors que [a;b] h = 0, et la linéarité entraîne alors le résultat. 

Convention d’écriture
Si f est continue par morceaux sur un intervalle [a; b], pour x, y ∈ [a; b], on pose :
NT
R
 [x;y] f si x < y
Z y 

f (t ) d t = 0 si x = y .
x 
− R

f si y < x [y;x]

Avec cette convention :

Théorème 28.13
Si f ∈ CM ([a; b], K) alors :
Ry Rx
– ∀ x, y ∈ [a; b], x f (t ) d t = − y f (t ) d t .
Ry Rz Ry
– ∀ x, y, z ∈ [a; b], x f (t ) d t = x f (t ) d t + z f (t ) d t (relation de Chasles généralisée).
MO

Preuve : Celle-ci est simple et laissée en exercice. 

III CALCUL D’UNE INTÉGRALE

1) Primitives

Définition 28.6
Soient f , F : I → C deux fonctions définies sur un intervalle I de R, on dit que F est une primitive de f
sur I lorsque F est dérivable sur I et que F0 = f . L’ensemble des primitives de f sur I est noté P I ( f ).

Remarque 28.8 – D’après le théorème de Darboux, une dérivée vérifie toujours le théorème des valeurs
intermédiaires, par conséquent une fonction f qui ne vérifie pas ce théorème (i.e. une fonction f telle que Im( f )
n’est pas un intervalle), ne peut pas avoir de primitive sur I.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 284 ©Fradin Patrick – http://mpsi.tuxfamily.org


Calcul d’une intégrale Chapitre 28 : Intégration sur un segment

Théorème 28.14
Si f : I → C admet une primitive F sur l’intervalle I, alors P I ( f ) = {F + λ / λ ∈ C}.

NE
Preuve : G ∈ P I ( f ) ⇐⇒ G0 = F0 ⇐⇒ (G − F)0 = 0 ⇐⇒ ∃ λ ∈ C, G = F + λ (car I est un intervalle). 

Conséquence
Si f : I → C admet une primitive F sur I, alors ∀ y 0 ∈ C, ∀ t 0 ∈ I, f possède une unique primitive G sur I qui
vérifie G(t 0 ) = y 0 .

Théorème 28.15 (fondamental de l’intégration)


Si f : I → C est continue, alors f admet des primitives sur I. Plus précisément, si t 0 ∈ I et y 0 ∈ C, alors
Rt
la fonction F définie sur I par : F(t ) = y 0 + t0 f (u) d u, est l’unique primitive de f sur I qui prend la
valeur y 0 en t 0 .

AIG
Rt Rt Rt Rt
Preuve : Soit t 1 ∈ I, on a |F(t ) − F(t 1 ) − (t − t 1 ) f (t 1 )| = | t1 f (u) d u − t1 f (t 1 ) d u| = | t1 ( f (u) − f (t 1 )) d u| 6 | t1 | f (u) −
R t ε > 0, f étant continue en t 1 , il existe α > 0 tel que ∀ u ∈ I, |u − t 1 | < α =⇒ | f (u) − f (t 1 )| < ε, donc
f (t 1 )| d u|. On se donne
si |t − t 1 | < α, alors | t1 | f (u) − f (t 1 )| d u| 6 |t − t 1 |ε, d’où :
¯ ¯
¯ F(t ) − F(t 1 )
1 ¯ 6 ε,
¯
¯
¯ t −t − f (t ) ¯
1

on en déduit que F est dérivable en t 1 et que F0 (t 1 ) = f (t 1 ). La fonction F est donc une primitive de f sur I, et il est clair
que F(t 0 ) = y 0 . 
(
1 si t = 0
Remarque 28.9 – La continuité de f est essentielle pour la démonstration, prenons f (t ) = , alors
0 sinon
avec t 0 = y 0 = 0, on obtient que F = 0, F est bien dérivable mais ce n’est pas une primitive de f sur [0; 1].
NT
Théorème 28.16 (calcul d’une intégrale)
Si f : I → C est continue sur l’intervalle I et si F désigne une primitive de f sur I, alors :
Rb
∀a, b ∈ I, a f (t ) d t = [F]ba = F(b) − F(a).

Rt Rb
Preuve : F étant une primitive de f , on a ∀ t ∈ I, F(t ) = F(a) + a f (u) d u, d’où F(b) − F(a) = a f (u) d u. 

Cas d’une fonction continue par morceaux


si f : [a; b] → C est continue par morceaux, soit σ = (x i )06i 6n une subdivision adaptée à f . Sur chacun des
morceaux ]x i ; x i +1 [ la fonction f admet un prolongement par continuité f i sur le segment [x i , x i +1 ], les deux
Rx Rx
fonctions coïncidant sur le segment [x i , x i +1 ], sauf peut être en deux points, on a xii +1 f (t ) d t = xii +1 f i (t ) d t ,
R xi +1
mais f i admet une primitive Fi sur [x i ; x i +1 ], d’où : xi f = Fi (x i +1 ) − Fi (x i ), la relation de Chasles donne
alors :
MO

Z b n−1
X
f (t ) d t = Fi (x i +1 ) − Fi (x i ).
a i =0

On peut donc toujours se ramener au cas des fonctions continues et donc à une recherche de primitive.

Théorème 28.17 (lien entre une fonction et sa dérivée)


Rt
Si f est de classe C 1 sur l’intervalle I, alors ∀ t , t 0 ∈ I, f (t ) = f (t 0 ) + t0 f 0 (u) d u.

Théorème 28.18 (inégalité des accroissements finis généralisée)


Si f , g : I → C sont de classe C 1 sur l’intervalle I et si ∀ t ∈ I, | f 0 (t )| 6 g 0 (t ), alors :
∀ a, b ∈ I, | f (b) − f (a)| 6 |g (b) − g (a)|.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 285 ©Fradin Patrick – http://mpsi.tuxfamily.org


Propriétés de l’intégration Chapitre 28 : Intégration sur un segment

Preuve : SupposonsRa < b, on a :


| f (b) − f (a)| = | [a;b] f 0 (u) d u| 6 [a;b] | f 0 (u)| d u 6 [a;b] g 0 (u) d u = g (b) − g (a) = |g (b) − g (a)|.
R R


NE
2) Rappels : techniques de calculs

Théorème 28.19 (intégration par parties)


Soient f , g : I → C deux fonctions de classe C 1 , alors :
Rb Rb
∀ a, b ∈ I, a f 0 (u)g (u) d u = [ f (u)g (u)]ba − a f (u)g 0 (u) d u.

Théorème 28.20 (changement de variable)


Soit θ : J → I une fonction de classe C 1 sur l’intervalle J, et soit f : I → C une fonction continue sur
Rb R θ(b)
l’intervalle I, alors on a : ∀ a, b ∈ J, a f (θ(u))θ0 (u) d u = θ(a) f (t ) d t .

AIG
ZExemples : R1p
– Soit I = 0 1 − t 2 d t .
On effectue le changement de variable t = sin(u) avec u ∈ [0; π2 ], on a alors d t = cos(u)d u, d’où I =
R π/2 p iπ/2
2 cos(u) d u = π/2 cos(u)2 d u = π/2 1+cos(2u) d u = u + sin(2u)
h
= π4 . En particulier
R R
0 1 − sin(u) 0 0 2 2 4 0
on en déduit que la surface du cercle trigonométrique vaut π.
R π/3
– Soit I = 0 ln(cos(t )) sin(t ) d t .
On effectue le changement de variable u = cos(t ) avec cos : [0; π3 ] → [ 12 ; 1] (C 1 ), on a d u = − sin(t )d t et
R1
donc I = 1/2 ln(u) d u = [u ln(u) − u]11/2 = ln(2)−1
2 .
R1 p
FExercice 28.1 Calculer I = 2
0 t 1− t dt.
2a 3/2
Solution 28.1 La fonction à intégrer est de la forme au 0 u 1/2 et s’intègre donc en 3 u , d’où :
I = [− 31 (1 − t 2 )3/2 ]10 = 13 .
NT
IV PROPRIÉTÉS DE L’INTÉGRATION

1) Inégalités

Théorème 28.21 (cas d’égalité de Cauchy-Schwarz 2 )


Soit f , g deux fonctions continues par morceaux sur [a; b] et à valeurs réelles, on a :
¢2 ¡R
6 [a;b] f 2 [a;b] g 2 (inégalité de C AUCHY-S CHWARZ).
¡R ¢ ¡R ¢
[a;b] f g

Preuve : L’application ( f , g ) 7→ a;b f g n’est pas un produit scalaire sur CM ([a; b], R) c’est néanmoins une forme
R

bilinéaire symétrique et positive, on peut donc lui appliquer l’inégalité de Cauchy-Schwarz, dont on rappelle une
MO

preuve :
Posons a = [a;b] f 2 , b = [a;b] f g et c = [a;b] g 2 . Pour tout réel λ on a 0 6 [a;b] (λ f + g )2 (intégrale d’une fonction
R R R R

positive), en développant on obtient par linéarité aλ2 + 2bλ + c > 0. Si a 6= 0 alors on a un trinôme du second degré qui
est toujours positif, donc son discriminant est négatif ou nul, i.e. b 2 − ac 6 0 ce qui donne exactement l’inégalité de
Cauchy-Schwarz. Si a = 0 alors pour tout réel λ on a 2bλ + c > 0 ce qui entraîne b = 0 et donc b 2 6 ac. 
R
Dans le cas des fonctions continues sur [a; b], l’application ( f , g ) 7→ a;b f g est un produit scalaire sur
C 0 ([a; b], R), on a donc comme dans tout espace préhilbertien réel :

Théorème 28.22 (cas d’égalité de Cauchy-Schwarz)


Si f , g sont continues et à valeurs réelles, alors :
¢2 ¡R
= [a;b] f 2 [a;b] g 2 ⇐⇒ f et g sont colinéaires.
¡R ¢ ¡R ¢
[a;b] f g

2. SCHWARZ H ERMANN (1846 – 1921) : mathématicien allemand.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 286 ©Fradin Patrick – http://mpsi.tuxfamily.org


Propriétés de l’intégration Chapitre 28 : Intégration sur un segment

t
ZExemple : Soit f : [0; 1] → R une fonction C 1 telle que f (0) = 0. Pour t ∈ [0; 1] on a f (t ) = 0 f 0 (u) d u,
R
de classe
2
³ ´
t t t 2 1 2
d’où f (t )2 = 0 f 0 (u) d u 6 0 1 0 f 0 (u) d u , ce qui entraîne f (t )2 6 t 0 f 0 (u) d u, il en découle alors
¡R ¢ ¡R ¢ R R

NE
que :
Z 1 1
Z 1
2 2
f (t ) d t 6 f 0 (u) d u.
0 2 0

Théorème 28.23 (Inégalité de la moyenne)


Soi f : [a; b] → C continue par morceaux,¯ majorée¯ par M ∈ R en module, alors :
+
R
[a;b] f 6 M(b − a).
¯ ¯

ZExemple : Soient 0 < a < b et soit ε > 0. D’après le théorème ci-dessus :


R εb R εb
cos(εb) ln( ba ) 6 εa cos(t
t
)
d t 6 cos(εa) ln( ba ). D’où : lim εa cos(t
t
)
d t = ln( ba ).
ε→0

AIG
2) Sommes de Riemann

Définition 28.7
Soit f : [a; b] → C une fonction continue par morceaux et n ∈ N∗ , on appelle somme de Riemann 3
d’ordre n associée à f la quantité :
n−1
Rn ( f ) = b−a f (a + k b−a
P
n n ).
k=0

Remarque 28.10 – Soit φ la fonction en escalier sur [a; b] définie par φ(t ) = f (x k ) si t ∈ [x k ; x k+1 [ et φ(b) = f (b),
alors on a Rn ( f ) = [a;b] φ.
R
NT
Théorème 28.24 (limite des sommes de Riemann)
n−1
Soit f : [a; b] → C une fonction continue par morceaux on a : lim b−a (a + k b−a
P R
f n )= [a;b] f.
n→+∞ n k=0

Preuve : On se limite au cas où f est de classe C 1 conformément au programme. Comme f 0 est bornée sur le segment
[a; b], il existe un réel M ∈ R+ tel que ∀t ∈ [a; b], | f 0 (t )| 6 M et donc ∀x, y ∈ [a; b], | f (x) − f (y)| 6 M|x − y| (IAF).

¯ ¯¯n−1 Z x n−1
¯ ¯
¯ ¯n−1
¯
X Z xk+1 X Z xk+1 ¡
¯ Z
¯ ¯ ¯X k+1 ¢ ¯¯
¯R n ( f ) − f ¯¯ = ¯ f (x k ) d t − f (t ) d t ¯ = ¯
¯ ¯
f (x k ) − f (t ) d t ¯
¯ ¯k=0 xk k=0 x k
[a;b] ¯ ¯k=0 xk ¯
n−1
X ¯ xk+1 ¡
¯ Z
¢ ¯ n−1
¯
X xk+1 ¯
Z
¯
6 ¯
¯ f (x k ) − f (t ) d t ¯¯ 6 ¯ f (k k ) − f (t )¯ d t
k=0 xk k=0 x k
MO

n−1
X Z xk+1 n−1
X Z xk+1 b−a
6 M|x k − t | d t 6 M dt
k=0 x k k=0 x k n
n−1 2 2
X (b − a) M(b − a)
6 M =
k=0 n2 n

M(b−a)2
¯ R ¯
on a donc ¯Rn ( f ) − [a;b] f ¯ 6 n → 0. 

À retenir
Méthode des rectangles de gauche pour le calcul approché d’une intégrale :
n−1
M(b−a)2
Rn ( f ) = b−a f (a + k b−a près où M = sup | f 0 (t )|.
P R
n n ) est une valeur approchée de [a;b] f à n
k=0 a 6t 6b

3. RIEMANN G EORG F RIEDRICH B ERNHARD (1826 – 1866) : mathématicien allemand dont l’œuvre est colossale.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 287 ©Fradin Patrick – http://mpsi.tuxfamily.org


Compléments : recherche de primitives Chapitre 28 : Intégration sur un segment

NE
1

0
−2 −1 0 1 2 3

−1
F IGURE 28.5: Méthode des rectangles de gauche

Théorème 28.25 (méthode de rectangles de droite)


n
b−a
Soit f : [a; b] → C une fonction continue par morceaux on a : f (a + k b−a
P R
lim n )= [a;b] f.
n→+∞ n k=1

AIG
Preuve : Même preuve que le théorème précédent, avec la même majoration de l’erreur. 

0
−2 −1 0 1 2 3

−1
F IGURE 28.6: Méthode des rectangles de droite

À retenir
NT
La demi-somme des rectangles de gauche et des rectangles de droite est la méthode des trapèzes :
n−1
Tn ( f ) = b−a b−a
P 1 R
n 2 ( f (x k ) + f (x k+1 ) = 2n [ f (a) + 2 f (x 1 ) + · · · + 2 f (x n−1 ) + f (b)] → [a;b] f . On admettra
k=0
(b−a)3
que ¯Tn ( f ) − [a;b] f ¯ 6 M212n où M2 = sup | f 00 (t )|.
¯ R ¯
2
a 6 t 6b

0
−2 −1 0 1 2 3
MO

−1
F IGURE 28.7: Méthode des trapèzes

ZExemples :
n n
P 1 1 P 1
– Étude de certaines suites : soit u n = n+k , on a alors u n = n 1+k/n , c’est la méthode des rectangles
k=1 k=1
1
de droite appliquée à la fonction f : t 7→ 1+t sur l’intervalle [0; 1], la fonction étant continue sur cet
R
intervalle, on a lim u n = [0;1] f = ln(2).
R 2π
– Calcul de certaines intégrales : 0 ln(1 − 2x cos(t ) + x 2 ) d t pour |x| 6= 1 (cf. TD).

V COMPLÉMENTS : RECHERCHE DE PRIMITIVES

Convention : soit f une fonction continue sur un intervalle I, une primitive de f sur I est la fonction
Rx Rx
F : x 7→ a f (t ) d t où a ∈ I est quelconque, ce qui fait que l’on notera simplement F(x) = f (t ) d t .

MPSI3 (2015-16) LYCÉE M ONTAIGNE 288 ©Fradin Patrick – http://mpsi.tuxfamily.org


Compléments : recherche de primitives Chapitre 28 : Intégration sur un segment

1) Fonctions usuelles

Fonction Primitive

NE
0 α u α+1
uu α+1 si α 6= −1, ln(|u|) sinon
u0e u eu
u 0 cos(u) sin(u)
u 0 sin(u) − cos(u)
u0
u 0 (1 + t an 2 (u)) = cos2 (u)
tan(u)
u 0 ch(u) sh(u)
u 0 sh(u) ch(u)
u0
u 0 (1 − t h 2 (u)) = th(u)
ch2 (u)
u 0 tan(u) − ln(| cos(u)|)
u 0 tan(u)2 tan(u) − u
u0
arctan(u)

AIG
1+u0 2
pu arcsin(u)
1−u 2
0
pu argsh(u)
1+u 2
0
pu argch(u)
u 2 −1 q¯
u0
argth(u) = ln( ¯ 1+u ¯)
¯
1−u 2 1−u

2) Fractions rationnelles en sinus et cosinus


a p,q sin(t )p cos(t )q
P
p,q
Soit f (t ) une fraction rationnelle en sin(t ) et cos(t ) : f (t ) = P
b p,q sin(t )p cos(t )q .
p,q
Pour intégrer ce type de fonction on peut appliquer la règle de Bioche :
– Si f (−t )d (−t ) = f (t )d t , alors on peut poser u = cos(t ).
– Si f (π − t )d (π − t ) = f (t )d t , alors on peut poser u = sin(t ).
NT
– Si f (π + t )d (π + t ) = f (t )d t , alors on peut poser u = tan(t ).
2u 1−u 2
– Sinon on peut poser u = tan(t /2). Rappelons que sin(t ) = 1+u 2 et cos(t ) = 1+u 2
.

Dans tous les cas, on est ramené à une fraction rationnelle en u.

ZExemples :
1
– Calculer une primitive de f (t ) = sin(t )2 +3 cos(t )2
sur ] − π/2; π/2[.
Rx Rx dt
Solution 28.1 Il s’agit de calculer F(x) = f (t ) d t = 1+2 cos(t ) 2 , d’après la règle de Bioche, on peut poser
2
R tan(x) du
u = tan(t ), ce qui donne d u = (1 + u )d t , et donc F(x) = u 2 +3
, ce qui donne :

1 tan(x)
F(x) = p arctan( p ) + cte.
3 3
MO

1
– Calculer une primitive de f (x) = sin(x) sur ]0; π[.
Rx dt 2
Solution 28.1 Une primitive est F(x) = sin(t ) , posons u = tan(t /2), on a alors 2d u = (1 + u )d t , d’où F(x) =
R tan(x/2) 2(1+u 2 ) R tan(x/2) 1
2u(1+u 2 )
du = u d u = ln(| tan(x/2)|)+ cte.

3) Fractions rationnelles en ch et sh
Soit F(X, Y) une fraction rationnelle à deux indéterminées X et Y, la fonction f (t ) = F(ch(t ), sh(t )) est une
fraction rationnelle en ch et sh. Pour intégrer ce type de fonction, on peut appliquer la règle de Bioche à la
fonction g (t ) = F(cos(t ), sin(t )), c’est à dire en remplaçant ch(t ) par cos(t ) et sh(t ) par sin(t ) :
– Si g (−t )d (−t ) = g (t )d t , alors on peut poser u = ch(t ).
– Si g (π − t )d (π − t ) = g (t )d t , alors on peut poser u = sh(t ).
– Si g (π + t )d (π + t ) = g (t )d t , alors on peut poser u = th(t ).
– Sinon on peut poser u = exp(t ).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 289 ©Fradin Patrick – http://mpsi.tuxfamily.org


Compléments : recherche de primitives Chapitre 28 : Intégration sur un segment

Dans tous les cas, on est ramené à une fraction rationnelle en u.


Rx dt
ZExemple : Calculons F(x) = sur R, d’après la règle de Bioche, on peut poser u = sh(t ), d’où d u =

NE
ch(t )
R sh(x) du
ch(t )d t et F(x) = 1+u 2
, et donc : F(x) = arctan(sh(x)) + cte.

4) Fonctions se ramenant aux types précédents


p
– Une fraction rationnelle en t et a 2 − t 2 peut s’intégrer en posant t = a sin(u), ce qui donne une
fraction rationnelle en sin(u) et cos(u).
p p p R p
ZExemple : Une primitive de f (x) = 1 + x − x 2 sur [ 1−2 5 ; 1+2 5 ] est F(x) = x 1 + t − t 2 d t .
p
r ³ ´2 p R
r ³ ´2
x
On a f (t ) = 25 1 − 2tp−1 , donc F(x) = 25 1 − 2tp−1 d t , on pose sin(u) = 2tp−1 ∈ [−1; 1], on peut
5 5 5
p
5
donc prendre u ∈ [−π/2; π/2], on a d t = 2 cos(u)d u, et donc :

AIG
5
Z arcsin( 2x−1
p )
5
F(x) = cos(u)2 d u
4
ce qui donne :
5 2x − 1 2x − 1 p
F(x) =
arcsin( p ) + 1 + x − x 2 + cte.
8 5 4
p
– Une fraction rationnelle en t et t 2 − a 2 peut s’intégrer en posant t = ach(u), on obtient alors une
fraction rationnelle en ch(u) et sh(u).
p Rxp
ZExemple : Une primitive de f (x) = x 2 − 1 sur [1; +∞[ est la fonctionp
F(x) = t 2 − 1 d t , on pose t =
R ln(x+ x 2 −1) 2u −2u
ch(u) avec u ∈ [0; +∞[, on a d t = sh(u)d u, et donc F(x) = sh(u)2 d u, or sh2 (u) = e +e4 −2 ,
h 2u −2u iln(x+px 2 −1)
donc F(x) = e −e 8 −4u , ce qui donne après simplifications :
p p
x x 2 − 1 − ln(x + x 2 − 1)
F(x) = + cte.
NT
2
p
– Une fraction rationnelle en t et t 2 + a 2 peut s’intégrer en posant t = ash(u), on obtient alors une
fraction rationnelle en ch(u) et sh(u).
ZExemple : Une primitive de la fonction f (x) = p 1 2 sur R est la fonction F(x) = x p d t 2 , on pose
R
1+x 1+t
R ln(x+px 2 +1) p
t = sh(u), on a d t = ch(u)d u et donc F(x) = 2
d u = ln(x + 1 + x ) + cte.
q q
– Une fraction rationnelle en t et at +b
c t +d peut s’intégrer en posant u = at +b
ct +d , on obtient alors une
fraction rationnelle en u.
ZExemple : Une primitive de f (x) = x−p1x−1 sur [1; +∞[ est la fonction F(x) = x t −p dt
R
d t , on pose
p t −1
p x−1 2ud u 2u
u = t − 1, d’où t = u 2 + 1, donc d t = 2ud u et F(x) = = u2u−1 1
R
u 2 −u+1
. Or u 2 −u+1 2 −u+1 + (u−1/2)2 +3/4 ,
p p
R x−1 du
d’où F(x) = ln(x − x − 1) + 43
MO

³ ´2 , ce qui donne finalement :


2u−1
p +1
3

p p
p 3 2 x −1−1
F(x) = ln(x − x − 1) + 2 arctan( p ) + cte.
3 3

5) Polynômes trigonométriques
a i , j cos(x)p sin(x)q . Une telle fonction est un cas particulier de
P
Il s’agit des sommes finies du type
p,q
fraction rationnelle en cos et sin, la règle de Bioche peut s’appliquer, mais il y a parfois plus simple, on est en
p q
fait ramené à chercher une primitive de cos(x) sin(x) :
³ ´ ³ ´ p q
e i t +e −i t e i t −e −i t
– Linéarisation : on écrit que cos(t )p = 2 et sin(t )q = 2i , puis on développe.
ZExemple : x cos(t )4 sin(t )2 d t , on a :
R

¶4 µ ¶2
e i t + e −i t e i t − e −i t
µ
− cos(6t ) − 2 cos(4t ) + cos(2t ) + 2
cos(t )4 sin(t )2 = = .
2 2i 32

MPSI3 (2015-16) LYCÉE M ONTAIGNE 290 ©Fradin Patrick – http://mpsi.tuxfamily.org


Compléments : recherche de primitives Chapitre 28 : Intégration sur un segment

Ce qui donne finalement :


Z x
sin(6x) sin(4x) sin(2x) x
cos(t )4 sin(t )2 d t = −

NE
− + + + cte.
192 64 64 16

– Changement de variable : lorsque l’un des exposants est impair, par exemple p = 2k + 1, on a F(x) =
Rx Rx
cos(t )p sin(t )q d t = cos(t )2k sin(t )q cos(t ) d t , on pose alors u = sin(t ), d’où d u = cos(t )d t et donc
R sin(x)
F(x) = (1 − u 2 )k u q d u, c’est un polynôme en u.
ZExemple : Soit à calculer F(x) = x sin(t )5 d t , on pose u = cos(t ), d’où d u = − sin(t )d t et
R

cos(x) cos(x)5 2 cos(x)3


Z
F(x) = − (1 − u 2 )2 d u = − + − cos(x) + cte
5 3

AIG
NT
MO

MPSI3 (2015-16) LYCÉE M ONTAIGNE 291 ©Fradin Patrick – http://mpsi.tuxfamily.org


NE
Chapitre 29

Réduction des endomorphismes

AIG
Sommaire
I Éléments propres d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292
2) Premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293
3) Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294
II Réduction d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
1) Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
2) Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297
III Réduction d’une matrice carrée. Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . 298
1) Éléments propres d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298
2) Réduction d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299
3) Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299

K désigne un sous-corps de C et E un K-espace vectoriel différent de {0}.


NT
I ÉLÉMENTS PROPRES D’UN ENDOMORPHISME

1) Définitions

Définition 29.1
Soit u ∈ L (E), soit λ ∈ K, on dit que λ est une valeur propre de u si et seulement si il existe un vecteur
x ∈ E non nul, tel que u(x) = λx. Si c’est le cas, on dit que x est un vecteur propre associé à la valeur
propre λ.
– L’ensemble des valeurs propres de u est noté Sp(u) (spectre de u).
– L’ensemble Eλ (u) = {x ∈ E / u(x) = λx} est appelé sous-espace propre de u associé à la valeur propre
λ. On a Eλ (u) = ker(u − λid).
MO

Remarque 29.1 :
– λ ∈ Sp(u) ⇐⇒ Eλ (u) 6= {0} ⇐⇒ u − λid est non injectif.
– 0 est valeur propre de u si et seulement si u est non injectif, auquel cas le sous-espace propre associé est
ker(u).
ZExemples :
– Cas d’une homothétie : l’application u : x 7→ λx admet comme unique valeur propre λ.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 292 ©Fradin Patrick – http://mpsi.tuxfamily.org


Éléments propres d’un endomorphisme Chapitre 29 : Réduction des endomorphismes

1 2 1
 
3
– Utilisation de la méthode de G AUSS : si mat(u) =  2 2 1 alors :
B
−1 1 0

NE
(1 − λ)x + 2y + z = 0




 3
u(x) = λx ⇐⇒ (S λ ) 2x + ( − λ)y + z = 0


 2
−x + y − λz = 0

z + 2y + (1 − λ)x = 0




 1
⇐⇒ −(λ + )y + (1 + λ)x = 0 [L2 ← L2 − L1 ]

 2
(2λ + 1)y − (λ2 − λ + 1)x = 0 [L3 ← L3 + λL1 ]

z + 2y + (1 − λ)x = 0


AIG

 1
⇐⇒ −(λ + )y + (1 + λ)x = 0 .

 2
(−λ2 + 3λ + 1)x = 0 [L3 ← L3 + 2L2 ]

p p
On en déduit que Sp(u) = {− 12 ; 3+ 2 13 ; 3− 2 13 } (le déterminant du système ci-dessus doit être nul). En
résolvant (S λ ) avec ces valeurs de λ on détermine les sous-espaces propres de u.

2) Premières propriétés

Théorème 29.1
Si x 1 , . . . , x p sont des vecteurs propres de u associés à des valeurs propres λ1 , . . . , λp distinctes, alors la
famille (x 1 , . . . , x p ) est libre.
NT
Preuve : Par récurrence sur p : pour p = 1 il n’y a rien à faire. Supposons le théorème établi au rang p, si x 1 , . . . , x p+1 sont
p+1
des vecteurs propres de u associés à des valeurs propres λ1 , . . . , λp+1 distinctes et si
P
a i x i = 0, alors en appliquant
i =1
p
u − λp+1 id, il reste a i (λi − λp+1 )x i = 0, l’hypothèse de récurrence entraîne que a 1 = . . . = a p = 0, il reste donc
P
i =1
λp+1 x p+1 = 0 et donc λp+1 = 0, le théorème est démontré au rang p + 1. 
Application – En dimension n (dim(E) = n), un endomorphisme u ne peut pas avoir plus de n valeurs propres.

Théorème 29.2
Si x est un vecteur propre de u associée à la valeur propre λ et si P(X) ∈ K[X], alors x est un vecteur
propre de P(u) associé à la valeur propre P(λ).
MO

Preuve : On a u(x) = λx, donc ∀k ∈ N, u k (x) = λk x, le résultat en découle. 


Application – Si P(X) est un polynôme annulateur de u (i.e. P(u) = 0), alors les valeurs propres de u sont racines de P(X).
La réciproque est fausse, c’est à dire : les racines de P ne sont pas forcément des valeurs propres de u, par exemple :
(X − 1)(X − 2) annule id, mais 2 n’est pas valeur propre de id.
Dans la suite de ce chapitre, E est de dimension finie.

Théorème 29.3
Soit u ∈ L (E) et λ ∈ K, alors λ est valeur propre de u ssi det(u − λid) = 0.

Preuve : Cela découle de l’équivalence : u − λid injective ⇐⇒ u − λid bijective valable en dimension finie. 

MPSI3 (2015-16) LYCÉE M ONTAIGNE 293 ©Fradin Patrick – http://mpsi.tuxfamily.org


Éléments propres d’un endomorphisme Chapitre 29 : Réduction des endomorphismes

Remarque 29.2 – u est un automorphisme si et seulement si 0 n’est pas valeur propre de u. Si c’est le cas et si x
est un vecteur propre de u associé à la valeur propre λ, alors x est un vecteur propre de u −1 associé à la valeur
propre λ1 .

NE
3) Polynôme caractéristique
Soient B, soit u ∈ L (E), A = mat(u), soit x ∈ K, alors det(u − xid) = det(mat(u − xid)) = det(A − xIn ). En
B B
ε(σ)b 1σ(1) · · · b nσ(n) ce qui prouve que
P
notant b i j les coefficients de la matrice A − xIn , on a det(u − xid) =
σ∈S n
l’on a un polynôme en x. Comme K est infini, on peut identifier cette fonction polynomiale avec le polynôme
correspondant.

Définition 29.2
La fonction polynomiale x 7→ det(u − xid) est appelée polynôme caractéristique de u et notée Pu (X).

AIG
Remarque 29.3 – Le polynôme caractéristique est souvent noté Pu (X) = det(u − Xid) mais cette notation est
abusive car X n’est pas un scalaire.

Théorème 29.4
λ est valeur propre de u si et seulement si λ est racine du polynôme caractéristique de u, i.e. :

λ ∈ Sp(u) ⇐⇒ Pu (λ) = 0.

Si c’est le cas, alors la multiplicité de λ dans le polynôme Pu (X) est appelée multiplicité de la valeur
propre λ.

Preuve : Cela découle du théorème précédent. 


NT
ZExemples :
¯ ¯
1 2 1 ¯1 − X 2 1 ¯¯
 
3 3
1 ¯¯ = (X + 12 )(−X 2 +
¯
– Si la matrice de u dans une base est A = 2

2 1 , alors Pu (X) = ¯¯ 2

2 −X
−1 1 0 ¯ −1 1 −X ¯
p p
3X + 1). D’où Sp(u) = {− 12 ; 3+ 2 13 ; 3− 2 13 }.
 
a1 ∗ ... ∗
 .. .. .. 
0 . . . 
– Si la matrice de u dans une certaine base est triangulaire : A =  . , alors Pu (X) =
 
 . .. ..
 . . . ∗

0 ... 0 an
n n
(a i − X) = (−1)n
Q Q
(X − a i ). Donc les valeurs propres de u sont les coefficients diagonaux de A.
MO

i =1 i =1
– Si u est un projecteur de rang r : E = ker(u − id) ⊕ ker(u), donc il existe une base B de E telle que
mat(u) = Jn,n,r , d’où Pu (X) = (1 − X)r (−X)n−r = (−1)n X n−r (X − 1)r . D’où Sp(u) = {1; 0} (si 0 < r < n).
B
– Si u est une symétrie : E = ker(u − id) ⊕ ker(u + id), donc il existe une base B de E telle que mat(u) =
  B
1 0 ... ... ... 0
0 . . . . . .
 .. 
 .  
. . .. 
 .. .. 1 ... . 
, d’où Pu (X) = (1−X)r (−1−X)n−r = (−1)n (X−1)r (X+1)n−r avec r = dim[ker(u−
 
. .. 
. .. ..
. . −1 . . 

 .. .. ..
 
. . 0

.
0 . . . . . . . . . 0 −1
id)]. D’où Sp(u) = {±1} (si 0 < r < n).

MPSI3 (2015-16) LYCÉE M ONTAIGNE 294 ©Fradin Patrick – http://mpsi.tuxfamily.org


Réduction d’un endomorphisme Chapitre 29 : Réduction des endomorphismes

– Matrice compagnon
 : soit P(X) = X n +a
 n−1 X
n−1
+· · ·+a 1 X+a 0 ∈ K[X], la matrice compagnon de P est la
0 ··· ··· 0 −a 0
1 . . . .. .. 

NE

 . . 
 . . . . .. .. 
matrice A = 0
 . . . . , montrer que le polynôme caractéristique de l’endomorphisme

. .. 
. .. ..
. . . 0 . 

0 · · · 0 1 −a n−1
de Kn canoniquement associé à A, est (−1)n P(X) (raisonner par récurrence sur n et développer suivant
la colonne 1).

Théorème 29.5
Si dim(E) = n et u ∈ L (E), alors le polynôme caractéristique de u est de degré n, plus précisément,
Pu (X) = (−1)n X n + (−1)n−1 tr(u)X n−1 + . . . + det(u).

AIG
ε(σ)b 1σ(1) · · · b nσ(n) , le seul terme qui soit
P
Preuve : Soit A la matrice de u dans une base et B = A − xIn , alors Pu (x) =
σ∈S n
de degré n est celui pour lequel σ = idJ1;n K c’est à dire (a 11 − X) . . . (a nn − X) = (−1)n X n − (−1)n−1 tr(A)X n−1 + . . ., comme
les autres termes sont de degré 6 n − 2, on a les deux premiers termes de Pu (X). Quant au terme constant, il s’obtient
en prenant x = 0. 
Remarque 29.4 – Le nombre de valeurs propres de u comptées avec leur multiplicité est inférieur ou égal à n,
où n est la dimension de E. D’après le théorème de D’A LEMBERT, lorsque K = C, tout endomorphisme admet
exactement n valeurs propres (comptées avec leur multiplicité).

Théorème 29.6 (de Cayley-Hamilton)


Le polynôme caractéristique de u est un polynôme annulateur de u.

FExercice 29.1 Preuve du théorème de Cayley-Hamilton.


NT
Soit E un£ espace de dimension finie, soit u ∈ L (E) et x 0 ∈ E non nul, on pose
F = Vect u k (x 0 ), k ∈ N et on note v la restriction de u à F (car F est stable par u).
¤

1/ Montrer que Pv (X) divise Pu (X) [polynômes caractéristiques].


2/ Montrer que Pv (u)(x 0 ) = 0 [on calculera Pv (X)].
3/ En déduire que Pu (u) = 0.

Solution 29.1
1/ F est stable par u, la divisibilité en découle (on peut raisonner matriciellement).
2/ Soit p ∈ N tel que B = (x 0 , . . . , u p−1 (x 0 )) soit libre et u p (x 0 ) = a 0 + . . . + a p−1 u p−1 (x 0 ), alors B est une base de
F et la matrice de v dans cette base est la matrice compagnon du polynôme X p − a p−1 X p−1 − . . . − a 0 , donc
Pv (X) = (−1)p [X p − a p−1 X p−1 − . . . − a 0 ], le résultat en découle.
3/ Pu (u)(x 0 ) = R(u) ◦ Pv (u)(x 0 ) = 0, ceci étant vrai pour tout vecteur x 0 de E on a bien Pu (u) = 0.
MO

II RÉDUCTION D’UN ENDOMORPHISME

1) Diagonalisation

Définition 29.3
On dit que u ∈ L (E) est diagonalisable si et seulement si il existe une base B = (e 1 , . . . , e n ) de E
constituée de vecteurs propres de E. Si c’est le cas, alors la matrice de u dans cette base est mat(u) =
B
diag(λ1 , . . . , λn ) où λi et la valeur propre associée au vecteur propre e i .

Remarque 29.5 – Sur la diagonale de cette matrice on a toutes les valeurs propres de u, on en déduit que la
somme des valeurs propres est tr(u) et que le produit des valeurs propres est det(u) [si u est diagonalisable !].

MPSI3 (2015-16) LYCÉE M ONTAIGNE 295 ©Fradin Patrick – http://mpsi.tuxfamily.org


Réduction d’un endomorphisme Chapitre 29 : Réduction des endomorphismes

Remarque 29.6 – u est diagonalisable si et seulement si il existe une base de E dans laquelle la matrice de u
est diagonale.

NE
ZExemples :
– Une projection est diagonalisable.
– Une symétrie est diagonalisable.
– L’application u ∈ L (K2 ) définie par u(x, y) = (2x + y; x + 2y) est diagonalisable. En effet : Pu (X) =
(2 − X)2 − 1 = (1 − X)(3 − X), donc les valeurs propres sont 1 et 3. Un vecteur propre associé à 1 est
e 1 = (1; −1; ) et un vecteur propre associé à 3 est e 2 = (1; 1). La famille B = (e 1 , e 2 ) est libre, c’est une
µ ¶
1 0
base de K2 et mat(u) = .
B 0 3

Théorème 29.7
Si u ∈ L (E) admet n valeurs propres distinctes (où n = dim(E)), alors u est diagonalisable (réciproque
fausse).

AIG
Preuve : Soit λ1 , . . . , λn ces valeurs propres et e 1 , . . . , e n des vecteurs propres respectivement associés, alors on sait que
la famille (e 1 , . . . , e n ) est libre, c’est donc une base de E et u est diagonalisable.
La réciproque est fausse : prendre par exemple id. 
Remarque 29.7 – Il y a des endomorphismes qui ne sont pas diagonalisables, par exemple u : (x, y) 7→ (x + y, y)
admet une valeur propre double 1, si u était diagonalisable on aurait alors u = id : absurde.

Théorème 29.8 (lemme des noyaux)


Soit u ∈ L (E), soient P, Q deux polynômes premiers entre eux alors :

ker(P(u) ◦ Q(u)) = ker(P(u)) ⊕ ker(Q(u))

Preuve : D’après le théorème de Bezout il existe deux polynômes S et T tels que SP + TQ = 1, ce qui donne S(u) ◦
NT
P(u) + T(u) ◦ Q(u) = idE . Soit x ∈ ker(P(u) ◦ Q(u)), alors x = idE (x) = S(u) ◦ P(u)(x) + T(u) ◦ Q(u)(x), en remarquant que
le premier vecteur est dans ker(Q(u)) et le suivant dans ker(P(u)) (car les polynômes en u commutent pour la loi ◦),
on montre que ker(P(u) ◦ Q(u)) ⊂ ker(P(u)) + ker(Q(u)). D’autre part il est clair que ker(Q(u)) ⊂ ker(P(u) ◦ Q(u)) et que
ker(P(u)) ⊂ ker(P(u) ◦ Q(u)), par conséquent ker(P(u)) + ker(Q(u)) ⊂ ker(P(u) ◦ Q(u)). Il reste à montrer que la somme
est directe :
Soit x ∈ ker(P(u)) ∩ ker(Q(u)), on sait que x = S(u) ◦ P(u)(x) + T(u) ◦ Q(u)(x), or ces deux vecteurs sont nuls, donc
x = 0 ce qui termine la preuve. 
Remarque 29.8 – Ce théorème se généralise par récurrence sur le nombre de facteurs : si P = P1 · · · Pr où les
polynômes Pi sont premiers entre eux deux à deux, alors :

ker(P(u)) = ker(P1 (u)) ⊕ · · · ⊕ ker(Pr (u))


MO

Théorème 29.9
u ∈ L (E) est diagonalisable si et seulement si il existe P(X) ∈ K[X] un polynôme annulateur de u
scindé à racines simples.

Preuve : Si u est diagonalisable, alors il existe une base B = (e 1 , . . . , e n ) constituée de vecteurs propres de u, notons
λ1 , . . . , λp les valeurs propres distinctes de u, alors il est facile de vérifier sur la base B que le polynôme P(X) =
(X − λ1 ) . . . (X − λp ) annule u.
Réciproquement : si on a un polynôme annulateur (que l’on peut supposé unitaire) scindé à racines simples :
Q(X) = (X − a 1 ) · · · (X − a r ) où les a i sont distincts deux à deux. D’après le lemme des noyaux, E = ker(Q(u)) = ker(u −
a 1 id) ⊕ · · · ⊕ ker(u − a r id), soit Bi une base de ker(u − a i id) (si ce noyau est réduit à {0} alors on le retire de la somme ce
qui ne change pas celle-ci). La réunion B = B1 ∪ · · · ∪ Br est donc une base de E et chacun de ses vecteurs est non nul
et appartient à un des ker(u − a i id), ce sont donc tous des vecteurs propres de u : u est diagonalisable. 
ZExemples :
– Le polynôme X 2 − X annule tout projecteur, donc tout projecteur est diagonalisable.
– Le polynôme X 2 − 1 annule toute symétrie, donc toute symétrie est diagonalisable.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 296 ©Fradin Patrick – http://mpsi.tuxfamily.org


Réduction d’un endomorphisme Chapitre 29 : Réduction des endomorphismes

2) Trigonalisation

NE
Définition 29.4
On dit que u ∈ L (E) est trigonalisable lorsqu’il existe une base de E dans laquelle la matrice de u est
triangulaire.

Remarque 29.9 :
– Sur la diagonale de cette matrice on doit avoir les valeurs propres de u ce qui implique que u admette n
valeurs propres c’est à dire Pu (X) est scindé sur K.
– Diagonalisable entraîne trigonalisable (réciproque fausse).

Théorème 29.10
u ∈ L (E) est trigonalisable si et seulement si Pu (X) est scindé sur K (i.e. u admet n valeurs propres

AIG
dans K).

Preuve : Si u est trigonalisable, alors il existe une base dans laquelle la matrice de u est triangulaire. Soient λ1 , . . . , λn les
coefficients de la diagonale de cette matrice (non nécessairement distincts deux à deux), alors on sait que le polynôme
n
Q
caractéristique de u est Pu (X) = (λi − X), il est donc scindé.
i =1
Pour la réciproque, elle se fait par récurrence sur n : pour n = 1 il n’y a rien à faire. Supposons le théorème démontré
au rang n et supposons E de dimension n + 1 avec Pu (X) scindé sur K. Soit λ une valeur propre de u et e 1 un vecteur
propre
 associé, on construit  une base B de E en complétant (e 1 ) et la matrice de u dans cette base est de la forme :
λ ∗ ... ∗
0 a . . . a 1,n 
 11 
M= .. .
. .. , on a alors Pu (x) = (λ − x) det(A − xIn ), on en déduit que le polynôme det(A − xIn ) est scindé
. . . 
0 a n,1 . . . a n,n
sur K, donc l’endomorphisme de F = Vect [e 2 , . . . , e n+1 ] associé à la matrice A est trigonalisable (HR) : Q−1 AQ = T ce qui
λ ∗
µ ¶ µ ¶
1 O
NT
entraîne P −1 MP = matrice triangulaire en prenant P = , ce qui signifie que dans une certaine base
O T O Q
(avec P comme matrice de passage) la matrice de u est une matrice triangulaire. 
Remarque 29.10 – Lorsque K = C, tout endomorphisme est trigonalisable. La somme des valeurs propres est
la trace de l’endomorphisme, et le produit des valeurs propres est son déterminant.
ZExemples :
– Un endomorphisme u non nul et nilpotent (∃p ∈ N∗ , u p = 0) est trigonalisable mais non diagonalisable,
plus précisément, il existe une base dans laquelle la matrice de u est triangulaire avec des 0 sur la
diagonale.
– Soit u : K2 → K2 définie par u(x, y) = (3x + y; −4x − y), le polynôme caractéristique de u est Pu (X) =
(X − 1)2 , 1 est la seule valeur propre mais u 6= id donc u n’est pas diagonalisable, par contre u est
trigonalisable, un vecteur propre associé à 1 est e 1 = (−1; 2), prenons e 2 = (0; 1) alors B0 = (e 1 , e 2 ) est
MO

µ ¶
2 1 −1
une base de K et mat(u) = .
B0 0 1

Définition 29.5
Si λ est valeur propre de u de multiplicité m (i.e. racine de Pu (X) de multiplicité m), alors on appelle
sous espace caractéristique de u associé à λ le s.e.v ker([u − λidE ]m ).

Théorème 29.11
– Le sous espace caractéristique associé à λ contient le sous espace propre associé à λ.
– Les sous espaces caractéristiques de u sont en somme directe et stables par u.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 297 ©Fradin Patrick – http://mpsi.tuxfamily.org


Réduction d’une matrice carrée. Applications Chapitre 29 : Réduction des endomorphismes

Preuve : Pour le premier point : ker(u − λidE ) ⊂ ker([u − λidE ]m ).


Soient λ1 , . . . , λp les valeurs propres distinctes de u de multiplicités respectives m 1 , . . . , m p , alors les polynômes
(X − λi )mi sont premiers entre eux deux à deux, donc d’après le lemme des noyaux :

NE
ker(Pu (u)) = ker([u − λ1 idE ]m1 ) ⊕ · · · ⊕ ker([u − λp idE ]m p )

Si x ∈ ker([u − λidE ]m ), alors (u − λ)m ◦ u(x) = u ◦ (u − λidE )m (x) = 0, donc u(x) ∈ ker([u − λidE ]m ). 
On sait d’après le théorème de Cayley-Hamilton que Pu (u) = 0 et donc :

E = ker([u − λi idE ]m1 ) ⊕ · · · ⊕ ker([u − λp idE ]m p )

Autrement dit, E est la somme directe des sous-espaces caractéristiques de u. Soit v la restriction à F =
ker([u − λ1 idE ]m1 ), alors on peut écrire v = λidF + w avec w = (v − λidF ), w est un endomorphisme nilpotent
de F, donc il existe une base B1 de F dans la quelle la matrice de w est triangulaire avec des 0 sur la diagonale,
donc dans cette base la matrice de v est triangulaire avec λ1 sur la diagonale. On procède ainsi pour chaque
sous espace caractéristique, on pose alors B = B1 ∪ · ·  · ∪ Bp , c’est une base de
 E dans laquelle la matrice

AIG
T1 (0) · · · (0)

.. .. 
 (0) T2 . . 
 
de u est triangulaire (et même triangulaire par blocs) :  . 
.. ..
. Notons d i la dimension de
 ..

 . . (0) 

(0) · · · (0) Tp
 
λi ∗ · · · ∗
 0 . . . . . . ... 
 
ker([u − λi idE ]mi ), alors Ti =  .  ∈ Mdi (K), mais alors le polynôme caractéristique de u est
 
 . .. ..
. . . ∗

0 · · · 0 λi
p p
Pu (X) = (λi − X)di , or Pu (X) = (λi − X)mi , par conséquent on a montré :
Q Q
i =1 i =1
NT
Théorème 29.12
p
Soit u ∈ L (E) et Pu (X) = (λi − X)mi son polynôme caractéristique supposé scindé sur K, alors
Q
i =1
– la dimension de chaque sous espace caractéristique ker([u − λi id]mi ) est exactement m i , la multi-
plicité de λi .
– la dimension du sous espace propre Eλi est inférieure ou égale à m i .
– u est diagonalisable ⇐⇒ chaque sous-espace propre Eλi est de dimension m i ⇐⇒ chaque sous-
espace propre Eλi est égal au sous-espace caractéristique ker([u − λi id]mi ).

Remarque 29.11 – Dans la pratique, un endomorphisme est diagonalisable si et seulement si la somme des
dimensions des sous-espaces propres est égale à la dimension de l’espace.
MO

III RÉDUCTION D’UNE MATRICE CARRÉE. APPLICATIONS

1) Éléments propres d’une matrice carrée

Définition 29.6
Soit A ∈ Mn (K) et u A l’endomorphisme de Kn canoniquement associé à A.
– On dit que λ ∈ K est valeur propre de A lorsque λ est valeur propre de u A , on note Sp(A) = Sp(u A )
(spectre de A).
– On dit que X ∈ Mn,1 (K) est un vecteur propre de A associé à la valeur propre λ si et seulement si X
est non nul et AX = λX.
– Le sous-espace propre de A associé à la valeur propre λ est Eλ (A) = {X ∈ Mn,1 (K) / AX = λX}.

MPSI3 (2015-16) LYCÉE M ONTAIGNE 298 ©Fradin Patrick – http://mpsi.tuxfamily.org


Réduction d’une matrice carrée. Applications Chapitre 29 : Réduction des endomorphismes

Remarque 29.12 :
– En identifiant Mn,1 (K) et Kn , les vecteurs propres de A sont les vecteurs propres de u A [idem avec les
sous-espaces propres ].

NE
– On a les mêmes propriétés que pour les éléments propres d’un endomorphisme.
– Si u ∈ L (E) avec E un K-espace de dimension n, si A est la matrice de u dans une base B de E, alors
Sp(u) = Sp(A) et : x ∈ Eλ (u) ⇐⇒ CoordB (x) ∈ Eλ (A).
– On a les équivalences :

λ ∈ Sp(A) ⇐⇒ AX = λX a des solutions X non nulles


⇐⇒ A − λIn est non inversible
⇐⇒ det(A − λIn ) = 0.

Définition 29.7

AIG
La fonction polynomiale : x 7→ det(A − xIn ) est appelée polynôme caractéristique de A et notée PA (X).

Remarque 29.13 – Si u ∈ L (E) avec E un K-espace de dimension n, si A est la matrice de u dans une base B
de E, alors Pu (X) = PA (X). On retrouve donc les mêmes propriétés que pour le polynôme caractéristique d’un
endomorphisme. En particulier :
– Deux matrices semblables ont le même polynôme caractéristique.
– λ est valeur propre de A si et seulement si PA (λ) = 0.
– PA (X) = (−1)n X n + (−1)n−1 tr(A)X n−1 + . . . + det(A).
– Le polynôme PA (X) annule la matrice A [théorème de C AYLEY-H AMILTON].
– Une matrice et sa transposée ont le même polynôme caractéristique car t [A − xIn ] = t (A) − xIn [et deux
matrices transposées ont le même déterminant].
NT
2) Réduction d’une matrice carrée

Définition 29.8
Soit A ∈ Mn (K), on dit que :
– A est diagonalisable, si et seulement si A est semblable à une matrice D diagonale, i.e. :

∃P ∈ GLn (K), P −1 AP = D.

– A est trigonalisable, si et seulement si A est semblable à une matrice T triangulaire, i.e. :

∃P ∈ GLn (K), P −1 AP = T.
MO

Remarque 29.14 – Si u ∈ L (E) avec E un K-espace de dimension n, si A est la matrice de u dans une base B
de E, alors A est diagonalisable si et seulement si u est diagonalisable [idem avec trigonalisable]. On retrouve
donc les mêmes propriétés que pour la réduction des endomorphismes. En particulier :
– A est diagonalisable si et seulement si il existe un polynôme annulateur de A (non nul), scindé sur K et à
racines simples.
– A est diagonalisable si et seulement si la somme des dimensions des sous-espaces propres est égale à la
taille de A.
– A est trigonalisable si et seulement si le polynôme caractéristique de A est scindé sur K.

3) Applications
∗ Calcul de la puissance n-ième d’une matrice :

MPSI3 (2015-16) LYCÉE M ONTAIGNE 299 ©Fradin Patrick – http://mpsi.tuxfamily.org


Réduction d’une matrice carrée. Applications Chapitre 29 : Réduction des endomorphismes

Si A ∈ Mn (K) est diagonalisable alors il existe P ∈ GLn (K) telle que P −1 AP = diag(λ1 ; . . . , λn ) d’où Ap =
p p
Pdiag(λ1 , . . . , λn )P −1 .

 u n+1 = 2u n + v n + w n

NE

FExercice 29.2 Déterminer les suites réelles vérifiant : v n+1 = u n + 2v n + w n .

w n+1 = u n + v n + 2w n

   
2 1 1 un
Solution 29.2 En posant A = 1 2 1, et X n =  v n , on a X n+1 = AX n , d’où X n = An X 0 . On est ramené à déterminer
1 1 2 wn
     
1 1 0
An . On voit que AX 1 = 4X 1 avec X 1 = 1, que AX 2 = X 2 avec X 2 = −1 et AX 3 = X 3 avec X 3 =  1  donc A est
1 0 −1
 n
4 + 2 4n − 1 4n − 1
  
1 1 0
diagonalisable et P −1 AP = diag(4, 1, 1) avec P = 1 −1 1  d’où An = Pdiag(4n , 1, 1)P −1 = 13 4n − 1 4n + 2 4n − 1.
1 0 −1 4n − 1 4 n − 1 4 n + 2
On en déduit ensuite les expressions.

AIG
∗ Résolution de systèmes différentiels linéaires :
 0
 x = 4x − 3z

FExercice 29.3 Déterminer les fonctions x, y, z C sur R telles que y 0 = x − y + z .


 0
z = 2x − y
     
x 4 0 −3 1
Solution 29.3 On a X 0 = AX en posant X =  y  et A = 1 −1 1 . On voit que AU1 = U1 avec U1 = 1, on a
z 2 −1 0 1
E1 (A) = Vect [U1 ], la somme des deux autres valeurs propres vaut S = 2 et le produit P = 1, donc elles sont égales à 1
     
0 0 1 0 0
(i.e. PA (X) = (1 − X)3 ). On en déduit que A est seulement trigonalisable, si on pose U2 = 2, U3 = 1 et P = 1 2 1,
1 0 1 1 0
3


1 −3 0
  
a

 a = (α − 3βt + γt 2 )e t
2


alors P −1 AP = 0 1 −1 = T. Avec Y = P −1 X = b  l’équation devient Y 0 = TY, on obtient b = (β − γt )e t ,
NT
0 0 1 c


c = γe t


les solutions du système initial sont ensuite données par la relation X = PY.
∗ Résolution d’équations matricielles :
 
6 −1 −1
FExercice 29.4 Résoudre l’équation V 2 = A avec A =  2 3 −1.
−2 1 5
   
1 0
Solution 29.4 Les valeurs propres de A sont 4 et 6 avec E4 (A) = Vect [U1 , U2 ] où U1 = 1 et U2 = −1, E6 (A) = Vect [U3 ]
1 1
     
1 1 0 1 4 0 0
où U3 =  1 . On en déduit que A est diagonalisable, soit P = 1 −1 1 , on a P −1 AP = D = 0 4 0 = Y 2 en po-
−1 1 1 −1 0 0 6
MO

sant Y = P −1 VP. La matrice V est diagonalisable car le polynôme (X 2 −4)(X 2 −6) annule V et il est scindé à racines simples.
p
µ ¶
B 0
Les s.e.v. E4 (A) et E6 (A) « sont stables par V », donc U3 est un vecteur propre de V associé à ± 6 et Y = p
0 ± 6
µ ¶
±1 0
avec B2 = 4I2 donc 12 B est une matrice de symétrie, elle est donc de la forme B = 2Q−1 Q avec Q ∈ GL2 (K)
0 ±1
µ ¶
0
 
−1 ±1
2Q Q (0)
(quelconque), puis on en déduit les solutions pour V avec la relation V = PYP −1 = P  0 ±1
p
 P −1 .
(0) ± 6

MPSI3 (2015-16) LYCÉE M ONTAIGNE 300 ©Fradin Patrick – http://mpsi.tuxfamily.org


NE
Table des matières

AIG
NT
MO

MPSI3 (2015-16) LYCÉE M ONTAIGNE 301 ©Fradin Patrick – http://mpsi.tuxfamily.org


NE
Table des matières

1 Éléments de logique 1
I Notions ensemblistes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1) Vocabulaire lié aux ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

AIG
II Notions de logique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1) Propositions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2) Connecteurs logiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
3) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
4) Quantificateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
5) Retour sur les ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
III Le raisonnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1) Raisonnement par l’absurde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2) Raisonnement par analyse-synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3) Démontrer une implication . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
4) L’équivalence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
5) La récurrence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2 Nombres complexes 11
NT
I Écriture algébrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1) L’ensemble des complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2) Partie réelle, partie imaginaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3) Conjugué d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
II Module d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2) Équation du second degré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
III Forme trigonométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1) Le groupe unité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2) Exponentielle d’un imaginaire pur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3) Argument d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4) Racines nes d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
MO

IV Exponentielle complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2) Formules d’Euler et de Moivre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
V Représentation géométrique des complexes, applications . . . . . . . . . . . . . . . . . . . . . . 19
1) Affixe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2) Distances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3) Angles orientés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4) Similitudes directes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

3 Calculs algébriques 22
I Sommes et produits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2) Changement d’indice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4) Sommes doubles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

MPSI3 (2015-16) LYCÉE M ONTAIGNE 302 ©Fradin Patrick – http://mpsi.tuxfamily.org


TABLE DES MATIÈRES TABLE DES MATIÈRES

II Binôme de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1) Factorielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2) Coefficients binomiaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

NE
3) Formule du binôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
III Systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2) Interprétation géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3) Méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

4 Fonctions usuelles 31
I Fonctions logarithme et exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1) Logarithme népérien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2) La fonction exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
II Fonctions puissances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

AIG
1) Puissance quelconque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2) Croissance comparée de ces fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
III Fonctions circulaires - Inversions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1) Fonctions circulaires : rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2) Inversion des fonctions circulaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
IV Fonctions hyperboliques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2) Trigonométrie hyperbolique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

5 Généralités sur les fonctions 42


I Rappels et compléments sur les fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
1) Vocabulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2) Opérations sur les fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3) Plan d’étude d’une fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
II Fonctions à valeurs complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
NT
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2) Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3) Dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
III Primitives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
1) Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2) Primitives usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3) Calculs d’intégrales et de primitives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4) Primitives de certaines fractions rationnelles . . . . . . . . . . . . . . . . . . . . . . . . . 50

6 Équations différentielles 51
I Équations différentielles linéaires du premier ordre . . . . . . . . . . . . . . . . . . . . . . . . . . 51
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
MO

2) Étude de l’équation homogène . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52


3) Étude de l’équation avec second membre . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
II Équations différentielles linéaires du second ordre . . . . . . . . . . . . . . . . . . . . . . . . . . 54
1) Étude de l’équation homogène . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2) Étude de l’équation avec second membre . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
III Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
1) Équations à variables séparées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2) Équation de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3) Méthode d’Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

MPSI3 (2015-16) LYCÉE M ONTAIGNE 303 ©Fradin Patrick – http://mpsi.tuxfamily.org


TABLE DES MATIÈRES TABLE DES MATIÈRES

7 Applications - Relations 59
I Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

NE
2) Composition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3) Famille d’éléments d’un ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
II Injection, surjection, bijection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
1) Injection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
2) Surjection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3) Bijection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
III Images directes, images réciproques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
IV Relations binaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

AIG
2) Relation d’équivalence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3) Relation d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

8 Nombres réels 70
I L’ensemble des réels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
1) Rappels sur les rationnels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
2) Opérations et ordre sur les réels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
II Borne inférieure, borne supérieure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
1) Propriété fondamentale de l’ensemble des réels . . . . . . . . . . . . . . . . . . . . . . . . 71
2) Intervalles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3) La droite numérique achevée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4) Voisinages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
III Approximation d’un réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
1) Valeur absolue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
NT
2) Partie entière . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3) Approximations décimales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

9 Suites numériques 79
I Suites réelles, généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
2) Vocabulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
3) Opérations sur les suites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
II Suites convergentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
2) Premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
3) Convergence et opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
MO

4) Convergence et relation d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82


5) Caractérisations séquentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
III Suites ayant une limite infinie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
2) Limite infinie et ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
3) Limite infinie et opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
IV Théorèmes d’existence d’une limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
1) Suites monotones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
2) Suites adjacentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
3) Le théorème de BOLZANO - WEIERSTRASS . . . . . . . . . . . . . . . . . . . . . . . . . . 86
V Comparaison des suites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
2) Les exemples classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
VI Extension aux suites complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

MPSI3 (2015-16) LYCÉE M ONTAIGNE 304 ©Fradin Patrick – http://mpsi.tuxfamily.org


TABLE DES MATIÈRES TABLE DES MATIÈRES

1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
2) Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
3) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89

NE
10 Arithmétique 90
I Divisibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
1) La propriété fondamentale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
2) La division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
3) Congruences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4) Diviseurs communs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
II Éléments premiers entre eux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
1) Théorème de Bézout . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
2) Conséquences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
III Le plus grand diviseur commun . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94

AIG
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
3) Généralisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
IV Le plus petit multiple commun . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
V Nombres premiers, décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
2) Décomposition en facteurs premiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3) Notion de valuation p-adique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4) Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100

11 Limite d’une fonction 101


I Limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
NT
2) Premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
3) Limite à gauche, limite à droite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
II Propriétés des limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
1) Limites et opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
2) Limite et relation d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
3) Limite et composition des fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
4) Limite et sens de variation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
III Calculs de limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
1) Comparaison des fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
2) Les exemples classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
3) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
MO

IV Extension aux fonctions à valeurs complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108


1) Définition de la limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109

12 Continuité 110
I Rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
2) Théorèmes généraux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
II Fonctions continues sur un intervalle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
1) Théorème des valeurs intermédiaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
2) Continuité sur un segment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
3) Uniforme continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
III Continuité et fonctions monotones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
1) Image d’un intervalle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
2) Monotonie et continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114

MPSI3 (2015-16) LYCÉE M ONTAIGNE 305 ©Fradin Patrick – http://mpsi.tuxfamily.org


TABLE DES MATIÈRES TABLE DES MATIÈRES

3) Théorème des bijections . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115


IV Extension aux fonctions à valeurs complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
1) Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

NE
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116

13 Dérivation 117
I Dérivée première . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
2) Théorème généraux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
3) Dérivabilité à gauche et à droite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
4) Dérivée d’une bijection réciproque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
II Applications de la dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
1) Théorème de Rolle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
2) Les accroissements finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121

AIG
3) Sens de variation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
III Dérivées successives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
1) Classe d’une application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
2) Formule de Leibniz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
3) Classe d’une composée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
4) Classe d’une réciproque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
IV Extension aux fonctions à valeurs complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
3) Classe d’une fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126

14 Développements limités 127


I Développements limités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
2) Formule de Taylor-Young . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
NT
3) Développements usuels en 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
II Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
1) Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
2) Règles de calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
3) Développements usuels (compléments) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
III Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
1) Recherche d’une limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
2) Étude locale d’une fonction au voisinage d’un point . . . . . . . . . . . . . . . . . . . . . 132
3) Étude locale au voisinage de l’infini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
4) Recherche d’un équivalent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132

15 Structures algébriques 134


MO

I Lois de composition interne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134


1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
2) Élément neutre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
II Structure de groupe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
2) Sous-groupes d’un groupe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
III Anneaux et corps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
1) Anneaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
2) Corps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139

MPSI3 (2015-16) LYCÉE M ONTAIGNE 306 ©Fradin Patrick – http://mpsi.tuxfamily.org


TABLE DES MATIÈRES TABLE DES MATIÈRES

16 Polynômes 140
I Ensemble des polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140

NE
2) Opérations sur les polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
II Division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
1) Degré d’un polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
2) Algorithme de la division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
3) Divisibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
III Fonctions polynomiales, racines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
1) Substitution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
2) Fonctions polynomiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
3) Racines d’un polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
4) Corps algébriquement clos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
5) Relations racines coefficients . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146

AIG
IV Formule de Taylor des polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
1) Dérivation des polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
2) Formule de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148

17 Arithmétique des polynômes 150


I Divisibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
1) La division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
2) Congruences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
3) Diviseurs communs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
II Éléments premiers entre eux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
1) Théorème de Bézout . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
2) Conséquences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
III Le plus grand diviseur commun . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
NT
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
3) Généralisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
IV Le plus petit multiple commun . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
V Polynômes irréductibles, décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
2) Décomposition en facteurs irréductibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
3) Notion de P-valuation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
4) Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158

18 Fractions rationnelles 159


MO

I Construction de l’ensemble des fractions rationnelles . . . . . . . . . . . . . . . . . . . . . . . . 159


1) Définition d’une fraction rationnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
2) Opérations sur les fractions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
3) Représentants irréductibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
II Degré, pôles et racines d’une fraction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
1) Notion de degré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
2) Pôles et racines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
3) Fonctions rationnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
4) Dérivation d’une fraction rationnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
III Décomposition d’une fraction rationnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
1) Partie entière . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
2) Éléments simples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
3) Existence de la décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
IV Décomposition dans le cas complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
1) Forme de la décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165

MPSI3 (2015-16) LYCÉE M ONTAIGNE 307 ©Fradin Patrick – http://mpsi.tuxfamily.org


TABLE DES MATIÈRES TABLE DES MATIÈRES

2) Calcul d’une partie polaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166


3) Cas particuliers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
V Décomposition dans le cas réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168

NE
1) Forme de la décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
2) Calcul des éléments simples de seconde espèce . . . . . . . . . . . . . . . . . . . . . . . . 168
VI Applications de la décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
1) Calcul de la dérivée n-ième d’une fraction . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
2) Primitives d’une fraction rationnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169

19 Espaces vectoriels 170


I Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
2) Exemples de référence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
3) Règles de calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171

AIG
4) Sous-espaces vectoriels d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . 171
II Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
1) Définition, noyau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
3) S.e.v. et applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
III S.e.v. d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
1) Sous-espace engendré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
2) Somme de sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
3) Sommes directes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
4) S.e.v. supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
IV Projections, symétries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
1) Projecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
2) Symétries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178

20 La dimension finie 180


NT
I Espaces de dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
1) Familles génératrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
2) Familles libres, familles liées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
3) Familles libres et familles liées en dimension finie . . . . . . . . . . . . . . . . . . . . . . 183
II Propriétés de la dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
1) Bases, coordonnées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
2) Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
3) Applications linéaires et dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
III Notion de rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
1) Rang d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
2) Rang d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
MO

3) Méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190


IV Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
1) Hyperplans en dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
2) Sous-espaces affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
3) Équations linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193

21 Séries numériques 195


I Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
2) Premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
3) Séries géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
II Séries à termes positifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
1) Critère de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
2) Théorèmes de comparaison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
3) Comparaison avec une intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199

MPSI3 (2015-16) LYCÉE M ONTAIGNE 308 ©Fradin Patrick – http://mpsi.tuxfamily.org


TABLE DES MATIÈRES TABLE DES MATIÈRES

III Séries à termes quelconques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200


1) Séries absolument convergentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
2) Séries alternées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201

NE
3) Séries obtenues par une formule de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
4) Développement décimal d’un réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202

22 Matrices 204
I Matrices, liens avec les applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
2) Structure d’espace vectoriel sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 206
3) Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
II Produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
2) Retour aux applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210

AIG
3) Propriétés du produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
III Matrices carrées inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
2) Retour aux applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
IV Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
1) Matrice de passage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
2) Formules du changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
3) Changement de bases et applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . 216
4) Trace d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
V Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
2) Propriétés du rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
VI Opérations élémentaires sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
NT
2) Calcul pratique du rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
3) Calcul pratique de l’inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . 222

23 Dénombrement 224
I Cardinal d’un ensemble fini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
1) Rappels : injections, surjections, bijections, permutations . . . . . . . . . . . . . . . . . . 224
2) Ensembles finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
3) Propriétés du cardinal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
II Dénombrement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
1) Préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
2) Le nombre d’applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
3) Le nombre de parties d’un ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
MO

4) Le nombre de bijections . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228


5) Le nombre de p-parties (ou p-combinaisons) . . . . . . . . . . . . . . . . . . . . . . . . . 228

24 Probabilités sur un univers fini 230


I Univers finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
1) Expérience aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
2) Évènements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
II Espaces probabilisés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
1) Probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
3) Probabilité des événements élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
III Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
2) Probabilités composées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
3) Formule des probabilités totales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235

MPSI3 (2015-16) LYCÉE M ONTAIGNE 309 ©Fradin Patrick – http://mpsi.tuxfamily.org


TABLE DES MATIÈRES TABLE DES MATIÈRES

4) Formule de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236


IV Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
1) Indépendance de deux événements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237

NE
2) Indépendance d’une famille d’événements . . . . . . . . . . . . . . . . . . . . . . . . . . . 237

25 Déterminants 239
I Le groupe symétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
1) Décomposition des permutations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
2) Signature . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
II Applications n-linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
2) Développement suivant une base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
III Déterminant dans une base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
1) Formes n-linéaires en dimension n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242

AIG
2) Déterminants de n vecteurs dans une base . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
3) Propriétés du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
IV Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
2) Propriétés du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
V Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
2) Propriétés du déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . 246
3) Développement suivant une ligne ou une colonne . . . . . . . . . . . . . . . . . . . . . . 246
4) Comatrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
VI Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
1) Géométrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
2) Systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
3) Orientation d’un espace vectoriel réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
NT
26 Espaces euclidiens 252
I Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
2) Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
3) Bases orthonormales dans un euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
4) Projections orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256
5) Distance d’un vecteur à un s.e.v . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
6) Hyperplans affines dans un euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
II Endomorphismes orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
2) Matrices orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
MO

3) Espace vectoriel euclidien orienté - Produit mixte . . . . . . . . . . . . . . . . . . . . . . . 261


III Endomorphismes orthogonaux en dimension 1 et 2 . . . . . . . . . . . . . . . . . . . . . . . . . 262
1) En dimension 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262
2) En dimension 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262

27 Variables aléatoires sur un univers fini 264


I Notion de variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
2) Loi d’une VA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
3) Image d’une VA par une fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
II Lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
1) Variables certaines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
2) Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
3) Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
4) Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267

MPSI3 (2015-16) LYCÉE M ONTAIGNE 310 ©Fradin Patrick – http://mpsi.tuxfamily.org


TABLE DES MATIÈRES TABLE DES MATIÈRES

III Espérance et variance d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267


1) Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
2) Variance et écart-type . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269

NE
3) Cas des lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270
IV Couples de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
2) Indépendance de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273
3) Applications de l’indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275
4) Covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276

28 Intégration sur un segment 278


I Intégrale des fonctions en escalier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278
1) Fonctions en escalier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278
2) Intégrale d’une fonction en escalier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279

AIG
II Intégrale des fonctions continues par morceaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
1) Fonctions continues par morceaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
2) Approximation uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
3) Définition de l’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282
4) Premières propriétés de l’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
III Calcul d’une intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
1) Primitives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
2) Rappels : techniques de calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286
IV Propriétés de l’intégration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286
1) Inégalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286
2) Sommes de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
V Compléments : recherche de primitives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288
1) Fonctions usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
2) Fractions rationnelles en sinus et cosinus . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
NT
3) Fractions rationnelles en ch et sh . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
4) Fonctions se ramenant aux types précédents . . . . . . . . . . . . . . . . . . . . . . . . . 290
5) Polynômes trigonométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290

29 Réduction des endomorphismes 292


I Éléments propres d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292
2) Premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293
3) Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294
II Réduction d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
1) Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
2) Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297
MO

III Réduction d’une matrice carrée. Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298


1) Éléments propres d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298
2) Réduction d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299
3) Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299

MPSI3 (2015-16) LYCÉE M ONTAIGNE 311 ©Fradin Patrick – http://mpsi.tuxfamily.org

Vous aimerez peut-être aussi