Vous êtes sur la page 1sur 186

Lycée Louis-Le-Grand, Paris

MPSI 4 – Mathématiques
A. Troesch

Problème no 1 : Ensembles

Correction du problème 1 – Topologies et filtres

Partie I – Topologies

1. Reformulation.

• Si la propriété (O2 ) est satisfaite, la propriété (O2a ) découle du cas |I| = 2, et la propriété (O2b ) découle du
cas |I| = 0, et de la convention adoptée pour les intersections vides.
• Réciproquement, si (O2a ) et (O2b ) sont vérifiées, la propriété (O2 ) est vérifiée pour tout |I| de cardinal 0
(d’après (O2b )), de cardinal 1 (c’est une trivialité) et de cardinal 2 (d’après (O2a )). Montrons par récurrence
sur le cardinal de I que cela reste vrai pour I de cardinal fini quelconque. Ce qui précède constitue l’ini-
tialisation. Soit n > 2, et supposons que (O2 ) est vrai pour toute intersection de n termes. Soit alors une
famille de cardinal n + 1 d’éléments de O. Quitte à réindexer les éléments, on peut supposer, sans perte de
généralité, que ces éléments sont numérotés U1 , . . . , Un+1 Soit alors U ′ = U1 ∩ · · · ∩ Un . Par hypothèse de
récurrence, U ′ ∈ O. Comme Un+1 ∈ O, par (O2a ), on obtient U ′ ∪ Un+1 ∈ O, ce qui est bien ce qu’il fallait.
Ainsi, (O2 ) équivaut à (O2a ) ∧ (O2b ) .
2. Exemples triviaux.
(a) Topologie triviale : soit O = {∅, X}.
• Toute union d’une famille dont chaque terme est ∅ ou X est égal à X dès lors qu’au moins un des termes
vaut X et à ∅ sinon. Cela prouve (O1 ).
• De même, toute intersection d’une famille dont chaque terme est ∅ ou X est égal à ∅ dès lors qu’au
moins un des termes vaut ∅ et à X sinon. Cela prouve (O2 ) (et même plus, puisqu’on n’a pas eu à
imposer de cardinal fini à I).
Ces affirmations sont aussi valable dans le cas trivial où I = ∅, par les conventions adoptées.
Ainsi, O = {∅, X} est une topologie.
(b) Topologie discrète :
Puisque toute union ou toute intersection de sous-ensembles de X est encore un sous-ensemble de X, (y
compris dans le cas trivial où I = ∅), P(X) est stable par union quelconque et intersection finie. On en
déduit que P(X) est une topologie sur X.
3. Un autre exemple : la topologie usuelle de R.
(a) • Soit U un ouvert de R, et x ∈ U . Par définition, il existe ε > 0 tel que pour tout y ∈ R, vérifiant
|y − x| < ε, on a y ∈ U . Soit un tel ε, soit y ∈]x − ε, x + ε[. On a alors |y − x| < ε, donc y ∈ U .
• Réciproquement, si pour tout x ∈ U , on a un ε > 0 tel que ]x − ε, x + ε[⊂ U , alors pour un tel ε, dès
lors que y ∈ R vérifie |y − x| < ε, on obtient

y ∈]x − ε, x + ε[⊂ U, donc: y ∈ U.

On a bien trouvé, pour tout x ∈ U un réel ε > 0 validant la définition des ouverts.
Ainsi, U est ouvert si et seulement si pour tout x ∈ U , il existe ε > 0, tel que ]x − ε, x = ε[⊂ U .
(b) (i) Soit U = ∅. La propriété définissant les ouverts est vraie par défaut, puisqu’on quantifie universellement
sur l’ensemble vide (souvenez-vous que ∀x ∈ E, P(x) traduit l’expression ∀x, x ∈ E =⇒ P(x) ; avec
E = ∅, on est ramené au cas d’une implication dont l’hypothèse est toujours fausse : cette implication
est donc toujours vraie).
Ainsi, U = ∅ est un ouvert.

1
(ii) Soit x ∈ R, et (par exemple) ε = 1. On a alors évidemment ]x−ε, x+ε[⊂ R. Donc R est un ouvert de R .
(iii) Soit x = a. Alors, pour tout ε > 0, ]a − eps, a + ε[6∈ [a, b], puisqu’on peut trouver un réel y ∈]a − ε, a[,
qui est donc dans ]a − eps, a + ε[ mais pas dans [a, b]. Ainsi, [a, b] n’est pas un ouvert de R .
(iv) Soit x ∈]a, b[, et 0 < ε < min(x − a, b − x). Un tel choix de ε est possible, puisque min(x − a, b − x) > 0.
On a alors :

x − ε > x − min(x − a, b − x) > x − (x − a) = a et x + ε < x + min(x − a, b − x) 6 x + (b − x) = b.

Ainsi, ]x − ε, x + ε[⊂]a, b[.


Par conséquent, ]a, b[ est un ouvert de R .
(v) Soit x ∈ R \ Q ; un tel x existe car tous les réels ne sopnt pas rationnels. On peut prendre par exemple

x = 2. Par densité de Q dans R, tout intervalle ]x − ε, x + ε[ contient un élément de Q. Ainsi, pour
tout ε > 0, ]x − ε, x + ε[6⊂ R \ Q, donc R \ Q n’est pas un ouvert de R .
(c) Soit O l’ensemble formé de tous les ouverts de R. [
• Soit (Ui )i∈I une famille d’éléments de O, donc une famille d’ouverts de R. Soit x ∈ Ui . Il existe i0 ∈ I
i∈I
tel que x ∈ Ui0 . Comme Ui0 est ouvert, il existe ε > 0 tel que ]x − ε, x + ε ⊂ Ui0 . Comme Ui0 est inclus
dans l’union de tous les Ui , on en déduit :
[
]x − ε, x + ε[⊂ Ui .
i∈I
[ [
Ainsi, un tel ε existant pour tout x de Ui , on en déduit que Ui est ouvert, d’où la propriété (O1 ).
i∈I i∈I
• Soit I un ensemble fini, disons, sans perte de généralité, I = [[1, n]]. Soit U1 , . . . , Un des ouverts de R. Si
\n
Ui est vide, alors il est ouvert d’après 3(b)i. Si n = 0, l’intersection vaut par convention R qui est
i=1
n
\
ouverte. Sinon, soit x ∈ Ui . Pour tout i ∈ [[1, n]], x ∈ Ui , et Ui étant ouvert, on en déduit l’existence
i=1
de εi > 0 tel que ]x − εi , x + εi [⊂ Ui . Soit alors

ε = min(ε1 , . . . , εn ) > 0

(l’inégalité est stricte car on a un nombre fini de termes : le minimum étant l’un des n termes, il est
strictement positif). On a alors pour tout i ∈ [[1, n]] :

ε 6 εi donc: ]x − ε, x + ε[⊂]x − εi , x + εi [⊂ Ui .

Cette inclusion étant vérifiée pour tout i de [[1, n]], on en déduit :


n
\
]x − ε, x + ε[⊂ Ui .
i=1

n
\
Ainsi, Ui est ouvert. D’où la propriété (O2 ).
i=1
On en déduit que O est une topologie sur R.
4. Voisinages.
(a) • Soit x ∈ X et V un voisinage de x. Il existe un ouvert U tel que x ∈ U ⊂ V . Puisque U est ouvert, Par
3(a), il existe ε > 0 tel que ]x − ε, x + ε[⊂ U , donc aussi ]x − ε, x + ε[⊂ V .
• Réciproquement, supposons qu’il existe ε > 0 tel que ]x−ε, x+ε[⊂ V . Alors on peut poser U =]x−ε, x+ε[.
Il s’agit d’un ouvert de R d’après 3(b)iv, et on a bien x ∈ U ⊂ V . Donc V est un voisinage de x.
Ainsi, V est un voisinage de x si et seulement s’il existe ε tel que ]x − ε, x + ε[⊂ V .
(b) On peut remarquer que la question précédente et la question 3(a) montre que dans le cas de la topologie
usuelle de R, le résultat attendu est vrai. Étudions le cas général.

2
• Soit U un ouvert. Soit x ∈ U . Il existe alors un ouverte U ′ (par exemple U ′ = U ) vérifiant x ∈ U ′ ⊂ U .
Ainsi, U est un voisinage de x. Ceci étant vrai pour tout x ∈ U , U est un voisinage de tous ses points.
• Réciproquement, soit U un ensemble qui est voisinage de tous ses points. Soit x ∈ U . Il existe donc par
définition d’un voisinage, un ouvert Ux tel que x ∈ Ux ⊂ U , donc {x} ⊂ Ux ⊂ U . En prenant l’union de
ces inclusions pour tout x ∈ U , on obtient :
[ [
U= {x} ⊂ Ux ⊂ U.
x∈U x∈U

Par double inclusion, on en déduit que [


U= Ux .
x∈U

Comme les Ux sont ouverts, on déduit de (O1 ) que U est ouvert.


Ainsi, U est ouvert si et seulement s’il est voisinage de tous ses points.
(c) Soit V ∈ V(x) un voisinage d’un élément x de X, et W un ensemble tel que V ⊂ W ⊂ X. Par définition d’un
voisinage, il existe un ouvert U tel que x ∈ U ⊂ V , donc aussi x ∈ U ⊂ W . Ainsi, W est un voisinage de x.
(d) On se restreint au cas d’un nombre fini non nul de voisinage (le cas n = 0 étant trivial, l’intersection étant
X tout entier, qui est ouvert par O2b , donc voisinage de tous ses points, et en particulier de x). Soit donc
n > 1, et V1 , . . . , Vn des voisinages de x. On a alors l’existence d’ouverts U1 , . . . , Un tels que pour tout
i ∈ [[1, n]], x ∈ Ui , et Ui ⊂ Vi . On a alors aussi :
n
\ n
\ n
\
x∈ Ui et Ui ⊂ Vi .
i=1 i=1 i=1

n
\ n
\
Or, d’après (O2 ), Ui est ouvert, donc Vi est un voisinage de x .
i=1 i=1

Partie II – Filtres

1. Des exemples
(a) Soit x ∈ X, et F = V(x) l’ensemble des voisinages de x. Vérifions pour V(x) les propriétés définissant un
filtre :
• (F1 ) est conséquence immédiate de I-4(c).
• (F2 ) est conséquence immédiate de I-4(d).
• (F3 ) provient du fait que tout voisinage de x contient x, donc n’est pas vide.
Ainsi, V(x) est un filtre sur X .
(b) Soit X un ensemble infini, et
F = {Ac , A ⊂ X, A fini},

où Ac désigne le complémentaire de A dans X. Vérifions les 3 points de la définition d’un filtre.


• Soit B ∈ P(X) tel qu’il existe F ∈ F vérifiant F ⊂ B. On a alors B c ⊂ F c , et comme F c est fini, il en
est de même de B c . Ainsi, B ∈ F . D’où (F1 ).
• Soit (Bi )i∈I une famille finie d’éléments de F . Si I = ∅, l’intersection vaut X, de complémentaire ∅ ∈ F .
Sinon, !c
\ [
Bi = Bic .
i∈I i∈I

Cette union\est constituée d’un nombre fini d’ensembles finis, donc il s’agit d’un ensemble fini. On en
déduit que Bi ∈ F , d’où (F2 ).
i∈I
• ∅ 6∈ F car ∅c = X, qui est supposé infini. D’où (F3 ).
Ainsi, F est un filtre.
2. Filtre engendré par une partie de P(X), base de filtre

3
(a) Soit F le sous-ensemble de P(X) constitué des ensembles F ⊂ X tels qu’il existe B ∈ B vérifiant B ⊂ F .
Vérifions les 3 points de la définition d’un filtre.
• Soit A ∈ P(X) tel qu’il existe F ∈ F vérifiant F ⊂ A. Par définition de F , pour un tel F , il existe B ∈ B
tel que B ⊂ F . On a alors aussi B ⊂ A, donc A ∈ F . D’où (F1 ).
• Soit (Ai )i∈[[1,n]] une famille finie d’éléments de F . Si n = 0, l’intersection des Ai est X, qui est élément de
F du fait que B n’est pas vide (d’après (B1 )), et contient donc au moins un élément B, vérifiant B ⊂ X.
Supposons donc désormais n > 1.
Par définition, pour tout i ∈ [[1, n]], il existe Bi ∈ B tel que Bi ⊂ Ai . On a alors
\ \
Bi ⊂ Ai .
i∈[[1,n]] i∈I

La propriété (F2 ) résultera alors du lemme suivant, dont la démonstration est basée sur une récurrence
assez immédiate à partie de la propriété (B1 ) :
Lemme : Pour tout n ∈ N∗ , et toute famille (B1 , . . . , Bn ) d’éléments de B, il existe B ∈ B tel que
n
\
B⊂ Bi .
i=1

Le cas n = 1 est trivial en considérant B = B1 . Le cas n = 2 résulte de (B1 ). Soit donc n > 2 tel que le
lemme soit vrai pour tout famille de n éléments de B. Considérons alors B1 , . . . , Bn+1 , n + 1 éléments
de B. On a donc, par hypothèse de récurrence, l’existence de B ∈ B tel que

B ⊂ B1 ∩ · · · ∩ Bn , donc: B ∩ Bn+1 ⊂ B1 ∩ · · · ∩ Bn+1 .

Comme B et B1 sont dans B, on peut appliquer (B1 ), nous donnant l’existence de C ∈ B tel que
n+1
\
C ⊂ B1 ∩ B ⊂ Bi .
i=1

D’après le principe de récurrence, le lemme est vrai pour tout n ∈ N∗ , ce qui termine la preuve de la
propriété (F2 ) pour l’ensemble F .
• Soit F ∈ F . Il existe B ∈ B tel que B ⊂ F . Par (B3 ), B 6= ∅, donc F 6= ∅. On en déduit (F3 ).
Ainsi, F est un filtre.
Montrons la propriété de minimalité de F : soit G un filtre contenant B. Montrons que F ⊂ G. Soit pour
cela un élément F de F . Il existe donc B ∈ B tel que B ⊂ F . Or, B ⊂ G, donc B ∈ G. La propriété (F1 )
pour le filtre G nous assure alors que F ∈ G. Ainsi, F ⊂ G.
Par conséquent, F est le plus petit filtre contenant B .
(b) Montrons d’abord que le filtre F vérifie les propriétés (B1 ) à (B3 ).
• Soit B et C dans F . Par la propriété (F2 ), B ∩ C ∈ F . Ainsi, en posant D = B ∩ C, on a D ∈ F et
D ⊂ B ∩ C. D’où la propriété (B1 ).
• (B2 ) résulte de (F2 ), en considérant le cas d’une intersection vide : cela nous assure que l’ensemble total
X est dans F , donc F = 6 ∅.
• (B3 ) résulte de (F3 ).
Ainsi, F est une base de filtre, et F est clairement le plus petit filtre contenant F !
Par conséquent, F est une base de lui-même .
(c) Soit D un sous-ensemble non vide de P(X) tel qu’aucune intersection d’un nombre fini d’éléments de D ne
soit vide. Soit B constitué de toutes les intersections finies d’éléments de D. Vérifions les propriétés (B1 ) à
(B3 ) pour l’ensemble B.
• Soit B et C dans B. Par définition, il existe des éléments D1 , . . . , Dn et E1 , . . . , Em de D tels que

B = D1 ∩ · · · ∩ Dn et C = E1 ∩ · · · ∩ Em .

Ainsi,
B ∩ C = D1 ∩ · · · ∩ Dn ∩ E1 ∩ · · · ∩ Em ∈ B,

4
en tant qu’intersection finie d’éléments de D. On peut alors poser D = B ∩ C, pour obtenir la propriété
(B1 ). Ce qu’on a fait s’étend aussi aux intersections vides, même si les notations utilisées sont peu
parlantes dans ce cas.
• Puisque D est non vide, il contient un élément D qui est aussi élément de B (intersection à 1 terme).
Donc B =6 ∅, d’où (B2 ).
• Par hypothèse, les intersections finies d’éléments de D sont non vides, d’où ∅ 6∈ B, d’où (B3 ).
Ainsi, B est une base de filtre.
(d) Tout filtre contenant D contient aussi toutes les intersections finies d’éléments de D d’après (F2 ), donc il
contient B, puis le filtre engendré par B (c’est-à-dire FD ) par la propriété de minimalité prouvée en 2(a).
On en déduit que FD est le plus petit filtre contenant tous les éléments de D.
(e) On considère D = F ∪ {A}. Toute intersection finie d’éléments de D est non vide. En effet :
• soit A n’est pas un terme de cette intersection, et on est ramené à (F2 ) nous assurant que l’intersection
est dans F et est donc non vide d’après (F3 ) ;
• soit A est un terme de cette intersection, et en utilisant (F2 ) sur les autres termes, cette intersection
peut s’écrire sous la forme A ∩ F , pour F ∈ F . Par hypothèse, elle est donc non vide.
Ainsi, D vérifie les hypothèses de la question 2(c), et on peut construire un filtre FD contenant les éléments
de D, donc vérifiant A ∈ FD ainsi que F ⊂ FD .
Conclusion : il existe un filtre F ′ , plus fin que F et tel que A ∈ F ′ .
3. Ultrafiltres
(a) Soit F un ultrafiltre et A et B deux sous-ensembles de X. On suppose que C = A ∪ B ∈ F et A 6∈ F .
• Montrons tout d’abord par l’absurde qu’il existe F tel que A ∩ F = ∅. En effet, si ce n’est pas le cas, on
peut construire un filtre F ′ strictement plus fin que F d’après la question 2(e).
• Ainsi, soit F tel que A ∩ F = ∅, alors

B ∩ F = (A ∩ F ) ∪ (B ∩ F ) = (A ∪ B) ∩ F ∈ F ,

la dernière appartenance provenant de F2 . Soit alors G = B ∩ F . On a G ⊂ B et G ∈ F , donc B ∈ F


d’après (F1 ).
On a bien montré que si A ∪ B ∈ F alors A ∈ F ou B ∈ F .
(b) i. Soit F un filtre et A un sous-ensemble de X tel que A 6∈ F . Soit AC son complémentaire dans X.
Soit F ∈ F . Si Ac ∩ F = ∅, alors F ⊂ A, et par (F1 ), cela contredit A 6∈ F . Ainsi, pour tout F ∈ F ,
Ac ∩ F 6= ∅. D’après la question 2(b), il existe un filtre F ′ plus fin que F et contenant Ac . Ce filtre
lui-même est inclus dans un ultrafiltre U d’après la propriété admise.
Ainsi, il existe un ultrafiltre U plus fin que F et contenant Ac .
ii. Soit U (F ) l’ensemble des ultrafiltres plus fins que F . Comme pour tout U ∈ U (F ), on a F ⊂ U, on
obtient la première inclusion : \
F⊂ U.
U ∈U(F )

Pour montrer que cette inclusion est une égalité, on va montrer l’inclusion
 c
\
Fc ⊂  U ,
U ∈U(F )

le complémentaire étant pris dans P(X).


Soit donc A ∈ P(X) tel que A 6∈ F . On a alors, d’après la question précédente, l’existence d’un ultrafiltre
U de U (F ) tel que Ac ∈ U. On ne peut alors pas avoir A ∈ U, sinon, ∅ = A ∩ Ac serait élément de U ce
qui contredit (F3 ). Ainsi, A 6∈ U, donc \
A 6∈ U.
U ∈U(F )

Les deux inclusions étant montrées, on a donc :


\
F⊂ U
U ∈U(F )

5
Partie III – Une caractérisation de la continuité

1. Exemple : cas des fonctions réelles


• Soit f : R → R continue en x ∈ R au sens de l’énoncé. Montrons la caractérisation par ε de la continuité.
Soit ε > 0, et W =]f (x) − ε, f (x) + ε[. Il s’agit d’un ouvert, donc d’un voisinage de tous ses points, donc
notamment de f (x). Par définition de la continuité, il existe donc un voisinage V de x tel que f (V ) ⊂ W .
Par I-4(a), on en déduit l’existence de η > 0 tel que ]x − η, x + η[⊂ V . On a alors

f (]x − η, x + η[) ⊂ f (V ) ⊂ W,

ce qui se réexprime ainsi :

∀y ∈]x − η, x + η[, f (y) ∈]f (x) − ε, f (x) + ε[,

ou encore :
∀y ∈ R, |y − x| < η =⇒ |f (y) − f (x)| < ε .

• Réciproquement, supposons que pour tout ε > 0, il existe η > 0 tel que pour tout y ∈ R,

|y − x| < η =⇒ |f (y) − f (x)| < ε.

Soit alors W un voisinage de f (x). D’après I-4(a), il existe ε > 0 tel que ]f (x) − ε, f (x) + ε[⊂ W . Soit η > 0
associé à cette valeur de ε découlant de la propriété satisfaite par x. Posons alors V =]x − η, x + η[ voisinage
de x. On a alors, pour tout y ∈ V , |y − x| < η, donc |f (y) − f (x)| < ε, donc f (y) ∈]f (x) − ε, f (x) + ε[⊂ V .
On a bien trouvé un voisinage V de x tel que f (V ) ⊂ W .
Ainsi, f est continue en x.
2. Reformulation
• Supposons que f est continue en a ∈ X. Soit alors W un voisinage de f (a). Il existe V un voisinage de x
tel que f (V ) ⊂ W . Ainsi, V ⊂ f −1 (W ). D’après I-4(c), f −1 (W ) est un voisinage de a.
• Réciproquement, supposons que pour tout voisinage W de f (a), f −1 (W ) est un voisinage de a. Soit W un
voisinage de f (a). Posons V = f −1 (W ). Il s’agit d’un voisinage de a, et f (V ) ⊂ W . Donc f est continue en
a.
Ainsi, f est continue en a ssi pour tout voisinage W de f (a), f −1 (W ) est un voisinage de a.
3. Limite d’un filtre
Si un filtre converge vers x, de façon évidente, tout filtre plus fin converge vers x, donc tout ultrafiltre plus
fin. Réciproquement si tout ultrafiltre plus fin que F converge vers x, en reprenant les notations de la fin de la
partie II, \
∀U ∈ U (F ), V(x) ⊂ U donc: V(x) ⊂ U = F,
U ∈U(F )

la dernière égalité découlant de II-3(b).


Ainsi, F converge vers x ssi tout U de U (F ) converge vers x .
4. Caractérisation de la continuité
(a) Soit f : X → Y une application, et B une base de filtre sur X. Montrons que f (B) vérifie les propriétés (B1 )
à (B3 ).
• Soit B et C dans f (B). Il existe B ′ et C ′ tels que B = f (B ′ ) et C = f (C ′ ). Comme B est une base de
filtre, il existe D′ ∈ B tel que D′ ⊂ B ′ ∩ C ′ . On a alors

f (D′ ) ⊂ f (B ′ ∩ C ′ ) ⊂ f (B ′ ) ∩ f (C ′ ),

soit, en posant D = f (D′ ) ∈ f (B), D ⊂ B ∩ C. D’où (B1 )


• Comme B = 6 ∅, il existe B ∈ B, donc f (B) ∈ f (B). Ainsi, f (B) 6= ∅, d’où (B2 ).
• Enfin, pour tout B ∈ f (B), il existe B ′ ∈ B tel que B = f (B ′ ). Comme B est une base de filtre, B ′ est
non vide, donc aussi f (B ′ ) (qui contient au moins f (x), pour un x de B).
Ainsi, f (B) est une base de filtre sur Y .

6
(b) Soit X et Y deux espaces topologiques, a ∈ X, et f : X → Y . Soit f une fonction continue en a, et B une
base de filtre convergeant vers a. Montrons que f (B) converge vers f (a), donc que tout voisinage W de f (a)
appartient au filtre engendré par f (B). Or, par continuité, il existe V un voisinage de a tel que f (V ) ⊂ W .
Comme B converge vers a, V est dans le filtre engendré par B. Autrement dit, il existe B ∈ B tel que B ⊂ V .
On a alors f (B) ⊂ f (V ) ⊂ W . Or, f (B) ∈ f (B), donc par définition, W est dans le filtre engendré par f (B).
Ceci étant vrai pour tout voisinage W de f (a) on en déduit que f (B) converge vers f (a).
(c) Récirproquement, supposons que f n’est pas continue en a, et montrons qu’il existe un ultrafiltre F conver-
geant vers a tel que f (F ) ne converge pas vers a (contraposée de la propriété de l’énoncé).
Puisque f n’est pas continue en a, il existe un voisinage W de f (a) tel que f −1 (W ) ne soit pas voisinage
de a (d’après la question 2). Ainsi, f −1 (W ) 6∈ V(a), et d’après la question II-3(b), il existe F un ultrafiltre
plus fin que V(a) et contenant (f −1 (W ))c . On a alors

f (f −1 (W )c ) ⊂ W c , donc: f (f −1 (W )c ) ∩ W ⊂ W c ∩ W = ∅.

Ainsi, W et f (f −1 (W )c ) ne peuvent pas être simultanément dans le filtre F ′ engendré par f (F ) (cela
contredirait (F1 ) et (F3 )). Or, comme f −1 (W )c ∈ F , f (f −1 (W )c ) ∈ f (B) ⊂ F ′ . Ainsi, W n’est pas dans
F ′ . Comme W est un voisinage de f (a), on en déduit que F ′ n’est pas plus fin que V(f (a)), donc que f (B)
ne converge pas vers f (a).
Par conséquent, si pour tout ultrafiltre F convergeant vers a, f (F ) converge vers f (a), alors f est continue en a .

7
Lycée Louis-Le-Grand, Paris
MPSI 4 – Mathématiques
A. Troesch

Problème no 1 : Ensembles, relations

Correction du problème 1 – Équivalence entre l’axiome du choix et le lemme de Zorn

Partie I – Préliminaire sur les bonnes chaînes

1. • I est un sous-ensemble d’un ensemble totalement ordonné C, donc il est aussi totalement ordonné. Ainsi, I
est une chaîne de E : I ∈ C.
• I étant un segment initial de C, I 6= C, donc il existe M ∈ C \ I. Par définitiond’un segment initial, M est
un majorant de I. Puisque M 6∈ I, on peut conclure que I ∈ C0 .
2. Soient C1 et C2 deux bonnes chaînes distinctes et x ∈ C1 ∩ C2 .
(a) • Puisque x 6∈ Jx , et x ∈ C1 , on a une inclusion stricte C1 ∩ Jx ⊂ C1 .
• Soit y ∈ C1 tel que y 6∈ C1 ∩ Jx . Alors pour tout z ∈ C1 ∩ Jx , on a z 6 y. En effet, C1 étant une chaîne,
donc totalement ordonné, si ce n’était pas le cas, on aurait y < z, et comme z < x, par transitivité,
y < x ; cela contredit y 6∈ C1 ∩ Jx . Ainsi y est un majorant de C1 ∩ Jx
• On peut donc conclure que C1 ∩ Jx est un segment initial de C1 .
(b) On suppose que C1 ∩ Jx est un segment initial de C2 .
• On a alors C1 ∩ Jx ∈ C0 d’après la question 1.
• Comme C1 ∩ Jx est segment initial de C2 et que la chaîne C2 est bonne, m(C1 ∩ Jx ) ∈ C2 . De
même, C1 ∩ Jx est segment initial de C1 (question 2a), qui est bonne, donc m(C1 ∩ Jx ) ∈ C1 . Ainsi,
m(C1 ∩ Jx ) ∈ C1 ∩ C2 .
• Par définition d’une bonne chaîne, m(C1 ∩Jx ) est le minimum de C1 \(C1 ∩Jx ). Comme x ∈ C1 \(C1 ∩Jx ),
on a en particulier m(C1 ∩ Jx ) 6 x.
Par ailleurs, si m(C1 ∩Jx ) < x, on aurait m(C1 ∩Jx ) ∈ C1 ∩Jx , ce qui contredit la définition de m(C1 ∩Jx )
(majorant strict de C1 ∩ Jx ).
Ainsi, m(C1 ∩ Jx ) = x.
(c) Supposons que C1 ∩ Jx soit un segment initial de C2 .
• Alors, puisque C2 est une bonne chaine, m(C1 ∩ Jx ) est le minimum de C2 \ (C1 ∩ Jx ). Étant donné un
élément y ∈ C2 ∩ Jx , on a alors nécessairement y ∈ C1 . En effet, si ce n’était pas le cas, on aurait y ∈ C2 ,
y 6∈ C1 ∩ Jx et :
y < x = m(C1 ∩ Jx ).

Ceci contredit la minimalité de m(C1 ∩ Jx ) dans C2 \ (C1 ∩ Jx ), provenant du fait que C2 est une bonne
chaîne.
On en déduit que C2 ∩ Jx ⊂ C1 , puis C2 ∩ Jx ⊂ C1 ∩ Jx .
• L’inclusion réciproque est évidente, puisque le fait que C1 ∩ Jx soit segment initial de C2 implique en
particulier l’inclusion C1 ∩ Jx ⊂ C2 .
• Les deux inclusions amènent l’égalité C1 ∩ Jx = C2 ∩ Jx .
(d) Les deux propriétés étant obtenues l’une de l’autre en échangeant le rôle de C1 et C2 , on peut se contenter
de montrer une implication. Supposons donc que C1 ∩ Jx est un segment initial de C2 . Alors, d’après la
question précédente, C1 ∩ Jx = C2 ∩ Jx . Or, C1 ∩ Jx est un segment initial de C1 (question 2a), donc C2 ∩ Jx
est un segment initial de C1 .
Ainsi, on a bien montré l’ équivalence entre (i) et (ii) .

1
3. (a) Soit x ∈ C ∗ et z ∈ C1 tel que z < x. La question 2a a été résolue sous la seule hypothèse que C1 était une
chaîne (onne s’était pas servi du fait que cette chaîne était bonne). Ainsi, on peut appliquer cette question
à la chaîne C1 ∩ Jx : C1 ∩ Jx ∩ Jz est segment initial de C1 ∩ Jx . Or, l’inégalité z < x amène de façon
immédiate Jz ⊂ Jx , donc C1 ∩ Jx ∩ Jz = C1 ∩ Jz .
Ainsi, C1 ∩ Jz est segment initial de C1 ∩ Jx , lui-même segment initial de C2 . On utilise pour terminer le
lemme suivant, assez évident, mais que nous démontrons tout de même :

Lemme : Si I est segment initial de J et J est segment initial de K, alors I est segment initial de K
(autrement dit, la relation « être segment initial de » est transitive ; il s’agit même d’une relation d’ordre
stricte).

Démonstration : Soit I un segment initial de J, lui-même segment initial de K. Alors I ⊂ J ⊂ K, chacune


de ces inclusions étant stricte. On en déduit que I ⊂ K, l’inclusion étant stricte. Par ailleurs, étant donné
y ∈ K \ I, si y ∈ J, comme I est segment initial de J, y majore J. Sinon, y ∈ K \ J, et comme J est segment
initial de K, y majore J, et donc aussi I, puisque I ⊂ J. On en déduit le lemme.

On peut donc conlure que sous les hypothèses de la question C1 ∩ Jx est un segment initial de C2 .
(b) Par définition, on a une inclusion stricte C ∗ ⊂ C1 . Par ailleurs, étant donné z ∈ C1 \ C ∗ , on montre par
l’absurde que z majore C ∗ . Si ce n’est pas le cas, il existe x ∈ C ∗ tel que z < x, et la question 3a montre
qu’alors C1 ∩ Jz est un segment initial de C2 . Par ailleurs, puisque z < x, z ∈ Jx , puis z ∈ C1 ∩ Jx . Ce
dernier ensemble est un segment initial de C2 , car x ∈ C ∗ . On en déduit que z ∈ C2 . Ainsi, z ∈ C1 ∩ C2 ,et
C1 ∩ Jz est un segment initial de C2 . Cela prouve que z ∈ C ∗ , d’où une contradiction.
Par conséquent, tout z ∈ C1 \C ∗ est un majorant de C ∗ . Cela prouve bien que C ∗ est un segment initial de C1 .
4. Supposons que C ∗ 6= C2 . Commençons par montrer que C ∗ est un segment initial de C2 . Si ce n’est pas le cas,
il existe y ∈ C2 \ C ∗ et z ∈ C ∗ tel que y < z. Or par définition de C ∗ , C1 ∩ Jz est un segment initial de C2 ,
et donc, d’après 2d, C2 ∩ Jz est un segment initial de C1 . En particulier, y ∈ C2 ∩ Jz , donc y ∈ C1 . On a donc
y ∈ C1 ∩ C2 , et d’après l’argument utilisé en 3(a), l’inégalité y < z permet de montrer que C1 ∩ Jy est aussi un
segment initial de C1 . Ainsi, y ∈ C ∗ , d’où une contradiction.
Puisque C ∗ est un segment initial de la bonne chaîne C2 , on a m(C ∗ ) ∈ C2 . De même, C ∗ étant un segment initial
de la bonne chaîne C1 , on a m(C ∗ ) ∈ C1 . Donc m(C ∗ ) ∈ C1 ∩ C2 . Par ailleurs, C ∗ = C1 ∩ Jm(C ∗ ) (l’inclusion
directe est immédiate, et si elle n’est pas une égalité, on peut trouver un élément dans C1 , strictement plus petit
que m(C ∗ ), qui majore C ∗ , ce qui contredit la définition de m(C ∗ )). Ainsi, C1 ∩ Jm(C ∗ ) est un segment initial
de C2 , d’après la première partie de la preuve. Par définition, cela signifie que m(C ∗ ) ∈ C ∗ , ce qui contredit la
définition de m(C ∗ ) (qui doit être un majorant strict de C ∗ ).
Ainsi, l’hypothèse initiale est fausse. Nous avons donc C ∗ = C2 .
Ainsi, on a montré qu’étant données deux bonnes chaînes C1 et C2 distinctes, l’une est segment initial de l’autre.
Remarquez que l’argument qu’on a donné cache quelque part le fait que deux bonnes chaînes non vides ne sont jamais
disjointes. En effet, m(∅) appartient aux deux chaînes. Cet argument apparaît de façon détournée dans la question 4
(avec la possibilité que C ∗ = ∅, qui nous fait alors considérer m(∅)).

Partie II – L’axiome du choix implique le lemme de Zorn

1. Soient x et y dans C. Alors il existe deux bonnes chaînes C1 et C2 telles que x ∈ C1 et y ∈ C2 . D’après la
partie I, on a soit C1 ⊂ C2 , soit C2 ⊂ C1 . On a alors soit (x, y) ∈ C22 , soit (x, y) ∈ C12 . Comme C1 et C2 sont
des ensembles totalement ordonnés, x et y sont comparables. Ainsi, C est totalement ordonné .
2. Soit C ∈ B, C 6= C. Si C n’est pas un segment initial de C, il existe x ∈ C et y ∈ C \ C tel que y < x. Soit
D une bonne chaîne telle que y ∈ D, et soit B = C ∪ D, égal soit à C soit à D (car de ces bonnes chaînes,
l’une est incluse dans l’autre). Ainsi, B est une bonne chaîne soit égale à C, soit contenant C comme segment
initial. Ainsi, C ′ = C ∩ Jx étant segment initial de C (I-2a), il est aussi segment initial de B (soit directement,
soit par utilisation du lemme donné en I-3a).
Comme C est une bonne chaîne, m(C ′ ) ∈ C, et m(C ′ ) est le minimum de C \ C ′ . Ainsi, m(C ′ ) = x (voir
argument donné en I-2b). Mais B étant aussi une bonne chaîne, m(C ′ ) est aussi le minimum de B \ C ′ . Ceci

2
contredit le fait que
y ∈ B \ C′ et y < x = m(C ′ ).

Ainsi, C est un segment initial de C.


3. Réciproquement, soit I un segment initial de C.
(a) Comme I est inclus strictement dans C, il existe x ∈ C \ I. Soit un tel x. Comme I est segment initial, x
est un majorant (strict) de I. Comme x ∈ C, il existe une bonne chaîne C0 telle que x ∈ C0 . Alors, d’après
ce qui précède, C0 est un segment initial de C. En particulier, C0 contient tout ydeC tel que y < x. Ceci
implique I ⊂ C0
(b) Soit J un segment initial de I. Alors d’après le lemme de I-3a, J est segment initial propre de C0 , qui est
une bonne chaîne. Ainsi, m(J) ∈ C0 , et m(J) est le minimum de C0 \ J. Alors m(J) est nécessairement
aussi le minimum de I \ J. En effet, sinon, puisque I ⊂ C0 , la minimalité de m(J) montrerait que pour tout
x ∈ I \ J (ensemble non vide), on aurait x > m(J). En particulier, cela impliquerait m(J) ∈ C0 \ I, puis
cela engendrerait une contradiction avec le fait que I est un segment initial de C0 .
Ainsi, tout segment initial J de I vérifie m(J) = min(I \ J). On en déduit que I est une bonne chaîne.
4. Soit I un segment initial de C. Alors I est une bonne chaîne. Soit x ∈ C \ I (possible car I 6= C). Alors il existe
C une bonne chaîne contenant x. I ne peut pas contenir C (à cause de x), donc d’après la partie I, I ⊂ C, et
même, I est un segment initial de C.
Comme C est une bonne chaîne, on peut en conclure que m(I) ∈ C ⊂ C.
Par ailleurs, m(I) est le minimum de C \ I, et C étant un segment initial de C (II-2), cela implique que m(I)
est aussi minimum de C \ I.
Ainsi, C est une bonne chaîne.
5. On suppose que C ∈ C0 , et on considère C ′ = C ∪ {m(C)}. Soit alors I un segment initial de C ′ . Comme m(C)
est le maximum de C ′ , on a soit I = C (et dans ce cas m(I) = m(C) = min(C ′ \ C)), soit I est un segment
initial de C, donc m(I) est le minimum de C \ I, donc aussi de C ′ \ I, puisqu’on passe d’un ensemble à l’autre
par ajout d’un élément strictement plus grand que les autres.
Ainsi, C ′ est une bonne chaîne.
Or C est contenu strictement dans C ′ , ce qui contredit la définition de C comme union de toutes les bonnes
chaînes (en particulier, C contient toutes les bonnes chaînes.
Ainsi, l’hypothèse initiale est fausse, et on en déduit que C 6∈ C0 , soit, puisqu’il s’agit d’une chaîne, C ∈ C \ C0 .
6. Puisque E est inductif, C admet un majorant. Ce majorant ne peut pas être strict puisque C 6∈ C0 Ainsi, ce
majorant est un élément de C. On vient de montrer que C admet un maximum M .
Ce maximum est nécessairement un élément maximal de E. En effet, sinon, il existerait M ′ > M dans E. Un
tel M ′ serait un majorant strict de C, ce qui est impossible.
On a bien prouvé l’existence d’un élément maximal dans E, d’où le lemme de Zorn.
7. L’axiome du choix a été utilisé pour construire la fonction m, puisqu’on choisit simultanément, pour toute
chaîne de C0 , un élément dans l’ensemble des majorants de cette chaîne.

Partie III – Le lemme de Zorn implique l’axiome du choix

1. • Soit g ∈ C. Alors g est définie sur J ⊂ I, et J vérifie J ⊂ J et g|J = g. Ainsi, g  g


• Soient g et h dans C tels que g  h et h  g, et J et K leurs domaines respectifs. On a alors J ⊂ K et
K ⊂ J, d’où J = K, et par conséquent g = g|K = h. D’où l’antisymétrie de .
• Soient g, h et k de domaines respectifs J, K et L tels que g  h  k. On a alors J ⊂ K ⊂ L, donc J ⊂ L,
et k|J = (k|K )|J = h|J = g. Donc g  k, d’où la transitivité de 
• La relation  étant reflexive, antisymétrique et transitive,  une relation d’ordre sur C.
2. Soit g un élément maximal de domaine J strictement inclus dans I. On peut choisir i ∈ I \ J (choix d’un
élément dans un ensemble non vide, ne dépend donc pas de l’axiome du choix). On peut alors choisir un

3
élément quelconque ai de Ai (à nouveau, choix d’un élément dans un ensemble non vide, cela ne dépend pas
de l’axiome du choix). On peut alors construire h sur J ∪ {i} par :

h(j) = g(j) si j ∈ J et h(i) = ai .

h est bien une fonction de choix partielle de domaine J ∪ {i}, et de façon évidente, g  h, et g 6= h. Ainsi, g
n’est pas un élément maximal.
Par conséquent, un élément maximal de (C, ) est de domaine I. Une autre façon d’exprimer cela est de dire
qu’une fonction de choix partielle maximale est une fonction de choix (totale).
3. Soit D ⊂ C une chaîne de C, c’est-à-dire un sous-ensemble totalement ordonné. On note pour tout g ∈ D, Ig le
domaine de g. On définit alors une fonction f en commençant par définir son domaine :
[
If = Ig .
g∈D

On remarque ensuite que si i ∈ If appartient à la fois à Ig et Ih , pour g, h ∈ D, alors, D étant totalement


ordonné, on a g  h ou h  g, disons g  h pour se fixer les idées. Alors Ig ⊂ Ih , et g et h coïncident sur Ig .
Par conséquent g(i) = h(i). Ainsi, toutes les fonctions de D définies au point i prennent en ce point la même
valeur. On définit alors f (i) comme étant la valeur commune de ces g(i).
Chaque Ig étant sous-ensemble de I, il en est de même de If . De plus, pour tout i ∈ If , il existe g ∈ D tel que
f (i) = g(i) et g(i) ∈ Ai par définition. On a donc bien, pour tout i ∈ If f (i) ∈ Ai , et par conséquent, f est
bien une fonction de choix partielle, c’est-à-dire un élément de C.
Enfin, on a alors de façon évidente, pour tout g ∈ D, g  f . Ainsi, f est un majorant dans C de D.
On a donc montré que toute chaîne de C admet un majorant, ce qui signifie bien que C est inductif .
4. Puisque C est inductif, il admet un élément maximal d’après le lemme de Zorn. D’après la question 2, cet
élément maximal est une fonction de choix. On a bien prouvé l’axiome du choix .
En déduire l’axiome du choix.

4
Lycée Louis-Le-Grand, Paris
MPSI 4 – Mathématiques
A. Troesch

Problème no 3 : Réels

Correction du problème 1 – (Inégalités classiques)

Partie I – Convexité

1. Soit (x, y) ∈ I 2 tel que x < y.


• Soit z ∈]x, y[. Effectuons une analyse synthèse pour trouver λ convenable.
∗ Analyse : Si λ est un réel de ]0, 1[ vérifiant z = λx + (1 − λ)y, on a z = y − λ(y − x), donc :
y−z
λ= ,
y−x
ce qui est licite puisque x 6= y.
y−z
∗ Synthèse : posons λ = . Comme z ∈]x, y[, y − z ∈]0, y − x[, donc λ ∈]0, 1[. De plus,
y−x

x(y − z) y(y − x − y + z) z(y − x)


λx + (1 − λ)y = + = = z.
y−x y−x y−x
Ainsi, λ répond au problème.
Par conséquent, tout z ∈]x, y[ s’écrit sous la forme z = λx + (1 − λ)y, λ ∈]0, 1[.
• Réciproquement, si λ ∈]0, 1[, on a 1 − λ ∈]0, 1[ aussi, et donc, puisque x < y :

x = λx + (1 − λ)y < λx + (1 − λ)y < λy + (1 − λ)y = y.

Ainsi, tout réel de la forme λx + (1 − λ)y, pour λ ∈]0, 1[, est dans ]x, y[ .
2. Pour écrire la somme sous la forme décrite dans l’énoncé, il suffit de sortir le terme λn xn de la somme. On a
alors :
Xn n−1
X
λk xk = λn xn + λk xk = λn xn + (1 − λn )yn ,
k=1 k=1


n−1
X λk
yn = xk .
1 − λn
k=1

Appliquer l’inégalité de convexité, amène alors :


n
! n−1
!
X X λk
f λk xk 6 λn xn + (1 − λn )f xk .
1 − λk
k=1 k=1

Pour pouvoir continuer la majoration, il faudrait donc utiliser la propriété de convexité généralisée (l’inégalité
qu’on est en train de montrer) pour une somme de n − 1 termes. Cela nous incite donc à construire une
récurrence.
Procédons donc par récurrence sur n > 2 pour montrer que pour tout (x1 , . . . , xn ) ∈ I n et tout (λ1 , . . . , λn ) ∈
Xn
]0, 1[n tels que λi = 1, on a
k=1 !
Xn Xn
f λk xk 6 λk f (xk ).
k=1 k=1

• Pour n = 2, il s’agit de l’inégalité de convexité, vérifiée par hypothèse, f étant supposée convexe.

1
• Soit n > 3, et supposons que la propriété est vraie pour une somme de n − 1 termes. Soit alors (x1 , . . . , xn )
n
une famille de réels, et (λ1 , . . . , λn ) ∈]0, 1[n tels que λk = 1. On a alors, d’après le calcul ci-dessus :
P
k=1

n
! n−1
!
X X λk
f λk xk 6 λn f (xn ) + (1 − λn )f xk .
1 − λk
k=1 k=1

λk
Soit pour tout k ∈ [[0, 1]], λ′k = . Pour pouvoir utiliser la propriété au rang n − 1, il est indispensable
1 − λk
de vérifier que la famille (λ1 , . . . , λn−1 ) vérifie les propriétés requises. N’oubliez pas de le faire !
On a :
n−1 n−1
X 1 X
λ′k = λk .
1 − λn
k=1 k=1
n
X n−1
X
Comme λk = 1, on obtient λk = 1 − λn , donc
k=1 k=1

n−1
X
λ′k = 1.
k=1

Par ailleurs, 1 − λn > 0, donc pour tout k ∈ [[1, n − 1]], λ′k > 0. Enfin, puisque n > 3, et puisque
n−1
X
1 − λn = λk ,
k=1

on a aussi, pour tout k ∈ [[1, n − 1]], λk < (1 − λn ) (car il y a plusieurs termes strictement positifs dans cette
somme, donc chacun est strictement plus petit que la somme totale), donc λ′k < 1.
Ces vérifications étant faites, on peut appliquer l’hypothèse de récurrence, qui amène :
n
! n−1 n−1 n
X X X X
f λk xk 6 λn f (xn ) + (1 − λn ) λ′k f (xk ) = λn f (xn ) + λk f (xk ) = λk f (xk ).
k=1 k=1 k=1 k=1

On a bien obtenu la propriété au rang n.


• Ainsi, d’après le principe de récurrence, pour tout n > 2, pour tout (x1 , . . . , xn ) ∈ I n , et pour tout
(λ1 , . . . , λn ) ∈]0, 1[n de somme égale à 1, on a :

n
! n
X X
f λk xk 6 λk f (xk ).
k=1 k=1

3. (a) Soit f et g deux fonctions convexes sur un intervalle I. Soit (x, y) ∈ I 2 , et λ ∈]0, 1[. On a alors :

(f + g)(λx + (1 − λ)y) = f (λx(1 − λ)y) + g(λx + (1 − λ)y) 6 λf (x) + (1 − λ)f (y) + λg(x) + (1 − λ)g(y),

par convexité de f et g. En regroupant les termes, il vient donc :

(f + g)(λx + (1 − λ)y) 6 λ(f + g)(x) + (1 − λ)(f + g)(y).

Ainsi, f + g est convexe sur I .


En changeant toutes les inégalités, on obtient de même que la somme de deux fonctions convaves est concave .
(b) Soit (x, y) ∈ I 2 et λ ∈]0, 1[. On a alors, par convexité de f :

f (λx + (1 − λ)y) 6 λf (x) + (1 − λ)f (y).

La croissance de g permet d’appliquer g à cette inégalité :

g(f (λx + (1 − λ)y) 6 g(λf (x) + (1 − λ)f (y)) 6 λg(f (x)) + (1 − λ)g(f (y)),

la seconde inégalité découlant de la convexité de g. Ainsi, g ◦ f est convexe .

2
 
2 x+y
4. Soit f une fonction continue sur un intervalle I, à valeurs dans R, telle que pour tout (x, y) ∈ I , f 6
2
1
(f (x) + f (y)).
2
(a) Pour n = 1, il s’agit de la propriété satisfaite par f par hypothèse.
n
Soit n > 1, tel que pour tout (y1 , . . . , y2n ) ∈ I 2 , on ait :
2n 2n
!
1 X 1 X
f xk 6 n f (xk ).
2n 2
k=1 k=1
n+1
Considérons une famille (x1 , . . . , x2n+1 ) ∈ I 2 . On a alors, en groupant les termes en deux paquets de
cardinal 2n pour utiliser la propriété satisfaite par f , puis en appliquant l’hypothèse de récurrence à chaque
terme obtenu :
 n+1
   
2X 2n n+1
2X
1 1 1 X 1
f  n+1 xk  = f   n xk + n xk 
2 2 2 2 n
k=1 k=1 k=2 +1
n
2 2n
! !!
1 1 X 1 X
6 f xk + f xk+2n
2 2n 2n
k=1 k=1
2n 2n
!
1 1 X 1 X
6 f (xk ) + n f (xk+2n )
2 2n 2
k=1 k=1
n+1
2X
1
= f (xk )
2n+1
k=1

Ceci nous donne bien notre propriété au rang n + 1.


n
Ainsi, d’après le principe de récurrence, pour tout n > 1, et tout (x1 , . . . , x2n ) ∈ I 2 , on a :
n n
2 2
!
1 X 1 X
f xk 6 n f (xk ) .
2n 2
k=1 k=1

(b) Soit (x, y) ∈ I 2 et (p, n) ∈ (N∗ )2 tel que p − 2n . On pose x1 = · · · = xp = x et xp+1 = · · · = x2n . On a alors
n n
2
X 2
X
n
xk = px + (2 − p)y et f (xk ) = pf (x) + (2n − p)f (y).
k=1 k=1

L’inégalité de la question précédente, appliquée à la famille (x1 , . . . , x2n ), amène donc :

px + (2n − p)y 2n − p
 
p
f 6 f (x) + f (y) .
2n 2n 2n

(c) Soit x < y dans ]0, 1[. Soit n tel que 2−n < y − x. La propriété d’Archimède nous assure de l’existence d’un
entier q ∈ N∗ tel que q2−n > x. La propriété fondamentale de N nous permet de considérer p, le plus petit
entier pour lequel cette propriété est vérifiée. On a alors p2−n > x, et (p − 1)2−n 6 x, donc

p2−n + 6 x + 2−n < x + y − x = y


p
Ainsi, x < n < y et comme 2pn ∈ E, cela prouve bien la densité de E dans ]0, 1[ (en effet, comme y < 1,
2
p < 2n ce qui nous assure bien l’appartenance à E).
(d) Il s’agit ici de caractériser la densité par la convergence de suites. Soit λ ∈]0, 1[. Par densité de E, pour tout
n ∈ N, il existe λn ∈ E∩]λ − 21n , λ + 21n [. On a donc une suite (λn )n∈N d’éléments de E telle que λn → λ
(d’après le théorème d’encadrement).
(e) On admet, conformément à l’énoncé, que la continuité de f permet de passer à la limite sous la fonction f .
Soit (x, y) ∈ I 2 , λ ∈]0, 1[, et (λn )n∈N une suite d’éléments de E telle que λn → λ, comme dans la questino
précédente. D’après la question 4(b), on a alors, pour tout n ∈ N :

f (λn x + (1 − λn )y) 6 λn f (x) + (1 − λ)f (y).

3
En passant à la limite dans cette inégalité, et d’après la propriété admise pour la fonction continue f , il
vient :
f (λx + (1 − λ)y) 6 λf (x) + (1 − λ)f (y).

Cette inégalité prouve la convexité de f .

Partie II – Exemples de fonctions convexes ou concaves

1. Il s’agit donc de montrer que les deux inégalités sont satisfaites, autrement dit qu’on a ici l’égalité. Or, pour
tout (x, y) ∈ R et λ ∈]0, 1[,

f (λx + (1 − λ)y) = a(λx + (1 − λ))x + b = λ(ax + b)(1 − λ)(ax + b) = λf (x) + (1 − λ)f (y).

Cette égalité montre que f : x 7→ ax + b est concave et convexe sur R.


2. Soit p ∈ N∗ et fp : x 7→ xp , définie sur R+ .
(a) En utilisant la symétrie des coefficients binomiaux, il vient :
 
⌊X2⌋ 
p
⌊X
2⌋ 
p
⌊X2⌋
p

p 1 p p
=  +

k 2 k p−k

k=0 k=0 k=0
 
⌊ p2 ⌋   n  
1 X p X p 
=  +
2 k k

k=0 k=p−⌊ p 2⌋
 
⌊X2⌋ 
p
n  
1 p X p 
=  +
2 k k

k=0 k=⌈ 2 ⌉
p

Or, si n est impair, p2 = p2 + 1, et les sommes se recollent bien. En revanche si p est pair, p2 = p2 , et
       

on a un doublon dans ces deux sommes. Ainsi :


• Si p est impair :
⌊X
2⌋  
p
p   2⌋  
⌊X
p

p 1X p p
= soit: = 2p−1 ;
k 2 k k
k=0 k=0 k=0

• Si p est pair :

⌊X
2⌋ 
p
p    ! ⌊X
2⌋ 
p
 
p 1 X p p p 1 p
= + p , soit: = 2p−1 + .
k 2 k 2 k 2 p2
k=0 k=0 k=0

(b) Soit (x, y) ∈ (R∗+ )2 , et k ∈ [[0, p]]. On a :

xp + y p − (xk y p−k + xp−k y k ) = xk (xp−k − y p−k ) + y k (y p−k − xp−k ) = (xk − y k )(xp−k − y p−k ).

Comme x 7→ xk et x 7→ xp−k sont toutes deux croissantes sur R∗+ , les deux termes de ce produit sont de
même signe, d’où :
xp + y p > xk y p−k + xp−k y k

(c) D’après la formule du binôme,


p  
p
X k
(x + y) = xk y p−k .
p
k=0

Regroupons les termes deux par deux en utilisant la symétrie des coefficients binomiaux. Cela nécessite
comme ci-dessus une discussion sur la parité de p, pour gérer l’éventuel terme isolé lorsque p est pair.

4
• Si p est pair,
p
2 −1
   
p
X p p p p
(x + y) = (xk y n−k + xn−k y k ) + p x 2 y 2
k 2
k=0
p
2 −1    
p p
X p 1 p p p p p
6 (x + y ) + (x 2 y 2 + x 2 y 2 )
k 2 p2
k=0
p
2 −1
X p  
p p 1 p p p
6 (x + y ) + (x + y )
k 2 p2
k=0
  
2⌋ 
⌊X
p
 
p  1 p 
= (xp + y p )  −

k 2 p2

k=0
    
1 p 1 p
= (xp + y p ) 2p−1 + − = 2p−1 (xp + y p ).
2 p2 2 p2
• Si p est impair, les calculs sont plus directs, puisqu’il n’y a pas de terme isolé :
⌊X
2⌋  
p

p p
(x + y) = (xk y n−k + xn−k y k )
k
k=0

2⌋ 
⌊X
p

p p p
6 (x + y ) = 2p−1 (xP + y p ),
k
k=0

d’après la question 2(a).


Ainsi dans les deux cas, (x + y)p 6 2p−1 (xp + y p ).
(d) Par conséquent, pour tout p ∈ N∗ , et tout (x, y) ∈ R+ , on obtient, en divisant l’inégalité précédente par 2p :
p
xp + y p
  
x+y x+y fp (x) + fp (y)
6 soit: fp 6 .
2 2 2 2

D’après la question I-4, fp étant de plus continue, on en déduit que fp est convexe .
3. On fixe x et y deux réels strictement positifs tels que x < y. On considère la fonction f de la variable t définie
pour tout t ∈ [0, 1] par :
f (t) = ln(tx + (1 − t)y) − t ln(x) − (1 − t) ln(y).
(a) La fonction f est dérivable sur [0, 1] de la variable t, et, en utilisant la règle de dérivation d’une composée
(ici, composée par une fonction affine), on obtient
x−y (x − y) − y(ln(x) − ln(y)) + t(y − x)(ln(x) − ln(y))
∀t ∈ [0, 1], f ′ (t) = − (ln(x) − ln(y)) = .
tx + (1 − t)y tx + (1 − t)y
Le dénominateur est toujours strictement positif (car d’après la question I-1, il est toujours dans [x, y]), et
le numérateur est une fonction affine de coefficient directeur non nul (car x 6= y), donc s’annule exactement
une fois sur R, donc au plus une fois sur [0, 1]. Ainsi, f ′ s’annule au plus une fois sur [0, 1] .
(b) Si f ′ ne s’annule pas sur [0, 1], alors f ′ étant continue, elle garde un signe constant strict, donc f serait
strictement monotone, ce qui contredit f (0) = f (1) = 0. Donc f ′ s’annule exactement une fois sur [0, 1], en
un t0 qu’on peut expliciter, mais c’est sans intérêt.
Le coefficient dominant de la fonction affine égal au numérateur de f ′ ci-dessus étant négatif (car y − x et
ln(x) − ln(y) sont de signe opposé, par croissance de ln), on en déduit le signe de f ′ puis les variations de f :

x 0 t0 1

f ′ (x) + 0 −

f (t0 )
f (x)
0 0

5
Ainsi, les variations de f montrent que pour tout t ∈ [0, 1], f (t) > 0, donc

ln(tx + (1 − t)y) > t ln(x) + (1 − t) ln(y).

Ceci prouve bien la concavité de ln .

Partie III – Inégalités classiques

1. Comparaison des moyennes


(a) Pour tout (x1 , . . . , xn ) ∈ (R∗+ )n par concavité du logarithme, et d’après l’inégalité de la question I-2 (pour les
fonctions concaves, l’inégalité est dans l’autre sens, il suffit d’appliquer la question I-2 à la fonction convexe
−f ), en choisissant les coefficients λi tous égaux à n1 , il vient :
n
! n
1X 1X
ln xi > ln(xi ).
n n
k=1 k=1

En appliquant l’exponentielle, croissante, il vient :


n P
n ! n1 n
! n1 n
! n1
1X ln(xi ) Y Y
xi > ek=1 = eln(xi ) = xi .
n
k=1 k=1 k=1

Nous avons bien obtenu la comparaison des moyennes arithmétique et géométrique :

n n
! n1
1X Y
∀(x1 , . . . , xn ) ∈ (R∗+ )n , xk > xk .
n
k=1 k=1

 
1 1
(b) En appliquant l’inégalité précédente à (x1 , . . . , xn ) = y1 , . . . , yn , pour tout (y1 , . . . , yn ) ∈ (R∗+ )n :

n
! n1 n n
! n1
Y 1 1X 1 Y n
0< 6 donc: yk > n .
yk n yk X 1
k=1 k=1 k=1
yk
k=1

2. Inégalité de Cauchy-Schwarz et inégalité de Hölder


(a) Suivant l’indication, on considère une famille (λ1 , . . . , λn ) de réels de somme 1, qu’on déterminera plus
précisément plus tard, et on applique la convexité de la fonction carré avec cette famille de scalaire et les
xi
yi :
n
!2 n
X xk X x2
λk 6 λi 2i .
yk yi
k=1 k=1

Comme à gauche, on veut récupérer la somme des xi yi , il faudrait que les λi aient un facteur yi2 . Cela permet
aussi de faire partir le terme yi2 du terme de droite. On ne peut par prendre pour λi directement la famille
des yi2 , car il n’y a pas de raison que cette famille vérifie les hypothèses requises. En revanche, on peut la
normaliser, en divisant par la somme. On définit donc :
yk2
∀k ∈ [[1, n]], λk = P
n .
2
yi
i=1

Cette famille vérifie clairement λk ∈]0, 1[ (car les yi ont été supposés strictement positifs, et quye la somme
Xn
comprend au moins deux termes, puisque n > 2), et la normalisation effectuée nous assure que λk = 1.
k=1
Ainsi, l’inégalité obtenue ci-dessus devient :
 2
n n
X xk yk  X x2k

 n
 6
 n .
yi2 yi2
P P
k=1 k=1
i=1 i=1

6
 n
2
On peut alors multiplier par yi2 :
P
i=1

n
!2 n
! n
!
X X X
xk yk 6 x2k yk2 .
k=1 k=1 k=1

Enfin, en prenant la racine (toutes les quantités étant positives) :


v v
n
X
u n u n
uX uX
xk yk 6 t x2k t yk2
k=1 k=1 k=1

(b) Si certains xi ou yi sont nuls, on enlève tous les indices tels que xi yi = 0. Plus précisément, soit I ⊂ [[1, n]]
le sous-ensemble des indices i tels que xi yi 6= 0 (les xi et yi étant toujours supposés positifs ou nuls dans
un premier temps). On applique alors l’inégalité en se restreignant à une sommation sur I (l’inégalité
reste valable pour une sommation sur un ensemble fini quelconque, il suffit pour le prouver de faire une
numérotation des éléments de I). On a alors :
v v
Xn X sX sX u n u n
uX uX
xk yk = xk yk 6 x2k yk2 6 t x2k t yk2 ,
k=1 k∈I k∈I k∈I k=1 k=1

les termes qu’on ajoute à la dernière étape étant positifs.


Ainsi, l’inégalité reste vraie pour des termes positifs ou nuls .
Si les xi et yi ne sont plus supposés positifs, on utilise l’inégalité triangulaire pour se ramener à des réels
positifs ou nuls :
n v v v v
X n X X n u n u n u n u n
uX uX uX uX
xk yk 6

xk yk 6

|xk | · |yk | 6 t |xk | 2 t 2
|yk | = t 2
xk t yk2 .

k=1 k=1 k=1 k=1 k=1 k=1 k=1

Ainsi, l’inégalité reste vraie pour des familles quelconques.


q  
yk
(c) On fait de même en posant λk = P n
q
, avec la famille yxq−1
k
. On obtient alors par convexité de x 7→ xp :
yi k
i=1

 p
n n
 X
 6 1
xk yk  X q xpk

n n y k p(q−1)
.
yi k=1 yk
 P q P q
k=1 yi
i=1 i=1

Or, par définition de q, on a pq = p + q, donc p(q − 1) = q. Ainsi,


 p
n n
 6 1
xk yk 
X X

 n
P q n
P q xpk .
k=1 yi yi k=1
i=1 i=1

n
!p
X
En mutlipliant par yiq , il vient :
i=1

n
!p n
! n
!p−1
X X X
xk yk 6 xpk ykq .
k=1 k=1 k=1

Toutes ces quantités étant positives, on peut prendre la racine p-ième :

n n
! p1 n
!1− p1 n n
! p1 n
! 1q
X X X X X X
xk yk 6 xpk ykq soit: xk yk 6 xpk ykq .
k=1 k=1 k=1 k=1 k=1 k=1

7
n
X
(d) Soit (x1 , . . . , xn ) ∈ (R∗+ )n et (y1 , . . . , yn ) ∈ (R∗+ )n . On applique l’inégalité de Hölder à la somme xk (xk +
k=1
yk )p−1 :

n n
! p1 n
! 1q n
! p1 n
! 1q
X X X X X
xk (xk + yk ) p−1
6 xpk (xk + yk ) q(p−1)
= xpk p
(xk + yk )
k=1 k=1 k=1 k=1 k=1

De même, on obtient :
n n
! p1 n
! p1
X X X
yk (xk + yk ) p−1
6 ykp (xk + yk ) p
.
k=1 k=1 k=1

En sommant les deux inégalités obtenues, il vient alors :

n n
! 1q  n !1 n
! p1 
X X X p p X
p
(xk + yk ) 6 (xk + yk )p  xk + ykp .
k=1 k=1 k=1 k=1

n
! q1
X
Il ne reste plus qu’à diviser par (xk + yk )p , et à arranger l’exposant du terme de gauche, en remar-
k=1
1
quant que 1 − q = p1 . Il vient donc :

n
! p1 n
! p1 n
! p1
X X X
(xk + yk ) p
6 xpk + ykp
k=1 k=1 k=1

Partie IV – Inégalité maîtresse

1. Soit ϕ : R∗+ → R concave. On définit la fonction f : (R∗+ )2 → R par :


 
x
f (x, y) = yϕ .
y

(a) Soit (x1 , x2 , y1 , y2 ) ∈ (R∗+ )4 , on a :


    
y1 x1 y2 x2
f (x1 , y1 ) + f (x2 , y2 ) = (y1 + y2 ) ϕ + ϕ .
y1 + y2 y1 y1 + y2 y2

Ainsi, en utilisant l’inégalité de concavité pour ϕ,


   
x1 x2 x1 + x2
f (x1 , y1 ) + f (x2 , y2 ) 6 (y1 + y2 )ϕ + = (y1 + y2 )ϕ .
y1 + y2 y1 + y2 y1 + y2

Par définition de f , on a donc obtenu :

f (x1 , y1 ) + f (x2 , y2 ) 6 f (x1 + x2 , y1 + y2 )

(b) On procède par récurrence sur n ∈ N∗ . Le cas n = 1 est trivial, et le cas n = 2 est la question précédente.
Cela fournit l’initialisation.
Soit n ∈ N, et supposons la propriété vérifiée pour des sommes de n termes. Soit (x1 , . . . , xn+1 ) ∈ (R∗+ )n+1
et (y1 , . . . , yn+1 ) ∈ (R∗+ )n+1 . On a alors, d’après la question précédente :
n+1 n+1
! n n
!
X X X X
f xk , yk 6f xk , yk + f (xn+1 , yn+1 ).
k=1 k=1 k=1 k=1

On peut alors appliquer l’hypothèse de récurrence au premier terme su membre de droite :


n+1 n+1
! n n+1
X X X X
f xk , yk 6 f (xk , yk ) + f (xn+1 , yn+1 ) = f (xk , yk ).
k=1 k=1 k=1 k=1

8
Ainsi, la propriété est héréditaire, et d’après le principe de récurrence, on peut conclure que pour tout n > 1,
tout (x1 , . . . , xn ) ∈ (R∗+ )n , et tout (y1 , . . . , yn ) ∈ (R∗+ )n ,

n n n
!
X X X
f (xk , yk ) 6 f xk , yk .
k=1 k=1 k=1

2. On remarque au passage que la concavité de la racine peut s’obtenir de la convexité de sa fonction récirproque
x 7→ x2 sur R+ . On a en effet, pour tout x et tout y dans R∗+ , et tout λ ∈]0, 1[ :
√ √ √ √
(λ x + (1 − λ) y)2 6 λ( x)2 + (1 − λ)( y)2 .

Ainsi, ces quantités étant toutes positives, en simplifiant les écritures et en prenant la racine, il vient :
√ √ p
λ x + (1 − λ) y 6 λx + (1 − λ)y.

ceci prouve bien la concavité de x 7→ x.
On peut donc appliquer la question précédente : pour tout (x′1 , . . . , x′n ) ∈ (R∗+ )n et (y1′ , . . . , yn′ ) ∈ (R∗+ )n :
v
u n x′
uP
s !
n n k
x′k
X X u
yk′ yk′ u k=0 ,
u
6 n
yk′
yk′
tP
k=0 k=0
k=0

d’où v
n q u n ! n !
X u X X
′ ′
xk yk 6 t ′
xk ′
yk
k=0 k=0 k=0

Soit alors (x1 , . . . , xn ) ∈ (R∗+ )n et (y1 , . . . , yn ) ∈ (R∗+ )n . En posant pour tout k ∈ [[1, n]], x′k = x2k et yk′ = yk2 , il
vient alors :
v !v !
n
X
u n
u X
u n
u X
xk yk 6 t x2k t yk2 .
k=0 k=0 k=0

On a donc retrouvé l’inégalité de Cauchy-Schwarz.


1
3. En appliquant la formule à la fonction convexe (admis) x 7→ (x p + 1)p , il vient, pour tout (x′1 , . . . , x′n ) ∈ (R∗+ )n
et (y1′ , . . . , yn′ ) ∈ (R∗+ )n :

n  p1 
x′k
P
n  p1 !
x′k

X 1 1 
 k=1

+ 1)p

6 P  + 1
,
n n
yk′ yk′
 P 
yk′ yk′
 
k=1
k=1 k=1

soit :
n 

n
! p1 n
! p1 p
X 1 1
p X X
x′i + yk′
p p
6 x′k + yk′  ,
k=1 k=1 k=1

Pour (x′1 , . . . , x′n ) ∈ (R∗+ )n et (y1′ , . . . , yn′ ) ∈ (R∗+ )n , en posant x′i = xpi et yi′ = yip , et en élevant cette expression
à la puissance 1p , il vient alors :

n
! p1 n
! p1 n
! p1
X p
X X
(xk + yk ) 6 xpk + ykp .
k=1 k=1 k=1

On retrouve l’inégalité de Minkowski.

Partie V – Applications combinatoires

9
1. Soit (ai,j )(i,j)∈[[1,n]]×[[1,m]] une famille de réels positifs. D’après l’inégalité de Cauchy-Schwarz, on a :
v v  2
u
n X
m u n n m
X uX u X X
12 t
u
ai,j 6t  ai,j  .
i=1 j=1 i=1 i=1 j=1

Or,
 2   !
Xm Xm m
X m X
X m
 ai,j  =  ai,j  ai,k = ai,j ai,k .
j=1 j=1 k=1 j=1 k=1

Ainsi,
v
n X
m u n X
m X
m
X √ uX
ai,j 6 n t ai,j ai,k .
i=1 j=1 i=1 j=1 k=1

2. (a) La quantité 1Mi ∈Dj 1Mi ∈Dk vaut 0 ou 1, et ne vaut 1 que si Mi est à la fois dans Dj et dans Dk , donc si
Mi est le point d’intersection de Dj et Dk . Comme les Mi sont distincts, et j et k fixé, puisque deux droites
distinctes admettent au plus un point d’intersection, l’égalité 1Mi ∈Dj 1Mi ∈Dk = 1 est vérifiée pour au plus
un indice i, et 1Mi ∈Dj 1Mi ∈Dk = 0 pour les autres indices. Ainsi,

n
X
1Mi ∈Dj 1Mi ∈Dk 6 1
i=1

n
X
1Mi ∈Dj 1Mi ∈Dk 6 1
i=1

(b) Par définition,


n X
X m
I= 1Mi ∈Dj .
i=1 j=1

On utilise la question 1 :
v
u n X
m X
m
u X
I 6 tn 1Mi ∈Dj 1Mi ∈Dk
i=1 j=1 k=1
v
u m X
m X
n
u X
= tn 1Mi ∈Dj 1Mi ∈Dk .
j=1 k=1 i=1
v  
u
u m n m X
n
u X X X X 
= un 1Mi ∈Dj 1Mi ∈Dk + .
1Mi ∈Dj 1Mi ∈Dk 
u 
t 
j=1 (j,k)∈[[1,m]]2 i=1 j=1 i=1
j6=k

On déduit alors de la question précédente que


v  
u
u
u  X m X
X n
 p p
1 + 1 2
I 6 un   6 n (m(m − 1) + mn) 6 n (m + mn)
u
t  2
(j,k)∈[[1,m]] j=1 i=1
j6=k


On a bien obtenu : I 6 nm2 + mn2 .

10
Lycée Louis-Le-Grand, Paris
MPSI 4 – Mathématiques
A. Troesch

Problème no 4 : Complexes

Correction du problème 1 – Résolution des équations de degré 3 et 4


2iπ
On note j = e 3 .

Partie I – Équation de degré 3 (formules de Cardan)


Soit a, b et c des nombres complexes. On cherche à résoudre l’équation x3 + ax2 + bx + c = 0.
1. Le développement du cube (x − α)3 fournit un terme 3αx2 , qui doit compenser entièrement le terme ax2
(puisqu’on ne veut pas de terme en y 2 . Ainsi, on fait le changement de variable y = x + a3 (remarquez que ce
n’est qu’une adaptation de la mise sous forme canonique). On a alors :

a 3 a2 a3 a2  ab 2a3
 
  a 3 a
x3 + ax2 + bx + c = x + − x− + bx + c = x + + b− x+ +c− + .
3 9 27 3 3 3 3 27

Ainsi, la résolution de l’équations x3 + ax2 + bx + c = 0 équivaut à la résolution de y 3 + py + q = 0 , avec :

a a2 ab 2a3
y =x− , p=b− , q =c− + .
4 3 3 27

2. Les complexes y1 , y2 et y3 sont solutions de y 3 + py + q si et seulement si on a l’identité polynomiale

X 3 + pX + q = (X − y1 )(X − y2 )(X − y3 ) = (X − u − v) X − ju − j 2 v X − j 2 u − jv .
 

Un peu de force brute donne l’équivalence de cette égalité avec :

X 3 + pX + q = X 3 − (1 + j + j 2 )(u + v)X 2 + ((1 + j + j 2 )(u2 + v 2 ) + 3uv(j + j 2 ))X − (u + v)(uj + vj 2 )(uj 2 + vj).

Comme 1 + j + j 2 = 0 (et donc j + j 2 = −1), on simplifie ceci en :

X 3 + pX + q = X 3 − 3uvX − (u + v)(uj + vj 2 )(uj 2 + vj).

On peut encore user de force brute pour développer le dernier terme, ou alors chercher à ruser de la manière
suivante : la polynôme en U (U + v)(U j + vj 2 )(U j 2 + vj) est égal, après multiplication par j 3 = 1, à (U +
v)(U + vj)(U + vj 2 ). Ses racines sont donc v, vj et vj 2 qui sont les 3 racines cubiques de v 3 . Ainsi, ce polynôme
unitaire est égal à U 3 − v 3 . En évaluant en u, on obtient finalement l’égalité :

X 3 + pX + q = X 3 − 3uvX − (u3 + v 3 ).

Ainsi, par identification des coefficients, y1 , y2 et y3 sont solutions de X 3 + pX + q si et seulement si :

p = −3uv et q = −(u3 + v 3 ).

3. Pour que cette condition soir satisfaite, en posant U = u3 et V = v 3 , on a alors −27U V = p3 et U + V = −q,
donc U et V sont les deux solutions de l’équation

p3
z 2 + qz − =0.
27

(Rappel : le produit et la somme de deux nombres déterminent l’unique polynôme de degré 2 dont ils sont
racines, le produit et la somme se lisant sur les coefficients de ce polynôme ; développez (z − U )(z − V ) pour
vous en assurer).

1
4. Les couples (u, v) obtenus en résolvant u3 = U et v 3 = V sont au nombre de 9 (chacun des nombres U et V ayant
3 racines cubiques). Ces racines diffèrent l’une de l’autre par un facteur multiplicatif j ou j 2 . En supposant qu’il
existe un couple (u0 , v0 ) de solutions vérifiant −3uv = p, l’ensemble des couples est {(j i u0 , j k v0 ), (i, k) ∈ [[0, 2]]2 }.
Or j i u0 j k v0 = u0 v0 si et seulement si j i+k = 1, si et seulement si i + k = 0 ou i + k = 3 (la somme ne pouvant
être supérieure à 4). Cela donne 3 possibilités : i = k = 0 (déjà connue), i = 1, k = 2 ou i = 2, k = 1. Ainsi, les
3 couples possibles pour u et v sont :

(u, v) = (u0 , v0 ) ou (ju0 , j 2 v0 ) ou (j 2 u0 , jv0 ) .

• Le choix de (u, v) = (u0 , v0 ) fournit les solutions

y1 = u0 + v0 , y2 = ju0 + j 2 v0 , y3 = j 2 u0 + jv0 .

• Le choix de (u, v) = (ju0 , j 2 v0 ) fournit les solutions

y1 = ju0 + j 2 v0 , y2 = j 2 u0 + jv0 , y3 = u0 + v0 .

• Le choix de (u, v) = (j 2 u0 , jv0 ) fournit les solutions

y1 = j 2 u0 + jv0 , y2 = u0 + v0 , y3 = ju0 + j 2 v0 .

Ainsi, on obtient bien à chaque fois les mêmes racines, à permutation près .
5. On commence par effectuer la réduction initiale, en effetuant un changement de variables y = x + 1 :

x3 + 3x2 + 3(1 − 2j)x + 2(3j 2 − 1) = (x + 1)3 − 6jx + 6j 2 − 3 = (x + 1)3 − 6j(x + 1) + 6(j 2 + j) − 3.

Puisque j + j 2 = −1, on obtient :

x3 + 3x2 + 3(1 − 2j)x + 2(3j 2 − 1) = (x + 1)3 − 6j(x + 1) − 9.

Ainsi, on est ramené à la résolution de l’équation y 3 − 6jy − 9 = 0. Avec les notations ci-dessus, on a donc
p = −6j et q = −9, donc U et V sont solutions de l’équation

z 2 − 9z + 8.

On a une racine évidente z = 1, l’autre est alors 8 (leur produit devant faire 8). On pose donc U = 1, V = 8,
et on selectionne des racines cubiques u et v de ces nombres telles que −3uv = p = −6j. on peut par exemple
prendre u = j et v = 2 .
On trouve alors les racines en y :

y1 = j + 2, y2 = j 2 + 2j 2 = 3j 2 , y3 = 1 + 2j.

On peut donc utiliser le changement de variables initial pour exprimer les solutions de l’équation initiale :

x1 = j + 1, x2 = 3j 2 − 1, x3 = 2j .

Il est assez rare de tomber sur une équation qui se résolve si bien. Cette équation avait été choisie avec beaucoup
de soin. La plupart du temps, on se retrouve avec des expressions de racines cubiques qui ne se simplifient pas
bien, même lorsqu’il y a des racines évidentes. On illustre cela dans la question qui suit.
6. On cherche les racines du polynôme (X − 1)(X 2 + X + 2) = X 3 + X − 2. On a alors p = 1 et q = −2, donc les
1
complexes U et V sont solutions de z 2 − 2z − 27 , donc le discriminant est ∆ = 4 · 28
27 . Ainsi, on peut prendre
√ √
2 7 2 7
U =1+ √ et V =1− √ .
3 3 3 3
3
p 1
En adoptant les notations précédentes, (uv)3 = U V = − 27 = − 27 , qui admet une unique racine cubique réelle.
Cette racine réelle est obtenue comme produit des deux racines cubiques réelles de U et V . Ainsi, on peut
poser : s √ s √
3 2 7 3 2 7
u= 1+ √ et v = 1− √ .
3 3 3 3

2
La forme factorisée de l’expression initiale montre qu’il existe une unique solution réelle de l’équation, égale à
1. Comme u et v sont réels, cette solution réelle est, des trois racines, celle qui s’exprime sous la forme u + v.
Ainsi s √ s √
3 2 7 3 2 7
1=u+v = 1+ √ + 1− √ .
3 3 3 3
√ p3

En multipliant par 3 = 3 3, il vient :
√ √ √ √ √
q q
3 3
3 = 3 3 + 2 7 + 3 3 − 2 7.

L’imparité de la fonction racine cubique amène alors :


√ √ √ √ √
q q
3 3
3= 2 7+3 3− 2 7−3 3 .

4p3
7. On suppose maintenant que p et q sont des réels. On note ∆ = q 2 + 27 .
3
(a) On constate que ∆ est le discriminant de l’équation z 2 + qz − p27 . Ainsi, si ∆ > 0, cette équation admet
2 racines réelles U et V , et de plus, le produit U V est réel, donc on peut choisir pour u et v les racines
cubiques réelles de U et V . On obtient donc
s √ s √
3 −q − ∆ 3 −q + ∆
u= et v= .
2 2
Les trois racines sont donc :
s √ s √ s √ s √ s √ s √
3 −q − ∆ 3 −q + ∆ 3 −q − ∆ 3 −q + ∆ 3 −q − ∆ 3 −q + ∆
2 2
x1 = + ; x2 = j +j ; x3 = j +j .
2 2 2 2 2 2

La racine x1 est réelle, mais pas x2 et x3 (leur partie imaginaire est non nulle, car les deux racines cubiques
ne sont pas égales, puisque ∆ 6= 0). En revanche, j et j 2 étant conjugués l’un de l’autre, x2 et x3 sont
conjuguées l’une de l’autre. Ceci est une propriété générale des racines non réelles des équations polynomiales
à coefficients réels.
(b) Si ∆ < 0, les complexes U et V sont conjugués, comme le montre leur expression en fonction de ∆ (l’un
√ √
fait intervenir i −∆, l’autre − i −∆). Ainsi, les 3 racines cubiques de V sont les conjuguées des 3 racines
cubiques de V . Étant donnée une racine cubique u de U , seule la racine v = u de V est telle que uv = |u|2
soit réel (les autres étant obtenues en multipliant par j ou j 2 ). Ainsi, on obtient les 3 racines :

x1 = u + u = 2Re(u); x2 = ju + j 2 u = 2Re(ju); x3 = j 2 u + ju = Re(j 2 u).

Ces trois quantités sont réelles, donc l’équation x3 + px + q = 0 admet 3 racines réelles .

Partie II – Trisection de l’angle

1. • Si on sait trisecter l’angle : à partir de 1 et cos(θ), on trace un cercle de rayon 1, de centre O et sur un rayon,
un segment OA de longueur cos(θ) issu du centre. On sait tracer à la règle et au compas la perpendiculaire
à OA passant par A. Par définition géométrique du cosinus, l’un des deux points d’intersection de cette
perpendiculaire et du cercle, appelé B, définit un angle (AOB)\ égal à θ. la possibilité de trisecter l’angle à la
règle et au compas amène la possibilité de construire l’angle θ3 , donc de construire un point C du cercle tel
\ = θ . Projettons alors C orthogoalement sur (OA) (ce qui revient à abaisser une perpendiculaire,
que (AOB) 3
ce qu’on sait faire à la règle et au compas). Alors le point D obtenu vérifie OD = cos θ3 .


• Réciproquement, si on sait construire cos 3θ à la règle et au compas à partir de 1 et de cos(θ), étant donné


un angle θ, on trace le cercle de côté 1 issu du sommet de l’angle ; en projetant orthogonalement sur 1 côté,
on récupère cos(θ), et par hypothèse, on sait construire cos θ3 , qu’on reporte sur le rayon. On abaisse une


perpendiculaire passant par le point ainsi obtenu, coupant le cercle en un point formant un angle de θ3 avec
le point du cercle coupant le rayon.
Ainsi, la possibilité de trisecter l’angle à la règle et au compas équivaut à la constructibilité de cos( θ3 ) à par-
tir de 1 et de cos(θ).

3
2. Il s’agit donc de montrer que    
3θ θ
cos θ = 4 cos − 3 cos ,
3 3
donc, en posant x = θ3 , de montrer que

cos(3x) = 4 cos3 (x) − 3 cos(x).

Ceci est un résultat classique, relié entre autres aux polynômes de Tchébychev. On peut le trouver de façon
élémentaire en utilisant par deux fois les formules d’addition, ou alors, utiliser la formule de Moivre :

cos(3x) = Re(e3 i x) = Re((cos(x) + i sin(x))3 ) = Re cos3 (x) + 3 i cos2 (x) sin(x) − 3 cos(x) sin2 (x) − i sin3 (x) .


En utilisant cos2 (x) + sin2 (x) = 1, il vient alors :

cos(3x) = cos3 (x) − 3 cos(x)(1 − cos2 (x)) = 4 cos3 (x) − 3 cos(x).

θ
Ainsi, avec a = cos(θ), le réel cos est solution de l’équation

3

3 a
u3 − u − = 0 .
4 4

3. On a ici
p3 a2 1 a2 − 1
∆ = q2 + 4 = − = 6 0,
27 16 16 16
avec égalité seulement si |a| = 1, donc θ ≡ 0[π]. Ainsi, d’après la remarque faite ci-dessus, « en général »,
on ne peut pas exprimer cos 3θ à l’aide de radicaux réels .


4. Si on avait p > 0, on aurait


4p3
∆ = q2 + > 0,
27
ce qui contredit les hypothèses. Ainsi, p < 0 .
5. Le changement de variable y = λx, avec λ > 0, amène :
 y 3 y
+p + q = 0,
λ λ
ce qui équivaut à
y 3 + λ2 py + λ3 q = 0.
3
On résout l’équation λ2 p = − , soit puisque λ > 0,
4
r
3
λ= − ,
4p

ce qui a du sens puisque p < 0. En posant


r
3 3q 3
a = −4λ q = − ,
p 4p

3 a
on arrive à l’équation y 3 − − =0.
4 4
6. On a alors
27q 2
a2 = − .
4p3
Or, ∆ < 0, donc 27q 2 < −4p3 , et ces quantités étant positives, il vient, en faisant le quotient : |a|2 < 1, puis
|a| < 1 .

4
7. Soit θ = Arccos(a), bien
 défini puisque |a| < 1. D’après la question II-2, l’équation de la question 5 admet une
θ θ 2kπ
racine, égale à cos . Par ailleurs, en considérant ϕ = + π, pour k ∈ Z, on a 3π ≡ θ mod π, et d’après
3 3 3
II-2, cos(ϕ) est aussi solution de l’équation. L’ensemble des solutions obtenues est périodique de période 3. Par
ailleurs, ces solutions sont distinctes. En effet, les arguments des cosinus forment sur les cercle trigonométrique
les sommets d’un triangle équilatéral. Les cosinus sont égaux si et seulement si deux sommets sont conjugués, ce
qui signifierait que le triangle équilatéral est symétrique par rapport à l’axe réel, donc que 1 ou −1 est sommet.
Cela implique que θ ≡ 0 mod [π], cas impossible puisque ∆ 6= 0.
Ainsi, les trois racines obtenues sont distinctes, et on a toutes les racines du polyôme de degré 3 :

      
1 1 2π 1 2π
S= cos Arccos(a) , cos Arccos(a) + , cos Arccos(a) − .
3 3 3 3 3

Partie III – Résolution des équations de degré 4 par la méthode de Ferrari


On voit dans cette partie la méthode employée par Ferrari au XVIe siècle pour résoudre les équations du quatrième
degré
z 4 + αz 3 + bz 2 + γz + δ = 0, (1)
pour (a, b, c, d) ∈ R4 .
1. Comme dans la partie 1, on fait une espèce de mise sous forme canonique, qui donne, sauf erreur de calcul de
ma part :
α3
   
4 3 2
 α 4 3 2  α 2 αβ  α
z + αz + βz + γz + δ = z + + β− α z+ + γ− − z+ + c,
4 8 4 8 2 4

3 4 α2 β αγ α
avec c = δ − α + − (on peut par exemple remplacer x par y − 4 puis tout développer). Ainsi,
256 16 4
α
en posant le changement de variables x = z + , et en posant les constantes
4

α3 αβ
a = β − 38 α2 et b=γ+ 8 − 2

on est ramené au système x4 + ax2 + bx + c = 0 .


2. Soit y ∈ R. On a alors, pour tout x ∈ R :
2 2 
y2 y2
  
1 1
x4 + ax2 + bx + c = x2 + y − x2 y − + ax2 + bx + c = x2 + y − x2 (y − a) − bx + −c .
2 4 2 4
2
Or, le polynôme X 2 (y − a) − bX + y4 − c s’exprime comme le carré (positif) d’un polynôme de degré 1 en X si
et seulement si son coefficient dominant est positif, et son discriminant nul (de sorte à avoir une racine double).
La première condition donne y > a, la seconde donne

0 = ∆ = b2 − (y − a)(y 2 − 4c) = b2 − y 3 + ay 2 + 4cy − 4ac,

soit :
y 3 − ay 2 − 4cy + 4ac − b2 = 0.

Ainsi, il existe des réels m et n tels que pour tout x, on ait


 2
1
x4 + ax2 + bx + c = x2 + y − (mx + n)2
2

si et seulement si y > a et y 3 − ay 2 − 4cy + 4ac − b2 = 0 .


Or, en définissant la fonction f sur R par

f (x) = x3 − ax2 − 4cx + 4ac − b2 ,

5
on a f (a) = −b2 6 0. Comme par ailleurs, f est continue, et la limite de f en +∞ est +∞, on déduit du
théorème des valeurs intermédiaires que f s’annule sur [a, +∞[.
Ainsi, il existe une solution y0 > a de l’équation y 3 − ay 2 − 4cy + 4ac − b2 = 0
3. On suppose b 6= 0 (dans le cas contraire, on a une équation bicarrée qu’on sait résoudre en posant x′ = x2 ). On
b
a alors y0 > a. Pour un tel y0 , on a ∆ = 0, donc la racine double du polynôme en X ci-dessus est . Il
2(y0 − a)
se factorise donc en 2  2


b b
(y0 − a) X − = y0 − a · X − √ .
2(y0 − a) 2 y0 − a
√ b
Ainsi, par identification, on obtient : m = y0 − a et n = − √ .
2 y0 − a
4. On exprime notre condition sur a, b et c obtenus après changement de variables. On a obtenu l’égalité polyno-
miale suivante :
 y0  2  y0  y0 
X 4 + aX 2 + bX + c = X 2 + − (mX + n)2 = X 2 − mX + − n X 2 + mX + +n .
2 2 2
Ainsi, les 4 racines sont réelles (pas nécessairement distinctes) si et seulement si les discriminants des deux
facteurs de degré 2 sont positifs ou nuls, à savoir :

∆1 = m2 − 2y0 + 4n > 0 et ∆2 = m2 − 2y0 − 4n > 0 .

Les 4 racines sont alors :


√ √ √ √
−m − ∆1 −m + ∆1 m − ∆2 m + ∆2
, , et .
2 2 2 2

6
Lycée Louis-Le-Grand, Paris
MPSI 4 – Mathématiques
A. Troesch

Problème no 5 : Une fonction continue partout et dérivable nulle part

Correction du problème 1 –
Partie I – Prélimiaires

1. Les graphes (y compris celui de f4 ) : voir figure 1.

1 f0
|

f1
f2
f3
|

f4
|

2
|

3
|
|

1
|

3
|
|

| | | | | | | | | |
|

1 2 1
3 3

Figure 1 – Courbes représentatives de f0 , f1 , f2 , f3 et f4 .

2. (a) À chaque étape, on subdivise chaque intervalle en 3 : ainsi, on multiplie le nombre de segments par un
facteur 3. Par conséquent, αn = 3n .
(b) • Pour n = 0 : p0,1 = 1 .

1
• Pour n = 1 : p1,1 = 2, p1,2 = −1, p1,3 = 2

i 1 2 3 4 5 6 7 8 9
• Pour n = 2 :
p2,i 4 −2 4 −2 1 −2 4 −2 4
i 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
• Pour n = 3 :
p2,i 8 −4 8 −4 2 −4 8 −4 8 −4 2 −4 2 −1 2
16 17 18 19 20 21 22 23 24 25 26 27
−4 2 −4 8 −4 8 −4 2 −4 8 −4 8
(c) Pour tout k ∈ [[ 1, 3n ]] ,

 pn+1,3k−2 = 2pn,k

pn+1,3k−1 = −pn,k

pn+1,3k = 2pn,k

Cela provient directement de la description de fn . Cela peut se dire sans plus de justification. Si vous voulez
des justifications, en voilà, pour pn+1,3k−2 (les autres à l’avenant) :

fn+1 ( 3k−2 3k−3


3n+1 ) − fn+1 ( 3n+1 ) fn ( 3k−1 k−1
3n+1 ) − fn ( 3n ) fn ( 3k−1 k−1
3n+1 ) − fn ( 3n )
pn+1,3k−2 = 1 = 1 =2· 2 = 2pn,k ,
3n+1 3n+1 3n+1

3k−1
 k−1
car fn est linéaire sur , 3kn , donc sur k−1
3n , 3n+1 , de pente pn,k .
  
3n

(d) Soit, pour tout n dans N∗ , la propriété P(n): max (pn,j ) = 2n et min (pn,j ) = −2n−1 .
j∈[[1,3n ]] j∈[[1,3n ]]

On devine cette propriété grâce aux tableaux de valeurs précédents.


Les tableaux de valeur précédents montrent que P(1) est vraie.
Soit n > 1 tel que P(n) soit vérifiée.
• Soit k ∈ [[1, 3n+1 ]], et soit j = E k+2

3 . Alors la relation de la question précédente amène :
∗ si pn,j > 0,

−2n = − max(pn,1 , . . . , pn,3n ) 6 −pn,j 6 pn+1,k 6 2pn,j 6 2 max(pn,1 , . . . , pn,3n ) = 2n+1 ,

∗ si pn,j 6 0,

−2n = 2 min(pn,1 , . . . , pn,3n ) 6 2pn,j 6 pn+1,k 6 −pn,j 6 − min(pn,1 , . . . , pn,3n ) = 2n−1 6 2n+1 ,

Ainsi, pour tout k ∈ [[1, 3n+1 ]], −2n 6 pn+1,k 6 2n+1


• De plus, soit j réalisant le maximum de pn,j , c’est-à-dire pn,j = 2n . Alors pn+1,3j = 2n+1
• Soit j réalisant le minimum de pn,j , c’est-à-dire pn,j = −2n−1 . Alors pn+1,3j = −2n .
On en déduit que P(n + 1) est vérifié puisque −2n et 2n+1 encadrent les valeurs de pn+1,k et sont atteintes.
Par conséquent, P(1) est vraie, et pour tout n dans N∗ , P(n) entraîne P(n + 1). D’après le principe de
récurrence, P(n) est vraie pour tout n dans N∗ .
Remarquez que ceci n’est bien sûr valable que pour n > 1 et pas n = 0.
(e) Soit, pour tout n dans N, la propriété Q(n): pn,i est positif si i est impair et négatif si i est pair .
Q(0) est trivialement vraie.
Soit n ∈ N tel que Q(n) soit vraie. Soit k ∈ [[ 1, 3n ]] . D’après la question (c), on a alors :
• Si k est pair, alors 3k − 2 et 3k sont pairs, et d’après la question c, pn+1,3k−2 et pn+1,3k sont du signe
de pn,k à savoir négatif (hypothèse de récurrence). D’autre part, 3k − 1 est impair, et pn+1,3k−1 est du
signe opposé de celui de pn,k à savoir positif.
• Si k est impair, alors 3k − 2 et 3k sont impairs, et pn+1,3k−2 et pn+1,3k sont du signe de pn,k à savoir
positif (hypothèse de récurrence). D’autre part, 3k − 1 est pair, et pn+1,3k−1 est du signe opposé de celui
de pn,k à savoir négatif.
Cela prouve bien Q(n + 1).
Par conséquent, Q(0) est vraie, et pour tout n dans N, Q(n) entraîne Q(n + 1). D’après le principe de
récurrence, Q(n) est vraie pour tout n dans N.

2
k k+1
 
3. Soit n ∈ N, et k ∈ [[ 0, 3n − 1 ]] . On note In,k = 3n , 3n .
(a) On montre d’abord que fn+1 (In,k ) = fn (In,k ) :
On note In,k = [a, b], et c et d les deux réels c = a + b−a b−a
3 et d = a + 2 · 3 . Ainsi, a < c < d < b, et
[a, c], [c, d], [d, b] est une subdivision de [a, b] en trois intervalles de taille égale. On suppose pour se fixer les
idées que fn est croissante sur In,k (démonstration semblable dans le cas inverse). Ainsi, f (a) < f (c) <
f (d) < f (b). Alors, par définition de le suite de fonctions (fn ),

fn+1 ([a, c]) = [fn (a), fn (d)], fn+1 ([c, d]) = [fn (c), fn (d)] fn+1 ([d, b]) = [fn (c), fn (b)].

Par conséquent,

fn+1 (In,k ) = [fn (a), fn (d)] ∪ [fn (c), fn (d)] ∪ [fn (c), fn (b)] = [fn (a), fn (b)].

Ainsi, fn étant croissante continue sur In,k , fn+1 (In,k ) = fn (In,k ) .


On montre alors la propriété générale par récurrence :
Soit pour tout ℓ > 0 la propriété suivante :
P(ℓ) : ∀n ∈ N, ∀k ∈ [[ 0, 3n − 1 ]] , fn+ℓ (In,k ) = fn (In,k )
Initialisation : Pour ℓ = 0, c’est trivial. Pour ℓ = 1, on vient de le faire.
Hérédité : Soit ℓ > 1, et supposons que P(ℓ − 1) est vérifiée. Montrons que P(ℓ) l’est aussi. Soit n ∈ N et
k ∈ [[ 1, 3n ]] . D’après l’hypothèse de récurrence, fn+ℓ−1 (In,k ) = fn (In,k ). Or

3ℓ−1 (k+1)−1
[
fn+ℓ−1 (In,k ) = fn+ℓ−1 (In+ℓ−1,j ),
j=3ℓ−1 k

et d’après le premier cas étudié, pour tout j ∈ [[ 3ℓ−1 k, 3ℓ−1 (k + 1) − 1 ]] ,

fn+ℓ−1 (In+ℓ−1,j ) = fn+ℓ (In+ℓ−1,j ).

Ainsi,

3ℓ−1 (k+1)−1 3ℓ−1 (k+1)−1


[ [
fn+ℓ (In,k ) = fn+ℓ (In+ℓ−1,j ) = fn+ℓ−1 (In+ℓ−1,j ) = fn+ℓ−1 (In,k ) = fn (In,k ).
j=3ℓ−1 k j=3ℓ−1 k

cela achève de montrer P(ℓ)


D’après le principe de récurrence, on en déduit que pour tout ℓ > 0, fn+ℓ (In,k ) = fn (In,k ) .
(b) Montrons par récurrence sur ℓ la propriété suivante :
Q(ℓ) : ∀n ∈ N, ∀k ∈ [[ 0, 3n − 1 ]] tel que pn,k+1 > 0, ∀x ∈ In+1,3k , fn+ℓ (x) > fn (x).
Initialisation : Trivial pour ℓ = 0. Assez immédiat pour ℓ = 1, car la pente (positive) de fn+1 sur In+1,3k
est le double de celle de fn , et leur valeur est la même au bord gauche de cet intervalle.
Hérédité : Soit ℓ > 1, et supposons que Q(k) est vérifiée pour tout k < ℓ.
Soient n ∈ N, et k ∈ [[ 0, 3n − 1 ]] tel que pn,k+1 > 0. On subdivise In+1,3k en trois : In+1,3k = In+2,9k ∪
In+2,9k+1 ∪ In+2,9k+2
• Étude sur In+2,9k :
pn+1,3k+1 = 2pn,k et est donc positif. On peut appliquer l’hypothèse de récurrence : pour tout x ∈ In+2,9k
fn+ℓ (x) > fn+1 (x). De plus, d’après Q(1), fn+1 (x) > fn (x) sur In+2,9k ⊂ In+1,3k . Ainsi :

∀x ∈ In+2,9k , fn+ℓ (x) > fn (x).

• Étude sur In+2,9k+1 :


La fonction fn+2 est décroissante sur In+2,9k+1 . Ainsi, pour tout x ∈ In+2,9k+1 ,
   
9k + 2 9k + 2
fn+2 (x) > fn+2 = fn .
3n+2 3n+2

3
Cette dernière égalité se vérifie sur les graphes, et se montre facilement par la définition des fn .
Or, d’après la question précédente, fn+ℓ (In+2,9k+1 ) = fn+2 (In+2,9k+1 ), donc pour tout x ∈ In+2,9k+1 ,
 
9k + 2
fn+ℓ (x) > fn > fn (x),
3n+2

la dernière inégalité résultant de la croissance de fn . Ainsi :

∀x ∈ In+2,9k , fn+ℓ (x) > fn (x).

• Étude sur In+2,9k+2 :


Enfin, la fonction fn+2 est croissante sur In+2,9k+2 , de pente pn+2,9k+3 = 2pn+1,3k+1 = 4pn,k+1 . Ainsi,
pour tout xßIn+2,9k+2 ,
   
9k + 2 9k + 2
fn+2 (x) = fn+2 + 4 x − pn,k+1
3n+2 3n+2
   
9k + 2 9k + 2
= fn + 4 x − pn,k+1 (d’après e point précédent)
3n+2 3n+2
 
9k + 2
= fn (x) + 3 x − n+2 pn,k+1 > fn (x).
3

On applique maintenant l’hypothèse de récurrence au rang ℓ − 2 sur l’intervalle In+2,9k+2 sur lequel fn+2
est croissante :
∀x ∈ In+2,9k+2 , fn+ℓ (x) > fn+2 (x) > fn (x).
On en déduit que pour tout x ∈ In,3k , fn+ℓ (x) > fn (x) , ce qui est P(ℓ).
Le principe de récurrence nous permet alors de dire que cette propriété est vraie pour tout ℓ > 0.
(c) Aidons-nous d’un dessin.

fn
fn+1
fn+2
k
 k
 pn,k+1
x 7→ fn 3n + x− 3n 3

| | | | | | | | | |
k 3k+1 3k+2 k+1
3n 3n+1 3n+1 3n

Figure 2 – Sur In,k .

D’après la question 3, pour tout m > n,


        
3k + 1 3k + 2 3k + 1 3k + 2 3k + 1 3k + 2
fm , = fn+1 , = fn , fn .
3n+1 3n+1 3n+1 3n+1 3n+1 3n+1

De même, pour tout m > n,


        
3k + 2 k + 1 3k + 2 k + 1 3k + 1 k+1
fm , = f n+1 , = f n , f n .
3n+1 3n 3n+1 3n 3n+1 3n

4
   
3k + 1 k 3k + 1
Ainsi, pour tout x ∈ , , et tout m > n, fm (x) > fn . Cela reste tricialement vrai
3n+1 3n  pn,k+1 3n+1
k
pour m = n. Or, la fonction x 7→ x − 3n 3 est croissante sur In,k . On en déduit que pour tout
3k + 1 k
x∈ , ,
3n+1 3n
           
k k pn,k+1 k k+1 k pn,k+1 k 1 3k + 1
fn + x − 6 f n + − = f n + p n,k+1 = f n .
3n 3n 3 3n 3n 3n 3 3n 3n+1 3n+1
 
3k + 1 k
Par conséquent, pour tout x ∈ , , et tout m > n,
3n+1 3n
       
k k pn,k+1 k k pn,k+1
fm (x) > fn + x − = f m + x − .
3n 3n 3 3n 3n 3

Il reste à montrer que cette inégalité reste vraie sur In+1,3k . Cela résulte de la question précédente. En effet,
puisque pn,k+1 > 0, pour tout m > n et tout x ∈ In+1,3k ,
           
k k k k pn,k+1 k k pn,k+1
fm (x) > fn (x) = fn + x− p n,k+1 > f n + x− = f m + x−
3n 3n 3n 3n 3 3n 3n 3
Ainsi, pour tout réel x ∈ In,k , et tout entier m > n,
   
k k pn,k+1
fm (x) − fm > x − .
3n 3n 3

Voilà, le plus technique est fait.


(d) Dans le cas où pn,k+1 est négatif :
i. pour tout x ∈ In+1,3k et tout m > n, fm (x) 6 fn (x) .
   
k k pn,k+1
ii. pour tout x ∈ In,k , et tout m > n, fm (x) − fm 6 x − .
3n 3n 3

Partie II – Étude de la fonction limite de la suite (fn )n∈N

1. Existence de la fonction limite f .


(a) Soit n ∈ N, et k ∈ [[ 0, 3n − 1 ]] .
• Si x ∈ In+1,3k ,
         
k k k k
|fn+1 (x) − fn (x)| = fn
+ 2pn,k+1 x − n − fn + pn,k+1 x − n
3n 3 3n 3
n
 n
k 3k + 1 k 1 2 2
= |pn,k+1 | · x − n 6 |pn,k+1 | · n+1 − n = |pn,k+1 | · n+1 6 n+1 6

3 3 3 3 3 3
l’avant-dernière inégalité provenant de la question I-2d.
• Si x ∈ In+1,3k+1 ,
         
3k + 2 3k + 1 k k
|fn+1 (x) − fn (x)| = fn
− pn,k+1 x − n+1 − fn + pn,k+1 x − n
3n+1 3 3n 3
   
2 3k + 1 k 2k + 1
= n+1 pn,k+1 − pn,k+1 x − n+1 − pn,k+1 x − n = |pn,k+1 | · x −
.
3 3 3 3n
3k+1
Cette dernière expression atteint son maximum aux deux points 3n+1 et 3k+2
3n+1 . On obtient :
 n
1 2n 2
|fn+1 (x) − fn (x)| 6 |pn,k+1 | · 6 6 .
3n+1 3n+1 3
• Si x ∈ In+1,3k+2 ,
         
k+1 k k+1 k
|fn+1 (x) − fn (x)| = fn n
− 2p n,k+1 x − n
− f n n
− p n,k+1 x − n

3 3 3 3
n
2n
 
k + 1 1 2
= |pn,k+1 | · x − n 6 |pn,k+1 | · n+1 6 n+1 6 .
3 3 3 3

5
 n
2
Ainsi, pour tout n ∈ N et tout x ∈ [0, 1], |fn+1 (x) − fn (x)| 6 .
3
n
!
X
(b) Soit x ∈ [0, 1]. La suite |fn+1 (x) − fn (x)| est croissante (car les termes de la somme sont positifs)
k=0 n∈N
et
n n  n +∞  n
X X 2 X 2 1
|fn+1 (x) − fn (x)| 6 6 = 2 = 3.
3 3 1− 3
k=0 k=0 k=0

Ainsi, sa somme partielle étant croissante et majorée, la série |fn+1 (x) − fn (x)| est convergente. D’après
P

le résultat admis, (fn+1 (x) − fn (x)) est convergente.


P

Par télescopage, on en déduit que la suite (fn (x))n∈N admet une limite finie f (x) .

(c) Pour tout m > n, fm 3kn = fn 3kn . Ainsi, en passant à la limite : f 3kn = fn 3kn .
   

2. Continuité de f
n 
(a) La suite 23 tend vers 0. Par définition de la limite d’une suite, il existe n0 ∈ N tel que quel que
n∈N∗
2 n
soit n > n0 , 3 6 ε. Tout entier n > n0 répond donc à la question posée.
(b) Par définition de la partie entière, ⌊3n x0 ⌋ 6 3n x0 < ⌊3n x0 ⌋ + 1, donc α 6 3n x0 < α + 1, puis

α α+1
n
6 x0 < .
3 3n

(c) Cela résulte de ce que pour tout m > n, fm (In,α ) = fn (In,α ). Or, fn est de pente au maximum 2n (en
valeur abolue), sur l’intervalle In,α de longueur 31n . Ainsi, fn (In,α ) (et donc fm (In,α )) est un intervalle de
longueur au plus 23n : pour tout x, y ∈ In,α ,
n

 n
2
|fm (x) − fm (y)| 6 .
3

En particulier, cela est vrai pour x0 et y.


(d) On passe à la limite dans l’inégalité de la question précédente lorsque m tend vers +∞ : pour tout y ∈ In,α ,
 n
2
|f (x0 ) − f (y)| 6 6 ε.
3
α
De plus, si x0 = 3n (x0 est au bord de l’intervalle) et α 6= 0, un raisonnement similaire amène :
 n
2
|f (x0 ) − f (y)| 6 6ε
3
pour tout y ∈ In,α−1 . Par conséquent, soit δ tel que :
• si x0 6= 3αn , δ = min x0 − 3αn , α+1

3n > 0,
α 1
• si x0 = 3n , δ = 3n .
Alors, pour ce choix de δ, pour tout y tel que |y − x0 | < δ et y > 0, on a |f (y) − f (x0 )| 6 ε. Cela prouve la
continuité de f en x0 , pour tout x0 ∈ [0, 1[, y compris en 0 (continuité à droite).
(e) La fonction f admet une symétrie par rapport au point ( 12 , 21 ). Plus particulièrement, pour tout n ∈ N et
tout x ∈ [0, 12 ], fn (x) + fn (1 − x) = 1. Cela se montre facilement par récurrence sur n en se servant de la
construction de fn . En passant à la limite, on obtient f (x) = 1 − f (1 − x). Alors la continuité en 1 découle
de celle en 0.
3. Étude de la monotonie de f .
Soit I un intervalle non vide et non réduit à un point I contient un intervalle ]a, b[, avec a < b. Soit n tel que
1
3n−1 < b − a. Alors l’intervalle ]3 a, 3 b[ est de longeur strictement supérieure à 3, et contient donc au moins
n n

3 entiers consécutifs k − 1, k et k + 1. Alors, comme pn,k et pn,k+1 sont de signe opposé,


• soit fn ( 3kn ) > fn ( k−1 k k+1 k k k−1
3n ) et fn ( 3n ) > fn ( 3n ) ; comme pour tout m > n, fm ( 3n ) = fn ( 3n ), fm ( 3n ) =
k−1 k−1 k−1
fn ( 3n ), et fm ( 3n ) = fn ( 3n ), on en déduit, en passant à la limite, que
k k−1 k k+1
f( n
) > f( n ) et f( n
) > f ( n );
3 3 3 3

6
• soit fn ( 3kn ) < fn ( k−1 k k+1
3n ) et fn ( 3n ) < fn ( 3n ) et on en déduit de même que :

k k−1 k k+1
f( ) < f( n ) et f( ) < f ( n );
3n 3 3n 3
Dans les deux cas, cela contredit la monotonie de f sur I .
4. Étude de la dérivabilité de f .
Soit x ∈ [0, 1[, et pour tout n, In (x) = In,αn . On note pn (x) = pn,αn +1 la pente sur In (x) de la fonction fn ,
affine sur cet intervalle.
(a) Si pn (α) et pn+1 (α) sont de même signe, cela signifie que In+1 (x) est le premier ou le dernier tiers de
l’intervalle In (x). La description de fn+1 en fonction de fn amène alors pn+1 (x) = 2pn (x) .
(b) Premier cas : supposons qu’il existe n0 ∈ N tel que les entiers pn (x), n > n0 , soient tous de même signe. Pour
se fixer les idées, supposons ce signe positif (démonstration similaire pour un signe négatif, en s’appuyant
sur la question I-3(d)).
βn
Posons pour tout n, xn = n .
3
Soit n0 un tel entier. D’après la question I-3(c), puisque x ∈ In (x), pour tout m > n,

pn (x)
fm (x) − fm (xn ) > (x − xn ) ,
3
soit, en passant à la limite lorsque m tend vers +∞ :

pn (x)
f (x) − f (xn ) > (x − xn ) ,
3
. Comme x − xn > 0 (raison pour laquelle on a privilégié la partie entière supérieure), on a :

f (x) − f (xn ) pn (x)


> −→ +∞.
x − xn 3

f (xn ) − f (x)
Par le théorème de minoration, il vient : lim = +∞.
n→+∞ xn − x
(c) Deuxième cas : supposons qu’il n’existe pas n0 ∈ N tel que les entiers pn (x), n > n0 , soient tous de même
signe.
Soit pour tout n ∈ N,
f (xn ) − f (x)
tn (x) = .
xn − x
En adaptant le raisonnement précédent (en utilisant également I-3(d) pour le cas de pentes négatives), et
en remarquant que les pentes sont toutes entières, on obtient :

t (x) > pn (x) > 1 si pn (x) > 0
n 3 3
p (x)
tn (x) 6 n 6 − 1 si pn (x) < 0
3 3

D’après l’hypothèse faite, chacun des deux cas de figure se produit une infinité de fois, donc, dans la suite
(tn (x)), il y aura une infinité de termes 6 − 31 et une infinité de termes > 31 . Ainsi, (tn (x))n∈N ne peut pas
admettre de limite.
(d) Puisque xn → x, la non existence d’une limite finie du taux d’accroissement tn (x) entre x et xn montre que
f n’est pas dérivable en x. Ceci étant vrai pour tout x ∈]0, 1], f n’est dérivable en aucun point de ]0, 1].
Par symétrie de la courbe par rapport au point 12 , 12 , on récupère la non dérivabilité (à droite) en 0. Cet


argument de symétrie avait déjà été utilisé pour obtenir la continuité en 1 à partir de celle en 0.
Ainsi f n’est dérivable en aucun point de [0, 1].

1
Partie III – Résolution de l’équation f (x) = 2

7
1. Pour tout n ∈ N, fn ( 12 ) = 12 , et plus précisément, 21 , 12 est le milieu du segment fn (In,kn ). En effet, c’est vrai


pour n = 0. Si c’est vrai au rang n, alors, par construction, cela reste encore le milieu du deuxième des trois
segments obtenus en construisant fn+1 par subdivision de In,kn : 21 , 12 est le milieu du segment fn (In+1,kn+1 )


(puisque kn+1 = 3kn + 2).


De plus, d’après la question I-2e, la pente qn de fn sur le segment In,kn −1 vérifie la relation de récurrence :
qn+1 = −qn , donc qn = (−1)n q0 . Comme q0 = 1, on obtient qn = (−1)n . Ainsi, on obtient :
     
kn kn 1 n kn 1 1 1
f n
= fn n
= + (−1) n
− = − (−1)n .
3 3 2 3 2 2 2 · 3n
kn kn +1
Cette expression est satisfaisante. On peut aussi remarquer qu’elle vaut 3n si n est pair et 3n si kn est impair.
On calcule maintenant la pente tn de fn sur In,kn −2 D’après I-2e, on a tn = 2qn−1 , donc tn = 2 · (−1)n−1 . Par
conséquent,
       
kn − 1 kn − 1 kn n−1 kn − 1 kn 1 1
f = fn = fn + 2(−1) − n = + 3(−1)n .
3n 3n 3n 3n 3 2 2 · 3n
   
kn − 1 1 kn 1
2. Les deux expressions calculées montrent que f − et f − ne sont pas de même signe (et
3n 2  3n 2
kn − 1 kn 1
sont non nuls). Comme f est continue, il existe cn ∈ n
, n tel que f (cn ) = , d’après le TVI.
3 3 2
De plus, ces intervalles sont deux à deux disjoints, car

kn 3n − 1 3n+1 − 3 kn+1 − 1
= = = .
3n 2 · 3n 2 · 3n+1 3n+1
Ainsi, les cn sont deux à deux distincts : on a bien trouvé une infinité de solutions de l’équation. Une solution
particulière : x = 21 (déjà prouvé).

8
Lycée Louis-Le-Grand, Paris
MPSI 4 – Mathématiques
A. Troesch

Problème no 6 : Étude d’une fonction réciproque

Correction du problème 1 – Etude d’une fonction réciproque

PARTIE I – Étude de g

1. Variations de g.
(a) La fonction f est définie sur R, continue et dérivable (et même de classe C ∞ ) sur R, puisque c’est une
fonction polynomiale. Sa dérivée est :
f ′ (t) = 3t2 + 1.

Cette dérivée ne s’annule pas sur R, et y est toujours positive. D’où le tableau de variation de f :

t −∞ +∞
f ′ (t) +
+∞
f (t)
−∞

Déterminons les points d’inflexion de f . Pour cela, étudions la dérivée seconde : f ′′ (t) = 6x. Ainsi, f ′′
s’annule en 0, est négative pour t < 0 et positive pour t > 0 (elle change donc de signe en 0).
Ainsi, 0 est un point d’inflexion, et f est concave sur R− et convexe sur R+ .
(b) Voir figure 1. La pente de la tangente au point d’inflexion (0, 0) est f ′ (0) = 1. Ainsi, l’équation de la tangente
en ce point d’inflexion est y = x .
(c) Comme f ′ est strictement positive sur R, f est continue et strictement croissante. Ainsi, d’après le théorème
de la bijection, f est une bijection de R sur l’intervalle image f (R). D’après les valeurs des limites de f en
+∞ et −∞, cet intervalle image est f (R) = R. Ainsi, f est une bijection de R sur R. Elle admet donc une
fonction réciproque g , définie de R dans R. Par définition, g vérifie f ◦ g = id, c’est-à-dire :

g 3 (x) + g(x) = x . (1)

(d) f étant strictement croissante et impaire, sa réciproque g est aussi strictement croissante et impaire
Puisque g est une bijection de R dans R, son image est R. Comme elle est croissante, elle admet des limites
(dans R en +∞ et −∞. Si par exemple en −∞, cette limite est ℓ > −∞, on obtient, par croissante,
g(R) ⊂ [ℓ, +∞[, ce qui contredit g(R) = R. Ainsi, lim g(x) = −∞ et de même lim g(x) = +∞ .
x→−∞ x→+∞

(e) D’après le théorème de dérivation des fonctions réciproques, puisque f est dérivable sur R et que sa dérivée
ne s’annule pas, sa récirpoque g est dérivable en tout point de R. Puisque f est de classe C ∞ , le cours nous
assure même que g est de classe C ∞ également . On obtient alors l’expression de la dérivée :

1 1
∀x ∈ R, g ′ (x) = = 2 . (2)
f′ ◦ g(x) 3g (x) + 1

• g étant croissante et négative sur R− , g 2 est décroissante et positive, donc g ′ est croissante.
• De la même manière, on montre la décroissance de g ′ sur R+ .
• Les limites de g en +∞ et −∞, et la valeur en 0 amènent sans difficulé les valeurs des limites et extrema
de g ′ .
On obtient alors le tableau de variation suivant :

1
5
Graphe de f
Graphe de g

| |

|
−5 5

-5
|

Figure 1 – Graphes de f et de g

x −∞ 0 +∞
1
g ′ (x)
0 0

Les variations de g ′ permettent de conclure que g est convexe sur R− et concave sur R+ . En particulier,
la courbe admet un unique point d’inflexion en 0 .
(f) On l’a justifié dans la question précédente.
(g) Voir figure 1. On obtient le graphe de g en prenant le symétrique du graphe de f par la droite d’équation
y = x.
Les résultats précédents sur g (variations, limites, points d’inflexion) se déduisent bien de cette symétrie !
2. Étude de g ′ – Certaines propriétés de g ′ ne se déduisent pas de f ′ .
(a) Comme f (3) = 6, f (3) ne s’annule pas et par conséquent, f ′ n’a pas de point d’inflexion .
(b) Le point essentiel est de réussir à se ramener à un intervalle fermé borné afin de pouvoir utiliser le théorème
de compacité.
Si α est constante sur [a, +∞[, le résultat est évident (tout point convient).
α(x) + α(c)
Sinon, soit x ∈]a, +∞[ tel que α(x) 6= α(c) et soit y = . La valeur y est strictement comprise
2
entre α(x) et α(c). D’après le théorème des valeurs intermédiaires, la fonction α étant supposée continue,
il existe x1 ∈]c, x[ et x2 ∈]x, +∞[ tels que α(x1 ) = α(x2 ) = y. La fonction α étant continue sur l’intervalle
fermé borné [x1 , x2 ], elle y admet un maximum et un minimum (théorème de compacité). Puisque x ∈ [x1 , x2 ]
et α(x) 6= y, soit le maximum, soit le minimum est obtenu en au moins un point de ]x1 , x2 [, et est donc un
extremum local de α sur l’ouvert ]x1 , x2 [, donc aussi sur [a, +∞[. Attention, ce raisonnement ne serait pas
valable pour un extremum sur le bord !
Ainsi, il existe c ∈]a, +∞[ tel que α présente un extremum local en c.
(c) On calcule g ′′ en dérivant (2) : D’après le théorème de composition des limites, g admettant des limites −∞

2
et +∞ en −∞ et +∞,
−6t
lim g ′′ (x) = lim = 0, ε lim g ′′ (x) = 0 et g ′′ (0) = 0.
x→−∞ t→−∞ (3t2 + 1)3 x→+∞

En appliquant la question précédente à g ′′ sur les deux intervalles ] − ∞, 0] et [0, +∞[, on trouve c1 < 0 et
c2 > 0 tels que g ′′ admet un extremum local en c1 et en c2 (pour c1 on utilise la propriété symétrique à
celle de la question précédente, en −∞). Ceci équivaut bien à dire que g ′ admet un point d’inflexion en ces
points.
Ainsi, g ′ admet au moins deux points d’inflexion.
−6t
On pouvait aussi répondre à cette question par l’étude des variations de g ′′ = h ◦ g, avec h(t) = .
(3t2+ 1)3
Comme g est bijective strictement croissante, cela revient à étudier les variations de h. Or,

−6(3t2 + 1)3 + 6t(18t(3t2 + 1)2 ) −6(3t2 + 1) + 108t2 90t2 − 6


h′ (t) = 2 6
= 2 4
= .
(3t + 1) (3t + 1) (3t2 + 1)4

Ainsi, h′ (t) est du signe de 15t2 − 1. h change donc de sens de variation en − √115 et en + √115 . On en déduit
   
que g ′′ change de sens de variation en g −1 − √115 < 0 et en g −1 √115 > 0. Ces deux valeurs correspondent
à des points d’inflexion de g ′ . On peut même les expliciter puisque g −1 = f .
3. Étude locale et asymptotique de g
(a) La relation ∼ est clairement reflexive et symétrique. Par ailleurs, si f ∼ g et g ∼ h, on considère un voisinage
a a a
V de a sur lequel aucune des 3 fonctions ne s’annule (en prenant l’intersection de voisinages convenables
sparément pour chacune des fonctions). On a alors

f (x) f (x) g(x)


∀x ∈ V, = × −→ 1.
h(x) g(x) h(x)

Ainsi, f ∼ h, donc ∼ est transitive.


a a
Ainsi, ∼ est une relation d’équivalence .
a

(b) On peut utiliser la définition de la dérivée, la fonction g étant dérivable en 0 :

g(x) g(x) − g(0)


∀x ∈ R∗ = −→ g ′ (0) = 1.
x x−0

On obtient bien, par définition, g(x) ∼ x.


0

(c) On peut élever un équivalent à une puissance d’exposant constant (revenir au quotient : le cube d’une
expression tendant vers 1 tend encore vers 1 !). Ainsi, g 3 (x) ∼ x3
0
En utilisant la relation de la question 1(c), il vient donc :

g(x) − x g(x)3
∀x 6= 0, 3
= −→ 1.
−x x3 x→0

Ainsi, g(x) − x ∼ −x3


0

(d) Puisque lim g(x) = +∞, g est négligeable devant g 3 en +∞ :


x→+∞

g(x)
−→ 0.
g 3 (x) x→0

Ainsi,
1
g(x)3 + g(x) x x3
−→ 1 soit: −→ 1, puis: −→ 1.
g(x)3 x→+∞ g(x)3 x→+∞ g(x) x→+∞
1
Ainsi g(x) ∼ x 3
+∞

3
g(x)
(e) La fonction h est définie par la formule : h(x) = 1 − 1. Cette formule a un sens pour tout x ∈ R∗ . Ainsi,
x3
h est bien définie. De plus, d’après la question précédente,

g(x)
lim 1 = 1, donc lim h(x) = 0 .
x→+∞ x3 x→+∞

(f) D’après (1), pour tout x ∈ R∗ :


1 2 2
x(1 + h(x))3 + x 3 (1 + h(x)) = x, soit x 3 (1 + h(x))3 + 1 + h(x) = x 3
2
Ainsi, x 3 ((1 + h(x))3 − 1) = −(1 + h(x)) ∼ −1 puisque h(x) tend vers 0. Par ailleurs, d’après le cours,
+∞

(1 + u)α − 1
−→ α,
u u→0

donc, puisque h(x) → 0 en +∞,


(1 + h(x))3 − 1 ∼ 3h(x)
+∞

On en déduit, que
2 2 1
3x 3 h(x) ∼ −1, c’est-à-dire lim x 3 h(x) = − .
+∞ x→+∞ 3

4. Étude d’une primitive de g


(a) Tout d’abord, remarquons que G est bien définie, car g est continue. Faisons le changement de variables
proposé u = f (t), possible puisque f est de classe C 1 . Les bornes en u sont u1 = 0 et u2 = x, ainsi, les
bornes en t sont

t1 = f −1 (u1 ) = g(u1 ) = g(0) = 0 et t2 = f −1 (u2 ) = g(u2 ) = g(x).

De plus, la relation entre les différentielles est : du = f ′ (t) dt Ainsi, pour tout x dans R,
Z x Z g(x) Z g(x) Z g(x)
G(x) = g(u) du = g(f (t))f ′ (t) dt = t · f ′ (t) dt = (3t3 + t) dt =
0 0 0 0
 g(x)
3 4 1 2 3 4 1
= ·t − ·t = · g (x) − · g 2 (x).
4 2 0 4 2

3 4 1 2
On obtient donc : G = g − g
4 2
(b) On commence par la parité. La fonction g étant impaire,
3 4 1 3 1 3 1
G(−x) = · g (−x) − · g 2 (−x) = · (−g(x))4 − · (−g(x))2 = · g 4 (x) − · g 2 (x) = G(x)
4 2 4 2 4 2

Ainsi, G est pair .


Par définition, la dérivée de G est g, qui est négative sur R− et positive sur R+ .
Ainsi, G est décroissante sur R− et croissante sur R+ .
(c) La limite de g en 0 est 0. Ainsi, g 4 (x) = o(g 2 (x)) au voisinage de 0. Par conséquent,

1 2 1
G(x) ∼ · g (x) ∼ · x2 .
0 2 0 2

La limite de g est +∞ en +∞, ainsi g 2 (x) = o(g 4 (x)) au voisinage de +∞, et par conséquent

3 4 3 4
G(x) ∼ · g (x) ∼ · x 3 .
+∞ 4 +∞ 4

PARTIE II – Approximation rationnelle de g

4
2

|
|
Dx

|
1

| | |
|

u2 u1 1 = u0

Figure 2 – Premières valeurs de un (1)

1. Construction de l’algorithme d’approximation


• L’équation de la tangente à C au point d’abscisse t est :

Y = (X − t)f ′ (t) + f (t) = (X − t)(3t2 + 1) + t3 + t = (3t2 + 1) · X − 2t3 .

L’abscisse du point d’intersection de cette droite avec la droite d’équation Y = x vérifie donc :

2t3 + x
x = (3t2 + 1) · X − 2t3 , soit X= .
3t2 + 1

• Par conséquent, par définition de la suite (un (x))n∈N , cette suite vérifie la relation de récurrence suivante :

2un (x)3 + x
∀n ∈ N, un+1 (x) = .
3un (x)2 + 1

Cette relation d’ordre 1, et la condition initiale u0 (x) = x déterminent entièrement la suite (un (x))n∈N .
2. Étude graphique d’un exemple. On note un pour un (1). Voir figure 2.
3. Étude de l’algorithme
2g 3 (x) + x 2g 3 (x) + x
(a) On calcule ϕ(g(x)) : ϕ(g(x)) = = g(x) · . Or, d’après la relation (1),
3g 2 (x) + 1 3g 3 (x) + g(x)
2g 3 (x) + x = 2x − 2g(x) + x = 3x − 2g(x), et de même, 3g 3 (x) + g(x) = 3x − 2g(x).

Ainsi, ϕ(g(x)) = g(x) .


2t3 + x t3 + t − x f (t) − x
(b) t − ϕ(t) = t − 2
= 2
= . Ainsi, le signe de t − ϕ(t) est celui de f (t) − x .
3t + 1 3t + 1 3t2 + 1
(c) La fonction ϕ, définie sur R+ , est dérivable sur R en tant que fraction rationnelle dont le dénominateur ne
s’annule pas. Sa dérivée vaut :
6t2 (3t2 + 1) − 6t(2t3 + x) 6t4 + 6t2 − 6tx 6t(f (t) − x)
∀t ∈ R+ , ϕ′ (t) = = = .
(3t2 + 1)2 (3t2 + 1)2 (3t2 + 1)2

Ainsi, le signe de ϕ′ est celui de f (t) − x sur R+


Tout d’abord, l’intervalle [g(x), x] n’est pas vide, car d’après la partie I, g(x) 6 x. Par ailleurs, par définition
de g, on a f (g(x)) = x, et omme f est croissante, pour tout t ∈ [g(x), x], f (t) > x. Comme ϕ′ est du signe
de f (t) − x, on en déduit que ϕ′ est positive sur [g(x), x], donc ϕ est croissante sur [g(x), x] .

5
(d) ϕ est croissante sur [g(x), x]. Ainsi

ϕ([g(x), x]) ⊂ [ϕ(g(x)), ϕ(x)].

On a montré plus haut que ϕ(g(x)) = g(x). Par ailleurs,


2x3 + x 2x2 + 1 3x2 + 1
ϕ(x) = 2
=x· 2 6x· 2 = x.
3x + 1 3x + 1 3x + 1
Ainsi, ϕ([g(x), x]) ⊂ [g(x), x] .
(e) Soit t ∈ [g(x), x]. On a déjà montré dans la question 3c que f (t) − x > 0, donc t3 + t − x > 0. De plus
t − x 6 0, donc t3 + t − x 6 t3 . Par conséquent, pour tout t ∈ [x, g(x)] :

6t(t3 + t − x) 6t4 6t4 2


0 6 ϕ′ (t) = 2 1
6 2 2
6 soit: 0 6 ϕ′ (t) 6 .
(3t + 1) (3t + 1) (3t2 )2 3

4. Étude de la convergence
(a) • u0 (x) ∈ [g(x), x]. Comme cet intervalle est stable par ϕ et que pour tout n ∈ N, un+1 (x) = ϕ(un (x)), on
en déduit par une récurrence immédiate que un (x) ∈ [g(x), x] pour tout n ∈ N.
• Puisque u1 (x) ∈ [g(x), x] et u0 (x) = x, on a u1 (x) 6 u0 (x). La croissance de ϕ permet de propager
cette inégalité aux rangs suivants par une récurrence immédiate : si un (x) 6 un−1 (x), en appliquant la
fonction croissante ϕ, et d’après la relation satisfaite par les un (x), on obtient un+1 (x) 6 un (x). Ainsi,
la suite (un (x))n∈N est décroissante.
• Comme elle est aussi minorée par g(x), elle converge. Puisque ϕ est continue, sa limite ℓ vérifie ℓ = ϕ(ℓ),
c’est-à-dire :
2ℓ3 + x
ℓ= 2 ,
3ℓ + 1
ou encore :
3ℓ3 + ℓ = 2ℓ3 + x, d’où ℓ3 + ℓ = x.
La fonction t 7→ t3 + t étant bijective de R dans R, l’équation t3 + t = x admet une unique solution.
Cette solution est par définition g(x). Ainsi, ℓ = g(x) .
(b) Soit n ∈ N. La fonction ϕ est continue sur [g(x), un (x)], dérivable sur ]g(x), un (x)[, et ϕ′ est compris entre
0 et 32 sur [g(x)un (x)] ⊂ [g(x), x]. Ainsi, d’après l’inégalité des accroissements finis,

2 2
0 6 ϕ(un (x) − ϕ(g(x)) 6 (un (x) − g(x)) soit: 0 6 un+1 (x) − g(x) 6 (un (x) − g(x)) .
3 3
(c) Soit x ∈ [0, a]. L’inégalité de la question précédente donne, par une récurrence immédiate :
 n  n  n  n
2 2 2 2
0 6 un (x) − g(x) 6 (u0 (x) − g(x)) = (x − g(x)) 6 x6 a.
3 3 3 3
Ainsi, cette inégalité étant vérifiée pour tout x ∈ [0, a], il en résulte que
 n
2
βn = sup (un (x) − g(x)) 6 a.
x∈[0,a] 3

(d) On part de la seconde expression :

2t + g(x) g 3 (x) − 3t2 g(x) + 2t3 x − g(x) − 3t2 g(x) + 2t3 2t3 + x − (3t2 + 1)g(x)
(t − g(x))2 = = = ,
3t2 + 1 3t2 + 1 3t2 + 1 3t2 + 1
2t + g(x)
puis enfin : (t − g(x))2 = ϕ(t) − g(x).
3t2 + 1
3t
(e) Soit ψ la fonction définie par ψ(t) = 2 . Son domaine de définition est R. Elle est impaire : il suffit de
3t + 1
l’étudier sur R+ . ψ est dérivable sur R, de dérivée :
(3t2 + 1) − 6t(3t) 3 − 9t2
ψ ′ (t) = 2 2
= .
(3t + 1) (3t2 + 1)2
On en déduit les variations de ψ sur R+ :

6
√ 1

|
3

|
3 2
4

√1
−1 − 3
| | | | | |

|
−2 √1 1 2
3

√− 43
− 23

|
-1

|
|
Figure 3 – Graphe de ψ

x 0 √1 +∞
3

ψ ′ (x) + 0 −

3
2

ψ(x)

0 0
√ √
Ainsi, g admet un maximum égal à 23 en √13 , et un minimum égal à − 23 en − √13 . Pour déterminer ses
points d’inflexion et sa convexité, on calcule la dérivée seconde (calculs à votre charge !) :
54(t3 − t)
ψ ′′ (t) = .
(3t2 + 1)3
On en déduit le tableau de signe de ϕ′′ :
x −∞ −1 0 1 +∞
ψ ′′ (x) − + − +

Ainsi, ψ est concave sur ] − ∞, −1] et sur [0, 1], et est convexe sur [−1, 0] et sur [1, +∞[. Elle admet trois
points d’inflexion en −1, 0 et 1. On en déduit le tracé de la courbe de ψ (figure 3)
Evidemment, cette étude complète est inutile ici, seule la valeur des extrema nous intéresse.
(f) • Si t ∈ [g(x), x] ⊂ R+ , g(x) 6 t, et donc, d’après la question 4d,
3t
ϕ(t) − g(x) 6 (t − g(x))2 ,
3t2+1
et comme pour tout t ∈ R+ : √
3t 3
06 2 6
3t + 1 2
d’après l’étude précédente, on en déduit que pour tout t ∈ [g(x), x] :

3
0 6 ϕ(t) − g(x) 6 (t − g(x))2 .
2
• En particulier, étant donné n ∈ N, pour t = un (x), on obtient :

3
0 6 un+1 (x) − g(x) 6 (un (x) − g(x))2 . (3)
2
• On montre maintenant par récurrence sur n ∈ N que
√ !2n −1 √ !2n −1
3 3
(u0 (x) − g(x))2 = (x − g(x))2 .
n n
0 6 un (x) − g(x) 6 (4)
2 2

7
Initialisation : Pour n = 0, les deux termes de l’inégalités sont égaux.
Hérédité : Supposons la prépriété vérifiée au rang n. Ainsi, la relation (4) est satisfaite pour cette valeur
de n. De plus, (3) est satisfaite. Par conséquent :

3
0 6 un+1 (x) − g(x) 6 (un (x) − g(x))2
2
2
√ √ !2n −1 √ !2n+1 −1

3 3 3
(x − g(x))2  = (x − g(x))2 .
n n+1
6
2 2 2

La propriété est donc héréditaire, et par le principe de récurrence, elle est vraie pour tout n ∈ N. On
peut donc conclure que pour tout n ∈ N :

√ !2n −1
3
(x − g(x))2 .
n
0 6 un (x) − g(x) 6
2

• De plus, d’après la relation (1), x − g(x) = g 3 (x) ; comme un (x) ∈ [g(x), x], on en déduit que x − g(x) 6
un (x)3 . On obtient donc :

√ !2n −1
3
un (x)3·2 .
n
0 6 un (x) − g(x) 6
2


3
(g) L’inégalité précédente ne permet de contrôler la convergence que lorsque u3n × 2 < 1. C’est pour cette
raison qu’on se limite à l’intervalle [0, 1].

import math

def phi(t,x):
return (2 * t**3 + x) / (3 * t**2 + 1)

def g(x,err):
u = x
m = math.sqrt(3) / 2
majorant = 1
n = 0
while majorant * (u ** (3 * 2 ** n)) > err:
u = phi(u,x)
n+=1
return(u)

On peut même faire un tracé de la courbe sur [0, 1], en utilisant les fonctions du module matplotlib :

import matplotlib.pyplot as plt

absc = []
ordo = []
for i in range(101):
x = i * 0.01
absc.append(x)
ordo.append(g(x,1e-10))
plt.plot(absc,ordo)
plt.grid()
plt.savefig(’pb_cnt017.eps’)
plt.show()

8
On obtient le tracé suivant :

0.7

0.6

0.5

0.4

0.3

0.2

0.1

0.0
0.0 0.2 0.4 0.6 0.8 1.0

9
Lycée Louis-Le-Grand, Paris
MPSI 4 – Mathématiques
A. Troesch

Problème no 7 : Fonctions dérivables par morceaux

Correction du problème 1 –

Partie I – Préliminaires

1. Soit S ′ = {0 = y1 < y2 · · · < yM = 1} une subdivision telle que S ⊂ S ′ . Remarquez que cela impose 0 ∈ S ′ et
1 ∈ S ′ , d’où la cohérence de notre définition de y1 et yM . De plus tout xi est égal à l’un des yj .
• Ainsi, tout ]yj , yj+1 [ est contenu dans l’un des ]xi , xi+1 [, ce qui assure la continuité de f sur ]yj , yj+1 [.
• Les limites à droite en chaque yj , j ∈ [[1, M − 1]] existent, par le fait que {x1 < · · · < xn } est une partition
subordonnée à f si yj est égal à l’un des xi , et par continuité de f en yj sinon.
• De même pour les limites à gauche en chaque yj , j ∈ [[2, M ]].
Ainsi, S ′ est encore une partition subordonnée à f .
2. (a) Soit f une fonction continue. Il suffit de prendre comme partition subordonnée S = {0 = x1 < x2 = 1}. En
effet, la fonction f est bien continue sur ]0, 1[, et comme elle est aussi continue en 0 et en 1, elle admet une
limite à droite en 0 et une limite à gauche en 1. Ainsi, f est continue par morceaux .
(b) Une fonction croissante est réglée, mais le nombre de points de discontinuité peut être grand, alors que par
définition une fonction continue par morceaux sur [0, 1] n’a qu’un nombre fini de discontinuité. On peut
alors par exemple prendre

 11 si x ∈]0, 1]
f : x 7→ ⌊ x ⌋+1 .
0 si x = 0

1
Cette fonction est bien croissante sur [0, 1], et admet des discontinuités en tout x = n, n ∈ N∗ . Ainsi, elle
ne peut pas être continue par morceaux.
(c) Soit f ∈ D. Par définition, f est dérivable à gauche et à droite en tout point de ]0, 1[, dérivable à droite en 0
et dérivable à gauche en 1. La dérivabilité à droite entraînant la continuité à droite (et de même à gauche),
on en déduit que f est continue à gauche et à droite en tout point de ]0, 1[, donc continue, et continue à
droite en 0 et à gauche en 1. Cela implique la continuité de f sur [0, 1] .
3. (a) La fonction f1 admet une infinité de points de discontinuité sur [0, 1], donc n’est pas continue par morceaux,
et a fortiori pas de classe C 1 par morceaux : f1 6∈ C, f1 6∈ D .
(b) La fonction f2 est continue sur ]0, 12 [ et ] 12 , 1[, mais n’admet pas de limite à droite finie en 0. Donc
f2 6∈ C puis f2 6∈ D .
(c) • La fonction f3 est continue sur ]0, 21 [ et ] 21 , 1[, admet une limite à droite en 0, égale à 0, une limite à
gauche en 21 , égale à 0, une limite à droite en 0, égale à ln(1) = 0, et une limite à gauche en 1, égale à
ln( 23 ). Ainsi, f ∈ C
• Elle est même continue sur [0, 1], ce qui laisse ouvert la possibilité de son appartenance à D, que nous
allons étudier : f3 est évidemment de classe C 1 sur les ouverts ]0, 12 [ et ] 21 , 1[, dérivable à droite en 0, avec
fd′ (0) = −1, dérivable à gauche en 21 , de dérivée fg′ ( 21 ) = 4 · 21 − 1 = 1, dérivable à droite en 12 , de dérivée
1
fd′ ( 21 ) = 1 + 2
1 = 1, dérivable à gauche en 1, de dérivée fg (1) = 3 . On vérifie facilement que f admet des
′ ′
2 2

limites finies à gauche et à droite aux points de la subdivision. Ainsi, f ∈ D . En revanche, f n’est pas
de classe C 1 sur [0, 1].
(d) • La fonction f4 est continue sur [0, 1], par composition de fonctions continues (Arcsin et la valeur absolue).
Ainsi, f4 ∈ C .

1
• Pour tout x ∈ [0, 12 [, f4 (x) = x + 1

2 , donc
1
f4′ (x) = q 2 −→1 +∞.
1 − x + 12 x→ 2

D’après le théorème de la limite de la dérivée, f4 ne peut pas être dérivable à gauche en 21 . Ainsi, f4 6∈ D .
1 1 3
(e) Sans difficulté, f5 est continue par morceaux, de subdivision associée {0 < 4 < 2 < 4 < 1}, et n’est pas
continue en 14 , donc f ∈ C mais f 6∈ D .

Partie II – Dérivée d’une fonction de classe C 1 par morceaux

1. (a) Comme f est de classe C 1 par morceaux, de subdivision subordonnée {0 = x1 < x2 · · · < xN = 1}, f ′ est
continue sur chaque ]xi , xi+1 [. De plus, f ′ admet des limites finies à gauche et à droite en xi , ce qui assure
le fait que g0 est continue par morceaux, de subdivision subordonnée {0 = x1 < x2 · · · < xN = 1}.
(b) Notons, pour tout k ∈ [1, N − 1]], fk′ la fonction définie sur [xk , xk+1 ], comme étant le prolongement par
continuité de f|]x′
k ,xk+1 [
sur [xk , xk+1 ]. La fonction fk′ est alors la dérivée sur [xk , xk+1 ] de f|[xk ,xk+1 ] . Soit
alors x ∈ [xi , xi+1 ]. On a :
Z x i−1 Z
X xk+1 Z x
∀x ∈ [0, 1], g0 (s) ds = g0 (s) ds + g0 (s) ds
0 k=1 xk xi
i−1 Z
X xk+1 Z x
fk′ (s) ds + fi′ (s) ds
k=1 xk xi
i−1
X
= f (xk+1 ) − f (xk ) + f (x) − f (xi ) = f (x) − f (0).
k=1

Z x
Ainsi, on a bien f (x) = f (0) + g0 (s) ds .
0

(c) Soit g ∈ C vérifiant : Z x


∀x ∈ [0, 1], f (x) = f (0) + g(x) ds (1)
0
Quitte à prendre l’union des deux subdivisions associées à g et g0 , on peut supposer que {0 = x1 < · · · <
xN = 1} est une subdivision associée à la fois à g et g0 . On a alors, pour tout x ∈]xi , xi+1 [ (i ∈ [[1, N − 1]]),
en posant y1 = xi +x
2
i+1
:
Z yi Z x Z yi Z x
f (x) = f (0) + g(s) + g(s) = f (0) + g(s) + g0 (s)
0 yi 0 yi

Les deux fonctions g et g0 étant continues sur [yi , x] (ou [x, yi ]), f est dérivable en ce point, et en dérivant :

f ′ (x) = g(x) = g0 (x).

Ainsi, g et g0 coïncident en tout point de [0, 1] \ {x1 , . . . , xN }


2. Soit g ∈ C, et f définie par : Z x
∀x ∈ [0, 1], f (x) = g(s) ds.
0

Soit {0 = x1 < x2 < · · · < xN = 1} une subdivision associée à g, et soit, pour i ∈ [[1, N − 1]], gi la fonc-
tion continue sur
Z x [xi , xi+1 ] par prolongement de la restriction de g à ]xi , xi+1 [. Soit alors x ∈]xi , xi+1 [. La
fonction x 7→ gi (s), définie sur [xi , xi+1 ], est alors de classe C1 sur [xi , xi+1 ], et en particulier, elle est
xi
dérivable à gauche en xi+1 , à droite en xi , et sa dérivée admet en ces points une limite finie (à gauche et droite
respectivement), égale aux valeurs de ces dérivées à gauche et à droite.
Or, pour tout x ∈ [xi , xi+1 ],
Z xi Z x Z x
f (x) = f (0) + g(s) ds + gi (s) ds = C + gi (s) ds,
0 xi xi

2
où C est une constante, donc f est dérivable sur ]xi , xi+1 [, dérivable à droite en xi , dérivable à gauche en xi+1 ,
et f ′ admet une limite à droite en xi et une limite à gauche en xi+1 . Ceci étant vrai sur tout intervalle [xi , xi+1 ],
f ∈D.
3. • Soit {0 = x1 < · · · < xn = 1} une subdivision subordonnée à la fois à f et g. Alors f g est dérivable sur
tout ]xi , xi+1 [, de dérivée f ′ g + f g ′ (les dérivées étant ici les dérivées au sens usuel). Comme f , f ′ , g et g ′
sont continues par morceaux, elles admettent toutes des limites finies en xi et xi+1 , donc aussi f ′ g + f g ′ .
De plus, f et g étant continue sur [0, 1], f g aussi. Donc l’existence de limites à droite et/ou gauche en xi de
(f g)′ assure la dérivabilité à droite et/ou gauche en ces points (théorème de prolongement des fonctions de
classe C 1 ). Ainsi, f g ∈ D.
• On peut alors construire comme dans la question 1 la fonction g0 correspondant à la dérivée de f g, égale
notamment à f ′ g + f g ′ sur chaque intervalle ]xi , xi+1 [, la dérivée étant prise ici au sens usuel.
• Étant donné toute autre dérivée f ′ de f et toute autre dérivée g ′ de g (au sens de l’énoncé), f ′ et g ′ coïncident
avec les dérivées usuelles en tout x 6= xi , sauf en un nombre fini de points, donc f ′ g + f g ′ coïncide avec g0
sauf en un nombre fini de points.
• L’énoncé nous faisant admettre qu’une intégrale est invariante par changement d’un nombre fini de point,
la fonction f ′ g + f g ′ vérifie la relation
Z x Z x
f (x)g(x) = f (0)g(0) + g0 (s) = f (x)g(x) = f (0)g(0) + f ′ (s)g(s) + f (s)g ′ (s),
0 0

et donc par définition f ′ g + f g ′ est une dérivée de f g.


4. Soit Z 1
P (λ) = (g(x) + λ)2 dx > 0.
0
On a, en développant :
Z 1 Z 1
2
P (λ) = g(x) dx + 2λ g(x) dx + λ2 .
0 0
Ce polynôme gardant un signe constant, son discriminant est négatif, d’où :
Z 1  Z 1 Z 1 Z 1 2
2 2
4 g(x) dx − 4 g(x) dx 6 0 donc: g(x) dx > g(x) dx .
0 0 0 0

On a l’égalité si et seulement si le polynôme P admet une racine, donc s’il existe λ ∈ R tel que
Z 1
(g(x) + λ)2 dx = 0.
0

Pour un tel λ, la propriété de positivité de l’intégrale admise en début de l’énoncé nous permet d’affirmer que
g(x) + λ = 0 presque partout. Ainsi, g est bien constante presque partout (on entend par cette expression
constante sauf en un nombre fini de points).
Z x
R1
5. La fonction x 7→ g(s) ds est dans D (question 1(c)) et x 7→ x 0 g(s) ds est de classe C 1 sur [0, 1]. Donc la
0
somme des deux est encore dans D. De plus, de façon évidente, f (0) = f (1) = 1. Donc f ∈ D0 .
6. En prenant pour θ la fonction f de la question précédente, on a, pour presque tout x :
Z 1
θ′ (x) = g(x) − g(s),
0

donc : 2
Z 1 Z 1 Z 1
′ 2
0= g(s)θ (s) ds = g(s) ds − g(s) .
0 0 0

Il découle de la question 2 que g est constante presque partout.


7. Soit θ ∈ D0 . Soit, pour x ∈ [0, 1] : Z x
f˜(x) = f (0) + g(s) ds.
0

3
D’après la question 2, f˜ ∈ D . On a alors
(f˜θ)′ = f˜θ′ + gθ.
Il en résulte que
Z 1 Z 1
f˜(1)θ(1) = f˜(0)θ(0) + (f˜(s)θ′ (s) + g(s)θ(s)) ds = f˜(0)θ(0) + (f˜(s)θ′ (s) − f (s)θ′ (s))
0 0

Comme θ(0) = θ(1), et d’après la question précédente, il vient f˜ = f presque partout .


Comme par définition, f˜(0) = f (0), la relation définissant f˜ amène
Z x
f˜(x) = f (0) + g(s) ds .
0

Par ailleurs, si g est continue, f˜ est une primitive de g sur [0, 1], donc f˜ est de classe C 1 .

Partie III – Minimisation d’une expression intégrale

1. Les fonctions étant continues par morceaux, les intégrales sont bien définies. Un choix de dérivées différentes ne
modifie pas la valeur de l’intégrale (seul un nombre fini de points sont modifiés). Ainsi, Eλ est bien définie .
2. (a) Soit ψ ∈ D0 . Soit F la fonction définie pour tout t ∈ R par :

F (t) = Eλ (uλ + tψ)

Un petit développement montre que F est une fonction polynomiale en t, dont le coefficient du terme de
degré 1 est : Z 1
u′λ (x)ψ ′ (x) − λ(1 − uλ (x)2 )uλ (x)ψ(x) dx.
0
Ainsi,
1
Eλ (uλ + tψ) − Eλ (uλ )
Z

F (0) = lim = u′λ (x)ψ ′ (x) − λ(1 − uλ (x)2 )uλ (x)ψ(x) dx.
t→0 t 0
t6=0

(b) Comme F est minimale en 0 (par définition de uλ ) et que le domaine de F est ouvert, il vient F ′ (0) = 0,
donc
Z 1
u′λ (x)ψ ′ (x) − λ(1 − uλ (x)2 )uλ (x)ψ(x) dx = 0 ,
0

ceci étant vrai pour tout ψ ∈ D0 .


(c) La question II-7, appliquée à f = u′λ et g = λ(1 − u2λ )uλ montre que u′λ coïncide avec une fonction de D
sauf en un nombre fini de points, donc en particulier avec une fonction continue. Soit h cette fonction. La
fonction h est aussi une dérivée de u′ λ, donc
Z x
∀x ∈ [0, 1], uλ (x) = h(s) ds,
0
d’où il vient que uλ est une primitive au sens usuel de h, et est donc de classe C 1 .
Sa dérivée au sens classique différant de u′λ initialement considéré d’un nombre fini de points, les équations
intégrales restent vraies.
La fin de la question I-7 nous assure alors que u′λ est de classe C 1 (car la fonction g cosidérée, définie à partir
de uλ , est continue), donc que uλ est de classe C 2 .
Enfin, on a vu lors de II-7 que la fonction g est une dérivée de f˜, donc ici de u′ , d’où il vient (l’égalité étant
λ
vraie partout par continuité) :

∀x ∈]0, 1[, u′′λ (x) = −λ(1 − uλ (x)2 )uλ (x) .

On a alors u′′λ elle-même de classe C 2 , donc uλ est de classe C 4 , et un argument de récurrence immédiate
amène le fait que uλ est de classe C 2n pour tout n ∈ N, donc uλ est de classe C ∞ .

4
(d) En multipliant la relation précédente par u′λ , on peut primitiver facilement, et, deux primitives différant
d’une constante, il existe Cλ tel que
λ
∀x ∈]0, 1[, (u′λ (x))2 = ((uλ (x)2 − 1)2 − Cλ ).
2
(e) Puisque uλ (0) = uλ (1) = 0, d’après le théorème de Rolle (uλ étant continue sur [0, 1], dérivable sur ]0, 1[),
il existe c ∈]0, 1[ tel que u′λ (c) = 0, donc λ2 ((uλ (c)2 − 1)2 − Cλ ) = 0, donc

Cλ = (uλ (c)2 − 1)2 > 0.

Par ailleurs, en évaluant en 0, on obtient :


λ
u′λ (0)2 = (1 − Cλ ) ,
2
d’où, λ étant positif, Cλ 6 1.
On a bien obtenu Cλ ∈ [0, 1] .
(f) Par ailleurs, si uλ (x) prend la valeur 1 pour un certain x, alors, du fait du signe de u′λ (x)2 , nécessairement
Cλ = 0 puis u′λ (x) = 0. Or, ilexiste une unique solution u de l’équation différentielle sur ]0, 1[ satisfaisant à
u(x) = 1 et u′ (x) = 0, et la fonction constante de valeur 1 convient, donc est égale à cette unique solution.
Cela entre en contradiction avec uλ (0) = 0 et la continuité de uλ en 0.
Ainsi, uλ ne prend pas la valeur 1 sur ]0, 1[, et uλ (0) = uλ (1) = 0. De la même façon, uλ (x) ne peut pas
prendre la valeur −1. Par continuité, le théorème des valeurs intermédiaire nous apprend que pour tout
x ∈ [0, 1], −1 < uλ (x) < 1, donc (uλ (x)2 − 1)2 < 1, en particulier pour la valeur c de la question précédente.
Ainsi, il vient Cλ < 1 .
3. (a) Soit ε ∈]0, 12 [. On vérifie facilement que v est un élément de D0 . Une dérivée possible est :

1

ε
 si x ∈ [0, ε]

∀x ∈ [0, 1], v (x) = 0 si x ∈]ε, 1 − ε[


 1
− ε si x ∈ [1 − ε, 1].
On obtient alors :
1 ε 1
dt dt 2
Z Z Z
′ 2
v (t) dt = + = .
0 0 ε2 1−ε ε2 ε
De même,
1 ε 2 Z 1  2
x2 (1 − x)2
Z Z 
(1 − v(t)2 )2 dt = 1− 2 dx + 1− dx.
0 0 ε 1−ε ε2
Un changement de variable y = x
ε dans la première intégrale et y = 1−x ε dans la seconde amène :
Z 1 Z 1
(1 − v(t)2 )2 dt = 2 (1 − y 2 )2 ,
0 0

valeur que l’on pourrait calculer, indépendante de v, et que nous nommerons simplement 2I. Alors
1 λ
Eλ (v) = + εI .
ε 2
ceci étant vrai pour tout ε ∈]0, 12 [, on peut en particulier choisir ε = √1 ,
λ
dès lors que λ > 4. Ainsi, pour
tout λ > 4, il existe v tel que
I √
 
Eλ (v) = 2 + λ.
2

En posant C = 1 + I2 , on a bien, pour tout λ > 4, Eλ (uλ ) 6 C λ
(b) De façon évident, Eλ (u) = Eλ (−u), donc si uλ 6= 0, la soltion n’est pas unique, puisque −uλ est aussi
solution. Or,
λ
Eλ (0) = ,
4
√ √
λ
et λ = o 4 , donc il existe λ0 que pour tout λ > λ0 , λ4 > C λ, ce qui empêche que 0 soit solution


du problème de minimisation. Comme c’était le seul cas possible d’unicité, à partir de λ0 , la solution du
problème de minimisation n’est pas unique.

5
4. (a) En posant ϕλ = u2λ , il vient :

λ 1
Z
2 1 1 ′
Z
2 λ 1
Z √
(ϕλ (x) − 1) dx 6 (u (x)) dx + (ϕλ (x) − 1)2 dx 6 C λ,
4 0 2 0 4 0
pour tout λ assez grand. Ainsi pour λ assez grand,

λ 1
Z
C
06 (ϕλ (x) − 1)2 dx 6 ,
4 0 λ
Z 1
et le théorème d’encadrement amène : lim (ϕλ (x) − 1)2 dx = 0.
λ→+∞ 0

(b) D’après une des questions précédentes, uλ est à valeurs dans ] − 1, 1[, donc µλ < 1, et donc

∀x ∈ [0, 1], (µ2λ − 1)2 = (1 − µ2λ )2 6 (1 − uλ (x)2 )2 ,

d’où, par intégration :


Z 1
06 (µ2λ − 1) 62
(ϕλ (x) − 1)2 dx .
0

On déduit de la question précédente et du théorème d’encadrement que lim µλ = 1 .


λ→+∞


Partie IV – Minoration des réels C tels que Eλ (uλ ) 6 C λ

1. On peut définir vλ = uλ si λ > λ0 et vλ = 0 sinon. Alors, pour λ < λ0 ,



λ λ √ λ0 √
Eλ (vλ ) = Eλ (0) = = · λ6 · λ,
4 4 4
√ √ 
et pour tout λ > λ0 , Eλ (vλ ) 6 C λ. Ainsi, en prenant C0 = max 4λ0 , C , on a bien, pour tout λ > 0,

Eλ (vλ ) 6 C0 λ .
2. Il suffit de constater que
2


1 y
εx + y 2 − 2xy =
2
εx − √ > 0,
ε ε
1
il vient : εx2 + y 2 > 2xy.
ε
q
En posant ε = λ2 , il vient alors :
r Z 1  √ Z 1
λ 1 λ
Eλ (vλ ) = εvλ′ (x) + (1 − vλ (x)2 )2 dx > |v ′ (x)(1 − vλ (x))2 | dx.
8 0 ε 2 0 λ

3. On pose ηλ = sup |vλ (x)| et on définit la fonction F de R+ dans R+ par :


x∈[0,1]

θ
θ −
3 si 0 6 θ 6 1
F (θ) =
4 + θ −θ si θ > 1.
3 3

(a) La fonction |vλ | étant continue sur le segment [0, 1], elle admet un maximum. Sa borne supérieure ηℓ existe
donc, et est atteinte en un xλ de [0, 1] .
(b) On vérifie sans peine la cotinuité de F sur R+ , la classe C 1 sur R+ \ {1}, et les dérivabilités à gauche et à
droite en 1, avec Fg′ (1) = 0 et Fd′ (1) = 0, donc F est dérivable en 1, F ′ (1) = 0, et on vérifie facilement la
continuité de F ′ en 1. Ainsi, F est de classe C 1 sur R+ .
Par ailleurs, 
1 − θ2 si θ 6 1
∀θ > 0, F ′ (θ) = donc: F ′ (θ) = |1 − θ2 |
θ2 − 1 si θ > 1

6
On peut alors revenir à la question 2 : pour tout λ > 0 :
r Z 1
λ
Eλ (vλ ) > |vλ (x)||F ′ (vλ (x))| dx
2 0
r Z x r Z 1
λ 0
′ λ
= |vλ (x)||F (vλ (x))| dx + |vλ (x)||F ′ (vλ (x))| dx
2 0 2 x0
r Z x r Z 1
λ 0 ′
λ ′

> vλ (x)F (vλ (x)) dx +
vλ (x)F (vλ (x)) dx
2 0 2 x0

r r
λ λ
> (|F (vλ (x0 )) − F (vλ (0))| + |F (vλ (1)) − F (vλ (x0 ))|) = (|F (0) − F (ηλ )| + |F (ηλ ) − F (0)|)
2 2

et ainsi, Eλ (vλ ) > 2λF (ηλ ).
4. En particulier, pour la famille de la question 1, pour tout λ > λ0 ,

Eλ (uλ ) √
√ > 2F (ηλ ).
λ

Par ailleurs, d’après III-4(b), ηλ −→ 1, donc F (ηλ ) tend vers 23 . Soit alors ε > 0. Il existe donc λ1 tel que pour
tout λ0 6 l1 , et tout λ > λ0 , √
Eλ (uλ ) 2 2
√ > − ε,
λ 3
d’où : √
Eλ (uλ ) 2 2
∀λ0 > λ1 , inf √ > − ε.
λ>λ0 λ 3
Eλ (uλ )
La fonction λ0 7→ inf √ étant croissante, elle admet une limite en +∞, et cette limite vérifie donc :
λ>λ0 λ

Eλ (uλ ) 2 2
∀ε > 0, lim inf √ > − ε.
λ0 →+∞ λ>λ0 λ 3

Ceci étant vrai pour tout ε > 0, il vient :



Eλ (uλ ) 2 2
lim inf √ > .
λ0 →+∞ λ>λ0 λ 3

7
Lycée Louis-Le-Grand, Paris
MPSI 4 – Mathématiques
A. Troesch

Problème no 8 : Moyenne arithmético-géométrique

Correction du problème 1 – Autour de la moyenne arithmético-géométrique


Question préliminaire : Comparaison des moyennes arithmétique et géométrique
Soit a et b deux réels positifs. On a
√ √ √
a − 2 ab + b ( a − b)2
ma (a, b) − mg (a, b) = = > 0.
2 2

Ainsi mg (a, b) 6 ma (a, b) .

Partie I – Définition de la moyenne arithmético-géométrique


Soit (a, b) ∈ R2+ . On définit deux suites (an )n∈N et (bn )n∈N par les relations :
an + b n
 
n+1 = = ma (an , bn )
a = a, a
0
, et ∀n ∈ N, √ 2
b 0 = b b = a b = m (a , b )
n+1 n n g n n

1. • D’après la question préliminaire, pour tout n > 1, an > bn . Alors, étant donné n > 1,
an + b n an + an
an+1 = 6 = an ,
2 2
donc la suite (an )n>1 est décroissante.
• De même pour n > 1,
p p
bn+1 = an bn > bn bn = bn .
Donc la suite (bn )n>1 est croissante.
• On obtient alors, pour tout n > 1 :

an > b n > b 1 et b n 6 an 6 a1 .

Ainsi (an )n∈N∗ est décroissante et minorée, donc (an )n∈N converge vers un réel α, et (bn ) est croissante et
majorée, donc (bn )n∈N converge vers un réel β.
2. En passant à la limite dans la première relation de récurrence, il vient :
α+β
α= soit: α=β
2
3. On a ma (a, b) = a1 et mg (a, b) = b1 . La suite (an ) étant décroissante de limite α, il vient

ma (a, b) = a1 > lim an = M (a, b).

De la même manière, la décroissance de (bn ) amène mg (a, b) 6 M (a, b). Ainsi :

mg (a, b) 6 M (a, b) 6 ma (a, b) .

Partie II – Expression intégrale de la moyenne arithmético-géométrique


On pose, pour tout x ∈ [0, 1[, et pour tout (λ, µ) ∈ R2 :
Z π2 Z π2
dt dx
I(x) = p et J(λ, µ) = q .
2 2
0 1 − x sin t 0 λ cos (x) + µ2 sin2 (x)
2 2

1
1. On pose, dans l’intégrale  √  Z π
2 x 2 1
I = q du,
1+x 0 1 − (1+x)2 sin2 (u)
4x

 
(1 + x) sin(t)
le changement de variable u = Arcsin = ϕ(t) Le réel x étant dans [0, 1[, la fonction ψ : t 7→
1 + x sin2 (t)
(1+x) sin(t) 1 π
1+x sin2 (t) est continue et de classe C sur [0, 2 [, et pour tout t de cet intervalle :

(1 + x) cos(t)(1 + x sin2 (t)) − 2x cos(t) sin(t)(1 + x) sin(t) (1 + x) cos(t)(1 − x sin2 (t))


ψ ′ (t) = 2 = >0
(1 + x sin (t))2 (1 + x sin2 (t))2
Ainsi, ψ est strictement croissante, et ψ(0) = 0, ψ π2 = 1. En particulier, pour tout t ∈ [0, π2 [, ψ(t)in[0, 1[.


Par composition de fonctions de classe C 1 , on en déduit que ϕ est de classe C 1 sur [0, π2 [. Comme on n’a pas la
classe C 1 sur l’intervalle fermé, on se restreint dans un premier temps à un intervalle [0, A], où A ∈]0, π2 [. Ainsi,
sur cet intervalle, on a
du (1 + x) cos(t)(1 − x sin2 (t)) 1
= ·q
dt (1 + x sin2 (t))2 1− (1+x)2 sin2 (t)
(1+x sin2 t)2

(1 + x) cos(t)(1 − x sin2 (t)) 1


= ·q
(1 + x sin2 (t)) (1 − x sin (t))2 − (1 + x)2 sin2 (t)
2

(1 + x) cos(t)(1 − x sin2 (t)) 1


= ·q
(1 + x sin2 (t)) (1 − x sin (t) − (1 + x) sin(t))(1 − x sin2 (t) + (1 + x) sin(t))
2

(1 + x) cos(t)(1 − x sin2 (t)) 1


= 2 ·p
(1 + x sin (t)) (1 − sin(t))(1 − x sin(t))(1 + sin(t))(1 + x sin(t))
(1 + x) cos(t)(1 − x sin2 (t)) 1
= ·q
(1 + x sin2 (t)) cos2 (t)(1 − x2 sin2 (t))
(1 + x)(1 − x sin2 (t))
= q
(1 + x sin (t)) (1 − x2 sin2 (t))
2

Le plus dur est fait. On a alors (ϕ étant bijective de [0, π2 [ sur lui-même d’après le théorème de la bijection, car
continue et strictement croissante)
Z ϕ−1 (A)
(1 + x)(1 − x sin2 (t))
Z A
dt 1
q du = q × q dt
4x 2 4x (1+x)2 sin2 (t) 2
0 1 − (1+x) 2 sin (u)
0 1 − (1+x) 2 × (1+x sin2 (t))2 (1 + x sin (t)) 1 − x2 sin2 (t)
Z ϕ−1 (A)
(1 − x sin2 (t))
= (1 + x) q q dt
0 (1 + x sin2 (t))2 − 4x sin2 (t) × 1 − x2 sin2 (t)
Z ϕ−1 (A)
(1 − x sin2 (t))
= (1 + x) q q dt
0 (1 − x sin2 (t))2 × 1 − x2 sin2 (t)
Z ϕ−1 (A)
1
= (1 + x) q dt
0 1 − x2 sin2 (t)
π
et donc, en passant à la limite lorsque A tend vers
 π2(la π
fonction ϕ−1 étant continue en tant que récirpoque
−1 −1
d’une fonction continue, donc limπ ϕ (A) = ϕ = ), on obtient :
A→ 2 2 2
 √ 
2 x
I = (1 + x)I(x)
1+x

2. On a, pour tout x ∈]0, 1] :


π π
dt dt
Z 2
Z 2 p
J(1, x) = q = q = I( 1 − x2 )
0 cos (t) + x2 sin2 (t)
2 0 1 − (1 − x2 ) sin2 (t)

2
D’un autre côté :
 Z π π
1+x √
  
dt 2 2 1−x
Z
2 2 dt
J , x = q = r = I .
2 1+x 2 1+x 2 1+x 1+x
cos2 (t) + x sin2 t
0
 0

1−x 2
2 1− 1+x sin (t)

Par ailleurs, d’après la question précédente :


 q 
2

1−x

2 1 2 1−x
1+x p
I = × × I   = I( 1 − x2 ).
1+x 1+x 1 + x 1 + 1−x
1+x 1 + 1−x
1+x

1+x √
 
On en déduit alors J(1, x) = J , x .
2
3. Soit n ∈ N. Supposons an 6= 0. Alors
bn
!
1+
  r
an + b n p an bn
J(an+1 , bn+1 ) = J , an b n =J an × , an × .
2 2 an

Or, de façon évidente, pour tout α > 0, et tout (λ, µ), on a J(αλ, αµ) = α1 J(λ, µ), donc
r !
1 + abnn
 
1 bn 1 bn
J(an+1 , bn+1 ) = J , = J 1, ,
an 2 an an an

d’après la question précédente, d’où, en rentrant de nouveau le facteur an :

J(an+1 , bn+1 ) = J(an , bn ).

Comme a = a0 > 0, une récurrence immédiate montre alors que cette propriété est vraie pour tout n et que
(J(an , bn ))n∈N est constante .
4. Soit ε > 0 tel que ε < M (a, b). Il existe un rang N ∈ N tel qu’on ait à la fois :

∀n > N, |an − M (a, b)| 6 ε et |bn − M (a, b)| 6 ε.

On a alors, pour tout t ∈ [0, π2 ] et tout n > N :


1 1 1
q 6 q 6 q ,
2 2
(M (a, b) + ε)2 (cos2 t + sin t) a2n cos2 t + b2n sin t (M (a, b) − ε)2 (cos2 t + sin2 t)

soit :
1 1 1
6 q 6 ,
M (a, b) + ε 2 M (a, b) − ε
a2n cos2 t + b2n sin t
et par croissante de l’intégrale, il vient facilement :

π 1 π 1
∀n > N, · 6 J(an , bn ) 6 · .
2 M (a, b) + ε 2 M (a, b) − ε

5. Le terme du milieu de l’encadrement précédent est constant, égal à J(a0 , b0 ) = J(a, b), et ε peut être choisi
aussi petit qu’on veut. Une fois qu’on a remplacé J(an , bn ) par J(a, b), on n’a plus de dépendance en n, on peut
donc sans problème faire tendre ε vers 0, et il vient :
π π
J(a, b) = , soit: M (a, b) = .
2M (a, b) 2J(a, b)

Partie III – Une variante de la moyenne arithmético-géométrique


Soit toujours (a, b) ∈ (R∗+ )2 . On définit cette fois (an ) et (bn ) par :
an + b n
 
n+1 =
a = a a
0
b 0 = b
et ∀n ∈ N, p 2
b = a
n+1 b n+1 n

3
1. • Supposons a 6 b, montrons par récurrence sur n ∈ N la propriété P(n) : 0 6 an 6 bn .
La propriété P(0) est satisfaite d’après l’hypothèse a 6 b.
Soit n ∈ N tel que P(n) est vrai. Alors on obtient :
p
0 6 an+1 6 bn puis: bn+1 > (an+1 )2 > an+1 .

Ainsi, la propriété P(n + 1) est encore vraie.


D’après le principe de récurrence, on a donc, pour tout n ∈ N, 0 6 an 6 bn .
Soit n ∈ N. On déduit alors de la relation définissant an+1 , de la même manière que ci-dessus, que :

an 6 an+1 6 bn ,

puis de la seconde relation, que


p p
bn+1 = an+1 bn 6 b2n = bn ,

d’où la croissance de (an ) et la décroissance de (bn ).


On est dans une situation similaire à celle des suites adjacentes (à part qu’on ne sait pas bien montrer de
façon directe que an − bn tend vers 0), la démonstration de la convergence est rigoureusement la même :
(an )n∈N est croissante et majorée par b0 , et (bn )n∈N est décroissante et minorée par a0 . Donc, d’après le
théorème de la limite monotone, (an ) et (bn ) convergent.
• Si a > b, alors on montre strictement par les mêmes arguments que pour tout n ∈ N, bn 6 an , que (bn ) est
croissante et majorée par a0 et (an ) est décroissante et minorée par b0 . Ainsi, dans cette situation aussi,
(an ) et (bn ) convergent.
• Appelons α la limite de (an ) et β la limite de (bn ). Alors, on montre comme plus haut, en passant à la limite
dans la relation définissant an+1 , que α = β .
2. Le plus simple est de faire une récurrence.
1 sin(α)
Soit, pour tout n dans N, la propriété P(n): Bn = .
2n sin 2αn
B0 est un produit vide, donc par convention B0 = 1, ce qui valide P(0).
Soit n ∈ N. On suppose que P(n) est vrai. Alors

1 sin(α)  α  1 1  α  1 sin(α)
Bn+1 = n α
 × cos n+1 = n × α
 α
 × cos = n+1 α

2 sin 2n 2 2 sin(α) 2 sin 2n+1 cos 2n+1
2n+1 2 sin 2n+1

Cela montre P(n + 1).


Par conséquent, P(0) est vraie, et pour tout n dans N, P(n) entraîne P(n+1). D’après le principe de récurrence,
P(n) est vraie pour tout n dans N.
3. On suppose que a 6 b. Comme a et b sont positifs, on a alors ab ∈ [0, 1], donc α = Arccos ab est bien défini.


Si α = 0, alors a = b et les suites (an ) et (bn ) sont clairement constantes, d’où le résultat attendu.
On suppose don désormais que α 6= 0. Comme a0 = b0 cos(α), on obtient :

a0 + b 0 1 + cos(α) α
a1 = = b0 = cos2 ,
2 2 2
puis : α
p
b1 =
a1 b0 = b0 cos .
2
Pour continuer à exprimer les termes bn , on exprime (bn ) indépendamment de (an ) : pour tout n > 0,
s s
b2n+1
1 + bn+1
r
p an+1 + bn+1 bn + b n+1 bn
bn+2 = an+2 bn+1 = × bn+1 = × bn+1 = bn+1 .
2 2 2
Ainsi, on trouve par exemple :
s
α
 r
1 + cos 2
α α α
b2 = b1 = b1 cos2 = b0 cos cos
2 4 2 4

4
(les cosinus étant positif, a étant par définition dans [0, π2 ]). Ainsi, on voit apparaître le déubut du produit de
cosinus étudié dans la question précédente. On effectue alors une récurrence.
Soit, pour tout n dans N, la propriété P(n): bn = b0 Bn .
Nous venons de montrer que P(0) et P(1) sont vrais (et même P(2)).
Soit n ∈ N. On suppose que P(n) et P(n + 1) sont vrais. Alors, par les hypothèses de récurrence,

bn+1  α 
= cos n+1 ,
bn 2
donc, d’après la relation établie ci-dessus,
s
α

1 + cos 2n+1  α   α 
bn+2 = bn+1 = bn+1 cos n+2 = b0 Bn+1 cos n+2 = bBn+2 .
2 2 2

Par conséquent, P(0) et P(1) sont vraies, et pour tout n dans N, P(n) et P(n + 1) entraînent P(n + 2). D’après
le principe de récurrence, P(n) est vraie pour tout n dans N.
Par conséquent, d’après le calcul précédent, pour tout n ∈ N,

b α sin(α) b sin(α)
bn = ×  −→ .
α 2n sin 2αn α

On peut donc conclure :


 b · sin(α)

si α 6= 0
lim bn = α
n→+∞ b si α = 0.

4. On reprend le même argument en l’adaptant aux fonctions hyperboliques. Pour cela, nous démontrons d’abord,
par analogie avec le cas trigonométrique :
• Lemme 1 : Soit x et y deux réels, alors sh(2x) = 2ch(x)sh(x)
Démonstration : On a
(ex + e−x )(ex − e−x ) e2x − e−2x
2ch(x)sh(x) = = = sh(2x).
2 2
1 + ch(2x)
• Lemme 2 : Soit x un réel. Alors = ch2 (x).
2
Démonstration : on a :
(ex + e−x )2 e2x + 2 + e−2x 2 + 2ch(x) 1 + ch(x)
ch2 (x) = = = = .
4 4 4 2
À l’aide de ces deux résultats, l’argument précédente s’adapte bien, à commencer par le cas α = 0 (correspondant
comme avant à a = b). Nous supposons donc α 6= 0.
Tout d’abord, puisque a > b, ab > 1. Comme ch est strictement croissante sur [0, +∞[, allant de 1 à +∞, et
continue, d’après le théorème de la bijection, ch induit une bijection de [0, +∞[ sur [1, +∞[. Ainsi, il existe un
unique réel α tel que a = ch(α)b.
On a alors, d’après le lemme 2 :
r
1 + ch(α) α α α
a1 = b = bch2 puis: b1 = b2 ch2 = bch .
2 2 2 2

La récurrence effectuée dans le cas a 6 b s’adapte bien pour montrer que


n
Y α
∀n ∈ N, bn = b ch .
2k
k=1

Le même calcul vaut aussi pour ce produit, d’après le lemme 1 :

b sh(α)
∀n ∈ N, bn = .
2n sh 2αn

5
sh(x)
Or, tout comme pour le sinus, lim = 0, d’où le résultat escompté :
x→0 x

 b · sh(α)

si α 6= 0
lim bn = α
n→+∞
b si α = 0.

6
Lycée Louis-Le-Grand, Paris
MPSI 4 – Mathématiques
A. Troesch

Problème no 9 : Suites

Correction du problème 1 – Convergence en un point fixe attractif d’une suite définie par une récurrence
(Adapté de CAPES 1998)

Partie I – Existence et convergence des suites récurrentes

1. (a) Soit, pour tout p dans N∗ , la propriété P(p): Ip+1 ⊂ Ip .


Soit p = 1. Alors I2 = f −1 (I1 ) = f −1 (I). Par définition, f −1 (I) est inclus dans le domaine de définition de
f , donc f −1 (I) ⊂ I = I1 . Ainsi, I2 ⊂ I1 . D’où P(1).
Soit p ∈ N∗ tel que P(p). Alors Ip+1 ⊂ Ip , d’où f −1 (Ip+1 ) ⊂ f −1 (Ip ), ainsi Ip+2 ⊂ Ip+1 . On en déduit
P(p + 1).
Par conséquent, P(1) est vraie, et pour tout p dans N∗ , P(p) entraîne P(p + 1). D’après le principe de
récurrence, P(p) est vraie pour tout p dans N∗ .
(b) Montrer que pour tout p ∈ N∗ , Ip+1 ⊂ Ip .
• D’après la suite d’inclusions de la question précédente, pour tout p ∈ N∗ , Ip ⊂ I. Ainsi, A ⊂ I.
• Soit r un point fixe de f .
Soit, pour tout p dans N∗ , la propriété Q(p): r ∈ Ip .
Par définition, r est dans le domaine de définition de f , donc r ∈ I = I1 . D’où Q(1).
Soit p ∈ N∗ tel que Q(p). Alors r ∈ Ip . Or, f (r) = r, donc r ∈ f −1 ({r}). Ainsi, r ∈ f −1 (Ip ) = Ip+1 . D’où
Q(p + 1).
Par conséquent, Q(1) est vraie, et pour tout p dans N∗ , Q(p) entraîne Q(p + 1). D’après le principe de
récurrence, Q(p) est vraie pour tout p dans N∗ .
Ainsi, pour tout p ∈ N∗ , r ∈ Ip , donc r ∈ A. Ceci étant vrai pour tout point fixe, on en déduit que
Ω ⊂ A. Or, par hypothèse, Ω 6= ∅, donc A 6= ∅.
• Soit x ∈ A. Soit p ∈ N∗ . Alors, puisque x ∈ A, x ∈ Ip+1 , et donc f (x) ∈ f (Ip+1 ) = f (f −1 (Ip )) = Ip
Ainsi, pour tout p ∈ N∗ , f (x) ∈ Ip , et par conséquent, f (x) ∈ A. On en déduit que A est stable par f .
(c) Soit (xn )n∈N une suite récurrente associée à f .
i. Soit p ∈ N∗ . La suite (xn )n∈N étant définie, on en déduit que pour tout n ∈ N, xn+p existe. Ainsi, xn+p−1
est dans le domaine de définition de f , donc xn+p−1 ∈ I1 . Or, xn+p−1 = f p−1 (xn ), où la puissance désigne
la composition itérée. Ainsi,

xn ∈ (f −1 (f −1 · · · f −1 (I1 ))) = I1+p−1 = Ip

(on applique p − 1 fois f −1 à I1 ).


ii. Ainsi, pour tout n ∈ N, pour tout p ∈ N∗ , xn ∈ Ip , donc xn ∈
T
Ip = A.
p∈N∗
iii. • Soit x0 définissant une suite récurrente. Alors, pour tout n ∈ N, xn ∈ A. En particulier, pour n = 0,
x0 ∈ A.
• Réciproquement, si x0 ∈ A, comme A est stable par f , alors pour tout n ∈ N, xn est défini et xn ∈ A.
Donc (xn )n∈N est définie.

2. (a) i. I =]0, 2[ et ∀x ∈ I, f1 (x) = x.

• Soit r un point fixe de f1 . Alors r ∈ I et f (r) = r, donc r = r, et comme r est strictement positif,
r = r2 , puis r = 1. Ainsi, Ω = {1}.

1

• Soit x ∈ f1−1 (I). Alors x ∈ I, et f1 (x) ∈]0, 2[, c’est-à-dire 0 < x < 2. Comme x > 0, cette dernière
inéquation est équivalente à 0 < x < 4. Ainsi, f1−1 (I) =]0, 2[∩]0, 4[= I. Ainsi, f −1 (I) = I. On en
déduit, en répétant cette opération, que pour tout p ∈ N∗ , Ip = I.
ii. I =]0, 2[ et ∀x ∈ I, f2 (x) = x2 ;
• Soit r ∈ Ω. Alors r ∈ I et r = r2 , donc r = 1. Ainsi, Ω = {1}.
√ √
• Soit x ∈ I2 . Alors x ∈ I et 0 < x2 < 2, donc 0 < x < p 2. Donc I2 =]0, 2[.
√ √ 1 1
Soit x ∈ I3 . Alors x ∈ I et 0 < x2 < 2, donc 0 < x < 2 = 2 4 . Donc I3 =]0, 2 4 [.
1
Soit, pour tout p dans N∗ , la propriété R(p): Ip =]0, 2 2p−1 [.
Par hypothèse R(1) est vrai. On a aussi montré R(2) et R(3), plus pour deviner le résultat que par
nécessité.
1
Soit p ∈ N∗ tel que R(p). Alors x ∈ Ip+1 si et seulement si x ∈ I et 0 < x2 < 2 2p−1 si et seulement
1 1 1
si x ∈ I et 0 < x < (2 2p−1 ) 2 . Ainsi, Ip+1 =]0, 2 2p [, d’où R(p + 1)
Par conséquent, R(1) est vraie, et pour tout p dans N∗ , R(p) entraîne R(p + 1). D’après le principe
de récurrence, R(p) est vraie pour tout p dans N∗ .
1 1
Or, lim p = 0, donc lim 2 2p = 20 = 1 (pas de forme indéterminée ici). De plus, cette suite tend
p→+∞ 2 p→+∞
vers sa limite en décroissant strictement, de manière évidente. Montrons qu’alors, A =]0, 1].
∗ Tout d’abord, ]0, 1] ⊂ A. En effet, pour tout p ∈ N∗ , ]0, 1] ⊂ Ip , car la borne supérieure de Ip décroît
strictement vers 1, donc est toujours strictement plus grande que 1. Donc ]0, 1] ⊂
T
Ip = A.
p∈N∗
∗ Réciproquement, A ⊂]0, 1]. En effet, soit x ∈ A. Alors pour tout p ∈ N∗ , x ∈ Ip , donc 0 < x <
1
2 2p−1 .
D’après le théorème de prolongement des inégalités, on obtient, en passant à la limite dans la
deuxième inégalité : 0 < x 6 1. Ainsi x ∈]0, 1].
Les deux inclusions montrent l’égalité A =]0, 1].
iii. I =]0, 2[ et ∀x ∈ I, f3 (x) = 2x − 1.
• Tout d’abord, f3 (x) = x si et seulement si x = 2x − 1 si et seulement si x = 1. Donc Ω = {1}.
• La fonction f3 est strictement croissante sur son domaine, et sur R si on la prolonge. Alors,
   
0+1 2+1 1 3
I2 = f3−1 (I) =]f3−1 (0), f3−1 (2)[∩]0, 2[= , ∩]0, 2[= , .
2 2 2 2
On obtient alors de même 1 3
+1 +1
  
2 2 3 5
I3 = , = , .
2 2 4 4
Par une récurrence que je ne fais pas (même chose que précédemment), on trouve :
 
∗ 1 1
∀n ∈ N , In = 1 − n−1 , 1 + n−1 .
2 2
Les In sont alors une suite d’intervalles enboîtés, de longueur de limite nulle. Ainsi, d’après le théorème
des intervalles emboités, l’intersection est un singleton, constitué du seule point, limite commune des
bornes des In . Ainsi, A = {1}.
(b) Supposons que I est stable par f . Alors f (I) ⊂ I, donc, I ⊂ f −1 (I). Par ailleurs, I étant le domaine de
définition de f , f −1 (I) ⊂ I. Les deux inclusions amènent l’égalité I = f −1 (I). Par itération, on trouve donc,
pour tout n ∈ N∗ , In = I, puis A = I.
3. (a) Tout d’abord, I étant stable, A = I, et pour tout n ∈ N, xn ∈ I.
Soit, pour tout n dans N, la propriété P(n): xn 6 xn+1 .
L’inégalité x0 6 f (x0 ) = x1 nous donne P(0).
Soit n ∈ N tel que P(n). Alors, xn 6 xn+1 . Comme f est croissante sur I, et que xn et xn+1 sont dans I,
on en déduit que f (xn ) 6 f (xn+1 ), donc que xn+1 6 xn+2 . Ainsi, P(n + 1) est vérifié.
Par conséquent, P(0) est vraie, et pour tout n dans N, P(n) entraîne P(n + 1). D’après le principe de
récurrence, P(n) est vraie pour tout n dans N.
Ainsi, la suite (xn )n∈N est croissante.

2
• S’il existe y ∈ Ω un point fixe tel que x0 6 y, montrons que y majore la suite (xn )n∈N .
Soit, pour tout n dans N, la propriété P(n): xn 6 y.
L’inégalité x0 6 y nous donne P(0).
Soit n ∈ N tel que P(n). Alors, xn 6 y. Comme f est croissante sur I, et que xn et y sont dans I, on
en déduit que f (xn ) 6 f (y), donc que xn+1 6 y, puisque y est un point fixe de f . Ainsi, P(n + 1) est
vérifié.
Par conséquent, P(0) est vraie, et pour tout n dans N, P(n) entraîne P(n + 1). D’après le principe de
récurrence, P(n) est vraie pour tout n dans N.
Ainsi, la suite (xn )n∈N est croissante, majorée, donc elle converge d’après le théorème de convergence
monotone. De plus, pour tout n ∈ N, x0 6 xn 6 y, donc la limite ℓ de la suite (xn )n∈N vérifie x0 6 ℓ 6 y,
d’après le théorème de prolongement des inégalités. Or, x0 et y sont dans I, et I étant un intervalle, il
est convexe. Donc ℓ ∈ I. Ainsi, (xn )n∈N converge vers un point de I.
• Réciproquement, supposons que (xn )n∈N converge dans I, et soit y ∈ I sa limite. Alors, f étant continue
sur I (hypothèse donnée dans l’entête du problème), f (y) = y, donc y ∈ Ω. De plus, (xn )n∈N étant
croissante, on a x0 6 y. Ainsi, il existe un point fixe y tel que x0 6 y.
En conclusion, la suite récurrente de valeur initiale x0 converge vers un point de I si et seulement s’il existe
un point fixe y ∈ Ω tel que x0 6 y.
(b) Supposons que (xn )n∈N converge vers un point de I. Soit ℓ sa limite.
• La fonction f étant continue, ℓ ∈ Ω.
• De plus, (xn )n∈N étant croissante, x0 6 ℓ.
• Enfin, soit y un point fixe tel que x0 6 y. Alors, d’après un argument précédent, pour tout n ∈ N,
xn 6 y, et par passage à la limite, ℓ 6 y. Ainsi, ℓ est le plus petit point fixe qui soit supérieur ou égal à
x0 .
(c) (xn )n∈N étant croissante, elle converge dans R. Soit ℓ ∈ R sa limite. Soit I =]a, b[, où a et b sont éléments
de R. On a alors, pour tout n ∈ N, a < xn < b, d’où, d’après le théorème de prolongement des inégalités,
a 6 ℓ 6 b, dans R. De plus, (xn )n∈N étant croissante, ℓ 6= a. Enfin, ℓ 6∈ I, donc ℓ = b. Par conséquent,
(xn )n∈N converge vers b, la borne supérieure de I, qu’elle soit finie ou infinie.
(d) Lorsque x0 > f (x0 ) :
• La suite (xn )n∈N est décroissante.
• Elle converge dans I si et seulement s’il existe un point fixe y ∈ Ω tel que y 6 x0 .
• Dans ce cas, sa limite est le plus grand point fixe qui soit inférieur ou égal à x0 .
• Dans le cas inverse (xn )n∈N converge vers la borne inférieure de I, qu’elle soit finie ou −∞.

Partie II – Points fixes attractifs, répulsifs

1. Inégalité des accroissements finis


• On suppose dans un premier temps que a 6 b.
∗ Si m = 0, alors, pour tout x de J, −M 6 f ′ (x) 6 M . Ainsi, par positivité de l’intégrale,
Z b Z b Z b

− M dx 6 f (x) dx 6 M dx soit: − M (b − a) 6 f (b) − f (a) 6 M (b − a).
a a a

Ainsi, |f (b) − f (a)| 6 M |b − a|. D’autre part, |f (b) − f (a)| > 0 = m|b − a|.
∗ Si m > 0, alors, puisque pour tout x de l’intervalle J, |f ′ (x)| > m, on obtient que soit pour tout x ∈ J,
f ′ (x) > m, soit pour tout x ∈ J, f ′ (x) 6 −m. En effet, si ce n’était le cas, , il existerait deux réels x
et y de J tels que f ′ (x) > m et f ′ (y) 6 −m. Alors, puisque f ′ est continue sur l’intervalle J, et que
0 ∈] − m, m[⊂]f (y), f (x)[, il existe, d’après le théorème des valeurs intermédiaires, un élément c compris
entre x et y, donc c ∈ J tel que f ′ (c) = 0 donc |f ′ (c)| < m, ce qui contredit les hypothèses.
— Premier cas : pour tout x ∈ J, f ′ (x) > m > 0. Alors, puisque par ailleurs, |f ′ (x)| 6 M , on obtient :
Z b Z b Z b
∀x ∈ J, m 6 f ′ (x) 6 M, puis: m dx 6 f ′ (x) dx 6 M dx
a a a
soit: m(b − a) 6 f (b) − f (a) 6 M (b − a).

3
Comme m(b − a) et M (b − a) sont positifs, on en déduit que f (b) − f (a) aussi et que :

m|b − a| 6 |f (b) − f (a)| 6 M |b − a|.

— Deuxième cas : pour tout x ∈ J, f ′ (x) 6 −m, d’où −M 6 f ′ (x) 6 −m. Alors de même :

−M (b − a) 6 f (b) − f (a) 6 −m(b − a) donc: m|b − a| 6 |f (b) − f (a)| 6 M |b − a|,

puisque −m(b − a) et −M (b − a) sont négatifs.


• Supposons maintenant que b 6 a. On utilise alors le résultat précédent avec a′ = b et b′ = a. On a alors :

m|b′ − a′ | 6 |f (b′ ) − f (a′ )| 6 M |b′ − a′ | soit: m|a − b| 6 |f (a) − f (b) 6 M |a − b|


soit: M |b − a| 6 |f (b) − f (a)| 6 M |b − a|.
2. Points fixes attractifs
(a) Par hypothèse, f ′ est continue en r, donc, par définition (rappelée dans l’énoncé) de la continuité,

∀ε > 0, ∃δ > 0, ∀x ∈ B(r, δ) ∩ I, |f ′ (x) − f ′ (r)| < ε.


1−|f ′ (r)|
Prenons ε = 2 , et δ1 comme dans la définition. Alors, pour tout x ∈ B(r, δ1 ) ∩ I,

|f (x)| − |f ′ (r)| 6 |f ′ (x) − f ′ (r)| < 1 − |f (r)|

2
1 − |f ′ (r)| ′ ′ 1 − |f ′ (r)|
donc: − 6 |f (x)| − |f (r)| <
2 2
′ 1 + |f ′ (r)|
donc: |f (x)| < .
2
De plus, I est ouvert, donc est un voisinage de tous ses points, et en particulier de r. Ainsi, il existe δ2 > 0
tel que B(r, δ2 ) ⊂ I. Soit alors δ = min(δ1 , δ2 ). Alors B(r, δ) ⊂ B(r, δ2 ) ⊂ I, et B(r, δ) ⊂ B(r, δ1 ), donc
B(r, δ) ⊂ B(r, δ1 ) ∩ I.
1+|f ′ (r)|
On en déduit que pour tout x ∈ B(r, δ), x ∈ I et |f ′ (x)| 6 k, où on a posé k = 2 , qui vérifie k ∈ [0, 1[,
puisque |f ′ (r)| < 1.
Soit x ∈ B(r, δ). Alors, pour tout y entre x et r, y ∈ B(r, δ), donc |f ′ (y)| 6 k. D’après l’inégalité des
accroissements finis, démontrée dans la question II-1, on en déduit que |f (x) − f (r)| 6 k|x − r|.
Or, r est un point fixe de f , donc finalement, |f (x) − r| 6 k|x − r|, où k ∈ [0, 1[.
(b) Voyons ce qu’il se passe sur les premiers rangs : uN ∈ B(r, δ), donc

|f (xN ) − r| 6 k|xN − r|, soit: |xN +1 − r| 6 k|xN − r|.

En particulier, puisque k < 1 et |xN − r| < δ, on en déduit que xN +1 ∈ B(r, δ), et on peut continuer : la
question précédente amène

|f (xN +1 ) − r| 6 k|xN +1 − r|, donc: |xN +2 − r| 6 k|xN +1 − r| 6 k 2 |xN − r|.

On peut continuer comme cela : chaque étape rajoute un facteur k. On va donc procéder par récurrence
pour montrer proprement la formule souhaitée (tout ce début, bien entendu, vous le faites au brouillon, mais
inutile de le mettre au propre : contentez-vous de la démonstration rigoureuse donnée par la récurrence)
Soit, pour tout n dans [[N, +∞[[, la propriété P(n): |xn − r| 6 k n−N |uN − r|.
P(N ) est trivialement vraie, puisque l’inégalité se réduit alors à |xN − r| 6 |xN − r|.
Soit n > N tel que P(n) soit vraie. Alors,

|xn − r| 6 k n−N |xN − r| 6 |xN − r| < δ,

car k ∈ [0, 1[, et n − N > 0. Ainsi, un ∈ B(r, δ). On applique la question précédente, cela donne :

|f (xn ) − r| 6 k|un − r|, donc: |xn+1 − r| 6 k|xn − r| 6 k n+1−N |xN − r|,

d’après l’hypothèse de récurrence. D’où P(n + 1).


Par conséquent, P(N ) est vraie, et pour tout n dans [[N, +∞[[, P(n) entraîne P(n + 1). D’après le principe
de récurrence, P(n) est vraie pour tout n dans [[N, +∞[[.

4
(c) • Supposons qu’il existe N ∈ N tel que xN ∈ B(r, δ). Alors, d’après II-2(c), pour tout n > N ,

|un − r| 6 k n−N |uN − r|.

Or, k ∈ [0, 1[, donc lim k n−N = 0. Ainsi,


n→+∞

lim |un − r| = 0 soit: lim xn = r.


n→+∞ n→+∞

• Réciproquement, supposons que (xn )n∈N converge vers r. Alors, par définition, avec ε = δ > 0, il existe
N ∈ N tel que pour tout n > N , |xn − r| 6 δ. En particulier, cette inégalité est vraie pour n = N , ainsi,
xN ∈ B(r, δ).
3. Points fixes répulsifs
(a) On procède de même que pour les points fixes attractifs, et on s’autorise donc une rédaction un peu plus
rapide.
Tout d’abord, f ′ étant continue en r, et |f ′ (r)| étant strictement supérieur à 1, il existe δ > 0 tel que pour
tout x ∈ B(r, δ) ∩ I, |f ′ (x)| > 1 (prendre ε = |f ′ (r)| − 1 dans la définition de la continuité). Puisque I est
ouvert, quitte à choisir δ plus petit, on peut supposer que B(x, δ) ⊂ I.
Alors, soit x ∈ B(x, δ). En appliquant l’inégalité des accroissements finis entre x et r, avec m = 1, on obtient
donc
|f (x) − f (r)| > |x − r| donc: |f (x) − r| > |x − r|.

(b) • Une suite stationnaire de valeur r converge évidemment vers r. Remarquez que s’il existe N ∈ N tel que
uN = r, on est dans ce cas, car r étant un point fixe, toutes les valeurs suivantes vont être égales à r.
• Réciproquement, soit (xn )n∈N une suite récurrente convergeant vers r. Alors, puisque δ > 0, par définition
de la limite d’une suite, il existe N ∈ N tel que, pour tout n > N , un ∈ B(r, δ). Ainsi, on peut appliquer
l’inégalité de la question précédente à un :

∀n > N, |un+1 − r| = |f (un ) − r| > |un − r|.

Par conséquent, (|un − r|)n>N est croissante, positive, et de limite nulle puisque (un )n∈N converge vers
0. Ainsi, de l’inégalité
∀n > N, 0 6 |uN − r| 6 |un − r|,

on déduit, par passage à la limite :

0 6 |uN − r| 6 0, donc: uN = r

Ainsi, r étant un point fixe, pour tout n > N , un = r.


4. Un exemple

(a) Soit x ∈]0, 2[. Alors 0 < x2 < 4, donc 0 < 4 − x2 < 4. Ainsi, 0 < f (x) < √45 < 2, puisque 5 > 2. Ainsi, I
est stable par f . La question I-2(b) amène alors A = I =]0, 2[. Donc une suite récurrente (xn )n∈N est définie
pour tout choix de x0 dans I.
(b) On a :
√ √
f4 (x) = x ⇐⇒ 5 · x = 4 − x2 ⇐⇒ x2 + 5 · x − 4 = 0

Résolvons cette équation du second degré. Le discriminant est ∆ = 5 + 16 = 21. Alors, les deux racines sont
√ √ √ √
− 5 − 21 − 5 + 21
r1 = et r2 = .
2 2
√ √
r1 étant strictement négatif, r1 6∈ I. De plus, −3 < 5 < −2 et 4 < 21 < 5, donc
√ √ 1 3
1 < − 5 + 21 < 3 donc: < r2 < donc: r2 ∈ I.
2 2
Ainsi, Ω = {r2 }.

5
De plus, f est dérivable sur I, de dérivée continue, et :
2
∀x ∈ I, f ′ (x) = − √ · x.
5
Par conséquent, √ √
5 − 21
f ′ (r2 ) = √ .
5
√ √ √
Or, 21 > 20 = 2 5, donc
√ √ √
5 − 21 < − 5 donc: |f ′ (r2 )| > 1.

Ainsi, f4 a un seul point fixe, et il est répulsif.


(c) On a, pour tout x ∈ I, f4 ◦ f4 (x) = √1 4 − 15 (4 − x2 )2 = 1
− 16 + 8x2 − x4 ). On a donc

5

5 5
(20

f4 ◦ f4 (x) = x ⇐⇒ x4 − 8x2 + 5 5x − 4 = 0.

Or, les points fixes de f4 (et de son prolongement à R) sont bien sûr des points fixes de f4 ◦ f4 . Ainsi, r1 et

r2 sont des racines de cette équation, donc x2 + 5 · x − 4 se met en facteur. On obtient :
√ √ √
∀x ∈ R, x4 − 8x2 + 5 5 · x − 4 = (x2 + 5 · x − 4)(x2 − 5 · x + 1).

Le discriminant du second facteur est ∆ = 5 − 4 = 1. Ainsi, les racines de X 4 − 8X 2 + X + 12 sont r1 , r2 ,


ainsi que : √ √
5−1 5+1
r3 = et r4 = .
2 2

On a 2 < 5 < 3, donc r3 et r4 sont dans I. Ce sont donc des points fixes de f4 ◦ f4 .
Ainsi, les points fixes de f4 ◦ f4 sont r2 , r3 et r4 .
De plus, r4 > 32 , donc r4 > r2 . De plus,

1 √ √ √ 1 √ √ 1 √ √
r3 − r2 = ( 5 − 1 + 5 − 21) = (2 5 − 21 − 1) = ( 20 − 21 − 1) < 0,
2 2 2
donc r3 < r2 . Ainsi, 0 < r3 < r2 < r4 < 2.
(d) f4 est décroissante car x 7→ x2 est croissante sur I. Ainsi, f4 ◦ f4 est croissante. Or, les suites extraites
(x2n )n∈N et (x2n+1 )n∈N sont des suites récurrentes associées à la fonction f4 ◦ f4 . Ainsi, d’après la question
I-3, (x2n )n∈N et (x2n+1 )n∈N sont monotones. De plus :
• Si x0 ∈]0, r3 [, alors, d’après la question I-3,
∗ soit (x2n )n∈N décroît vers la borne inférieure de I, à savoir 0, ce qui est impossible, car il faudrait
que 0 soit un point fixe du prolongement par continuité de f4 ◦ f4 en 0, ce qui n’est pas le cas ;
∗ soit (x2n )n∈N croît et converge vers le plus petit point fixe de f4 ◦ f4 qui soit supérieur à x0 , à savoir
r3 .
Ainsi, (x2n )n∈N converge en croissant vers r3 . Par continuité et décroissance de f4 , on en déduit que
(x2n+1 )n∈N converge en décroissant vers f4 (r3 ). Or :
∗ f4 ◦ f4 (f4 (r3 )) = f4 (f4 ◦ f4 (r3 )) = f4 (r3 ). Ainsi, f4 (r3 ) est un point fixe de f4 ◦ f4 .
∗ f4 (r3 ) 6= r3 , car r3 n’est pas un point fixe de f4 .
∗ f4 (r3 ) 6= r2 , sinon on aurait r3 = f4 ◦ f4 (r3 ) = f4 (r2 ) = r2 .
∗ Ainsi, f4 (r3 ) = r4 , et de même f4 (r4 ) = r3 .
Par conséquent, (x2n+1 )n∈N converge en décroissant vers x4 .
• Si x0 ∈]r3 , r2 [, alors, d’après la question I-3,
∗ soit (x2n )n∈N converge en croissant vers r2 , le point fixe directement supérieur à x0 ;
∗ soit (x2n )n∈N converge en décroissant vers r3 .
La première solution est impossible. En effet, par continuité de f4 , on aurait alors la convergence de
(x2n+1 )n∈N vers f4 (r2 ) = r2 , donc (xn )n∈N admettrait r2 pour limite, ce qui, d’après la question II-3,
impliquerait que (xn )n∈N est stationnaire de valeur r2 . Or, f4 est strictement décroissante sur I, donc

6
injective. Ainsi, r2 admet un unique antécédent par f4 , qui est r2 lui-même. On en déduit qu’une suite
est stationnaire de valeur r2 si et seulement si x0 = r2 .
Par conséquent, (x2n )n∈N converge vers x3 en décroissant, et par conséquent, (x2n+1 )n∈N converge vers
f (r3 ) = r4 en croissant.
• Si x0 ∈]r2 , r4 [, de même, (x2n )n∈N ne peut pas converger vers r2 , donc (x2n )n∈N converge en croissant
vers r4 , puis (x2n+1 )n∈N converge en décroissant vers r3 .
• Si x0 ∈]r4 , 2[, de même, (x2n )n∈N ne peut pas converger vers 2 qui n’est pas point fixe du prolongement
pas continuité de f4 ◦ f4 en 2, donc (x2n )n∈N converge vers x4 en décroissant, puis (x2n+1 )n∈N converge
vers f (x4 ) = x3 en croissant.
Récapitulatif :
• Si x0 ∈]0, r2 [, alors (x2n )n∈N converge vers r3 et (x2n+1 )n∈N converge vers r4 . Chacune de ces deux suites
est constante dans le cas où x0 = r3 .
• Si x0 ∈]r2 , 2[, alors (x2n )n∈N converge vers r4 et (x2n+1 )n∈N converge vers r3 . Chacune de ces deux suites
est constante dans le cas où x0 = r4 .
• Si x0 = r2 , alors (xn )n∈N est constante de valeur r2 . C’est le seul cas de convergence de (xn )n∈N .

Partie III – Estimation de la vitesse de convergence en un point attractif

1. Soit k et δ comme dans la question II-2(a). Comme par hypothèse, (un )n∈N converge vers r, d’après la question
II-2(c), il existe N satisfaisant aux critères de la question II-2(b). Soit un tel N , alors, d’après II-2(b),

|xN − r|
∀n > N, |xn − r| 6 k n−N |xN − r| = k n · .
kN
Ainsi,
|xn − r| |xN − r|
∀n > N, 6 .
kn kN
Ce majorant est indépendant de n, ainsi, |xn − r| = O(k n ).
2. (a) f est une fonction polynomiale, donc dérivable autant de fois que l’on veut, de dérivées successives continues.
En l’occurrence, ici, f ′′ = 0, donc f ′′ est bien entendu continue.
r
Soit r tel que f (r) = r. Alors r =2 + 2, donc r = 4. Ainsi, Ω = {4}.
De plus, pour tout x ∈ R, f (x)

= 12 , donc |f ′ (r)| = 21 < 1.
Nous somme donc dans le cadre d’un point fixe attractif.
(b) Tout d’abord, remarquez que comme f est définie sur I = R, alors I est stable par f , et par conséquent,
A = I = R, d’après I-2(b). Ainsi, tout choix de x0 ∈ R définit une suite récurrente.
Soit (xn )n∈N une suite récurrente associée à f . On reconnaît une suite arithmético-géométrique. En effet,
(xn )n∈N vérifie la relation de récurrence suivante :
xn
∀n ∈ N, xn+1 = + 2.
2
On a déjà déterminé le point fixe de f , qui est 4. Posons donc, pour tout n ∈ N, yn = xn − 4. Alors :
xn xn − 4 yn
∀n ∈ N, yn+1 = xn+1 − 4 = +2−4= = .
2 2 2
Ainsi, (yn )n∈N est géométrique de raison 12 . On en déduit que

y0 x0 − 4 x0 − 4
∀n ∈ N, yn = = donc: xn = + 4.
2n 2n 2n
(c) Ainsi,
x0 − 4
xn − r = xn − 4 = ∼ λ(f ′ (r))n ,
2n +∞
où λ = x0 − 4, du fait que f ′ (r) = 12 . Cet équivalent est même une égalité, en fait.

7
3. (a) Par hypothèse, (xn )n∈N converge vers r. Donc, d’après la formule de Taylor-Young, rappelée dans l’énoncé,
il existe une suite (εn )n∈N de limite nulle, telle que :
f ′′ (r)
∀j ∈ N, f (xj ) = r + f ′ (r)(xj − r) + (xj − r)2 + (xj − r)2 εj
2
f ′′ (r)
 
′ 1
= r + f (r)(xj − r) 1 + ′ (xj − r) + ′ (xj − r) ,
2f (r) f (r)
factorisation que l’on peut faire car f ′ (r) 6= 0. Ainsi,

∀j ∈ N, xj+1 − r = f ′ (r)(xj − r)(1 + Rj ),

où :
f ′′ (r)
 
1
∀j ∈ N, Rj = ′
+ ′ (xj − r),
2f (r) f (r)
Comme (xj − r) = O(k j ) d’après III-1, on en déduit que Rj = O(k j ).
n−1
Y
(b) Soit, pour tout n dans N∗ , la propriété P(n): xn − r = (f ′ (r))n (x0 − r) (1 + Rj ).
j=0
Pour n = 1, cela donne x1 − r = f ′ (r)(x0 − r)(1 + R0 ), ce qui est exactement la relation trouvée dans la
question précédente, au rang 0. Ainsi, P(1) est vrai.
Soit n ∈ N∗ tel que P(n). Alors, d’après la question précédente suivie de l’hypothèse de récurrence, on a :
n−1
Y n
Y
′ ′ ′ n ′ n+1
xn+1 −r = f (r)(xn −r)(1+Rn ) = f (r)(1+Rn )(f (r)) (x0 −r) (1+Rj ) = (f (r)) (x0 −r) (1+Rj ).
j=0 j=0

Ainsi, P(n + 1) est aussi vrai.


Par conséquent, P(1) est vraie, et pour tout n dans N∗ , P(n) entraîne P(n + 1). D’après le principe de
récurrence, P(n) est vraie pour tout n dans N∗ .
(c) i. On a pour tout j ∈ N, |1 + Rj | > 0. De plus, si |1 + Rj | = 0, alors Rj = −1, et en remplaçant dans
l’expression de la question III-3(a), on obtient xj+1 = r, et donc, comme r est point fixe de f , (xn )n∈N
est stationnaire de valeur r. Ce cas a été exclus des hypothèses de la partie III.
Ainsi, pour tout j ∈ N, |1 + Rj | > 0, donc ln(|1 + Rj |) est défini.
ii. On a Rj = O(k n ), donc, puisque k ∈ [0, 1[, en particulier, (Rj )n∈N tend vers 0. Il existe donc N ∈ N tel
que pour tout j > N , Rj > −1, donc |1 + Rj | = 1 + Rj , donc ln(|1 + Rj |) = ln(1 + Rj ). De plus, comme
(Rj )n∈N est de limite nulle, l’équivalent usuel du logarithme fournit alors :

ln(|1 + Rj |) ∼ Rj .
+∞

iii. Or, Rj = O(k n ), donc toute suite équivalente à (Rj ) est aussi en O(k n ). Ainsi,

ln(|1 + Rj |) = O(k n ), soit: ∃M ∈ R, ∀j ∈ N, | ln(|1 + Rj |)| 6 M k j .


n
iv. Soit pour tout n ∈ N, un =
P
| ln(|1 + Rj |)|.
j=0
• Chacun des termes de cette somme est défini d’après (i).
• D’après (iii) :
n
X 1 − k n+1 M
∀n ∈ N, un 6 M kj = M 6 .
j=0
1−k 1−k

Ainsi, (un )n∈N est majorée.


• Pour tout n ∈ N, un+1 − un = | ln(1 + Rn+1 )| > 0, donc (un )n∈N est croissante. Étant également
majorée, elle est donc convergente dans R.
!
n
v. D’après le résultat admis, la suite (vn )n∈N = est également convergente. Soit ℓ sa
P
ln(|1 + Rj |)
j=0
n∈N
limite. Alors,
n
Y
∀n ∈ N, (1 + Rj ) = evn ,
j=0

8
donc, par continuité de l’exponentielle,
n
Y
lim (1 + Rj ) = eℓ > 0.
n→+∞
j=0

vi. Notons ℓ′ la limite du produit, trouvée dans la question précédente. Alors, puisque ℓ′ 6= 0, on a
n−1
Y
(1 + Rj ) ∼ ℓ′ , donc: xn − r ∼ (f ′ (r))n (x0 − r)ℓ′ = λ(f ′ (r))n ,
+∞ +∞
j=0

où on a posé λ = ℓ′ (x0 − r).


4. (a) On utilise à nouveau la formule de Taylor-Young, donnant l’existence d’une suite (εn )n∈N tendant vers 0, et
telle que :
f ′′ (r)
∀j ∈ N, xj+1 = f (xj ) = r + (xj − r)2 + (xj − r)2 εj ,
2
puisque f ′ (r) = 0. Comme f ′′ (r) 6= 0, on peut écrire

f ′′ (r)
∀j ∈ N, xj+1 − r = (xj − r)2 (1 + Sj ),
2
2εj
où on a posé : ∀j ∈ N, Sj = . Comme (εj )j∈N est de limite nulle, la suite (Sj )j∈N également.
f ′′ (r)
(b) Soit, pour tout n dans N \ {0, 1}, la propriété P(n):
 2n
′′ n−2
2  f (r) Y
−j−1
xn − r = (x0 − r) |1 + Sj |2  (1 + Sn−1 ).
f ′′ (r) 2 j=0

.
En appliquant deux fois la relation de la question précédente, on a :
2
f ′′ (r) f ′′ (r) f ′′ (r)

x2 − r = (x1 − r)2 (1 + S1 ) = (x0 − r)4 (1 + S0 )2 (1 + S1 )
2 2 2
 ′′ 3
f (r)
= (x0 − r)4 (1 + S0 )2 (1 + S1 ),
2

d’où P(2).
Soit n ∈ N \ {0, 1} tel que P(n). Alors, d’après la relation de la question précédente, suivie de l’hypothèse
de récurrence,
f ′′ (r)
xn+1 − r = (xn − r)2 (1 + Sn )
2
  2n 2
′′ ′′ n−2
f (r)  2  f (r) −j−1 Y
= (x0 − r) |1 + Sj |2 (1 + Sn−1 ) (1 + Sn )
 
 ′′
2 f (r) 2 j=0

 2n+1
′′ n−2
2  f (r) Y
−j−1 −n+1−1 n+1
= (x0 − r) |1 + Sj |2  (|1 + Sn−1 |2 )2 (1 + Sn )
f ′′ (r) 2 j=0

Le passage aux valeurs absolues pour (1 + Sn−1 ) est justifié par le fait que l’exposant est pair (l’expression
est élevée au carré). On obtient donc :
 2n+1
′′ n−1
2  f (r) Y
−j−1
xn+1 − r = (x0 − r) |1 + Sj |2  (1 + Sn ).
f ′′ (r) 2 j=0

Ainsi, P(n + 1) est vrai.


Par conséquent, P(2) est vraie, et pour tout n dans N \ {0, 1}, P(n) entraîne P(n + 1). D’après le principe
de récurrence, P(n) est vraie pour tout n dans N \ {0, 1}.

9
!
n−2
2−j−1
(c) Par continuité de l’exponentielle, la convergence de la suite vers une limite non
Q
|1 + Sj |
j=0
!! n>2
n−2 −j−1
nulle est équivalente à la convergence de la suite |1 + Sj |2 dans R, c’est-à-dire à la
Q
ln
j=0
! n>2
n−2
1
convergence de la suite . D’après le résultat admis, il suffit de montrer que la suite
P
2j+1 ln |1 + Sj |
j=0
! n>2
n−2
1
converge.
P
2j+1 |ln |1 + Sj ||
j=0
n>2
Or, comme dans la question III-3(c), cette suite est croissante. Montrons qu’elle est majorée.
Comme (Sj ) est de limite nulle, (ln |1 + Sj |) tend aussi vers 0, donc en particulier est bornée. Il existe donc
M ∈ R tel que pour tout j ∈ N, |ln |1 + Sj || 6 M . Ainsi,

1 M
∀j ∈ N, |ln |1 + Sj || 6 j+1 .
2j+1 2
En sommant, on obtient donc :
n−2 n−2 1
M 1 − 2n−2
 
X 1 X M 1
∀n > 2, |ln |1 + Sj || 6 = · 1 = M · 1 − 6 M.
j=0
2j+1 j=0
2j+1 2 2
2n−2

Ainsi, cette suite est majorée. Étant croissante, elle converge donc dans R. Nous avons expliqué plus haut
en quoi cela répond à la question posée.
(d) i. Soit ε > 0. La suite (ln |1 + Sj |)j∈N est de limite nulle. Donc il existe N ∈ N tel que pour tout j > N − 1,
| ln |1 + Sj || 6 ε. Alors, pour tout n > N , et tout j > n − 1, on a en particulier j > N − 1, donc :
2n
−j−1

1
2 ln(|1 + Sj |2
n
= j+1 ln |1 + Sj | 6 j+1−n ε.
2 2

ii. On a donc, pour tout n > N , et tout m > n,



m m m
n
2 ln
Y
2−j−1 X
n

2−j−1
X ε
|1 + S j | 6 2 ln |1 + S j | 6 j+1−n
,
2

j=n−1 j=n−1 j=n−1

la première inégalité découlant de l’inégalité triangulaire, la seconde de la question précédente. Calculons


la dernière somme, qui est une somme géométrique :
m m−n+1  
X ε X 1 1
=ε = 2ε · 1 − m−n+2 6 2ε.
j=n−1
2j+1−n j=0
2j 2

Ym
−j−1
2
n
Ainsi, pour tout n > N , et tout m > n : 2 ln
|1 + Sj | 6 2ε.

j=n−1
Passons à la limite dans cette inégalité lorsque m tend vers +∞ : le produit tend vers πn , et le logarithme
étant continu, on en déduit que l’expression de gauche tend vers |2n ln πn |. Ainsi, d’après le théorème de
prolongement des inégalités :
∀n > N, |2n ln πn | 6 2ε.

Ainsi, par définition de la convergence d’une suite, la suite (2n ln πn )n>2 tend vers 0.
!
′′ n−2
f (r) 2−j−1
iii. Soit λ la limite de 2 (x0 − r) (on sait qu’elle existe d’après la question 4(c),
Q
|1 + Sj |
j=0
n>2
et qu’elle est non nulle, d’après les hypothèses). Donc λ > 0. De plus, pour tout n > 2,

′′ n−2
f (r) Y −j−1
|1 + Sj |2

λ = (x0 − r) · πn
2 j=0

10
et par conséquent, l’exposant 2n étant pair :
!2n 2n
′′ n−2 ′′ n−2
f (r) −j−1 f (r) −j−1
|1 + Sj |2 |1 + Sj |2
Q Q
2 (x0 − r) 2 (x0 − r)
j=0 j=0 n
= = |πn2 |.
λ2n λ2n
n n
Or, d’après la question précédente, (ln(πn2 ) tend vers 0, donc πn2 tend vers e0 = 1, par continuité de
l’exponentielle. On en déduit que
 2n
′′ n−2
f (r) Y −j−1
 ∼ λ2n .
 (x0 − r) |1 + Sj |2
2 j=0
+∞

Ainsi, d’après la question 4(b) :


n
2λ2
xn − r ∼ .
+∞ f ′′ (r)

Partie IV – Un exemple : les suites de Héron

1. fp est deux fois dérivable sur I, de dérivée seconde continue, car il s’agit d’une fraction rationnelle (donc du
quotient de deux polynômes).
Déterminons les points fixes de fp : soit r ∈ I. On a :
a √ 1
fp (r) = r ⇐⇒ (p − 1)r + = pr ⇐⇒ rp = a ⇐⇒ r = p a = a p .
rp−1
En effet, r est positif, et a admet une unique racine p-ième positive.

Ainsi Ω = { p a}.
Calculons les dérivéessuccessives de fp en r :
• ∀x ∈ I, fp′ (x) = p1 p − 1 − (p−1)a
xp , donc, puisque rp = a, fp′ (r) = 0.
p−1
• ∀x ∈ I, fp′′ (x) = (p−1)a ′′
xp+1 , donc f (r) =
√ 6= 0.
p
a
Ainsi, la fonction fp satisfait aux hypothèses de la partie III, question 4 (et non 3).
2. D’après l’expression de fp′ , on obtient le tableau de variations suivant :

x 0 p
a +∞

fp ′ (x) − 0 +

+∞ +∞
fp (x)

p
a


3. D’après le tableau ci-dessus, puisque p a > 0, fp (I) ⊂ I. Ainsi, d’après la question I-2(b), A = I, et d’après la
question I-1(c), tout choix de x0 dans I définit une suite récurrente.

De plus, toujours d’après le tableau de variations, pour tout x > 0, fp (x) > p a. Ainsi, pour tout n > 1,

xn = fp (xn−1 ) > p a.
De plus, pour tout n > 1,
   
1 a xn a
xn+1 − xn = (p − 1)xn + − xn = −1 .
p xp−1
n p xpn

Comme xn > p
a, on obtient xn+1 − xn 6 0. Ainsi, (xn )n∈N est décroissante, au moins à partir du rang 1.

Étant décroissante et minorée par p a (à partir du rang 1), (xn )n∈N converge dans R, et fp étant continue, sa

limite est l’unique point fixe de fp , à savoir p a.

11
4. (a) Soit (un )n∈N et (vn )n∈N définies par u0 = x0 , v0 = 1 et

∀n ∈ N, un+1 = u2n + avn2 et vn+1 = 2un vn .


un
Soit, pour tout n dans N, la propriété P(n): un > 0, vn > 0 et xn = vn .
u0
On a u0 = x0 > 0, v0 = 1 > 0 et x0 = v0 , d’où P(0).
Soit n ∈ N tel que P(n) soit vrai. Alors

un+1 = u2n + vn2 > 0 et vn+1 = 2un vn > 0.


un+1
On peut donc considérer le quotient vn+1 :

u2 + avn2
     
un+1 1 un avn 1 un avn 1 a
= n = + = + = xn + = xn+1 .
vn+1 2un vn 2 vn un 2 vn un 2 xn
D’où P(n + 1).
Par conséquent, P(0) est vraie, et pour tout n dans N, P(n) entraîne P(n + 1). D’après le principe de
récurrence, P(n) est vraie pour tout n dans N.
(b) Soit n ∈ N. On a :
√ √ √
un+1 + a · vn+1 = u2n + avn2 + 2 aun vn = (un + a · vn )2 .
(c) Ainsi, une récurrence rapide amène :
√ √ n √ n
∀n ∈ N, un + avn = (u0 + av0 )2 = (x0 + a)2 .

Le même raisonnement donne :


√ √ n
∀n ∈ N, un − avn = (x0 − a)2 .

(d) En additionnant les deux égalités précédentes,


√ 2n √ n
∀n ∈ N, 2un = (x0 + a) + (x0 − a)2 ,

et de même, en les soustrayant :


√ √ n √ n
∀n ∈ N, 2 avn = (x0 + a)2 − (x0 − a)2

Ainsi, pour tout n ∈ N :


√ n √ n √ n
un √ √ (x0 + a)2 + (x0 − a)2 √ √ 2(x0 − a)2
xn − r = − a= a· √ √ − a= a· √ √ .
vn (x0 + a)2n − (x0 − a)2n (x0 + a)2n − (x0 − a)2n
√ √ √ n √ n
Or, comme x0 > 0, on a |x0 − a| < |x0 + a|, donc (x0 − a)2 = o((x0 + a)2 ), et donc :
√ 2n √ 2n
√ √
 
2(x0 − a) 2|x0 − a|
xn − r ∼ a · √ = a· √ .
+∞ (x0 + a) (x0 + a)

|x0 − a|
Ainsi, λ2 (x0 ) = √ .
x0 + a
5. (a) i. Pour tout x > 0, gp (x) > 0, donc I =]0, +∞[ est stable par gp . D’après la partie I, tout choix de y0 > 0
définit donc une suite récurrente (yn )n∈N associée à gq .
ii. Pour tout n ∈ N, on a :
 q1
r2q r2q
   
1 q 1
yn+1 = ynq + q soit: yn+1 = ynq + q .
2 yn 2 yn
Ainsi, la suite (ynp )n∈N est une suite récurrente associée à f2 , de valeur initiale y0p , avec a = r2q . D’après
IV-4(d), on a donc :
√ n √ n
√ q 2n n
p 2q
(y0p + r2q )2 + (y0p − r2q )2 p
q (y0 + r ) + (y0p − rq )2
∀n ∈ N, yn = r · p √ √ =r · p .
(y0 + r2q )2n − (y0p − r2q )2n (y0 + rq )2n − (y0p − rq )2n
Ainsi, r et yn étant positifs,
n n  p1
(y0p + rq )2 + (y0p − rq )2

∀n ∈ N, yn = r ·
(y0p + rq )2n − (y0p − rq )2n

12

iii. D’après la question IV-3, (ynp )n∈N converge vers a = rp , donc, yn et r étant positifs, (yn )n∈N converge
vers r. Ainsi, pour tout ℓ ∈ [[0, q − 1]], (rℓ ynq−1−ℓ )n∈N converge vers rq−1 , et, d’après les propriétés de
sommes de limites, on en déduit que :
q−1
X
lim rℓ ynq−1−ℓ = qrq−1 .
n→+∞
ℓ=0

Comme cette limite est non nulle et non infinie, on en déduit que :
q−1
X
rℓ ynq−1−ℓ ∼ qrq−1 .
+∞
ℓ=0

iv. D’après la question IV-4(d), puisque (ynq )n∈N est associée à f2 , on a :


2n
2|y0q − rq |

ynq q
−r ∼ r · q
.
+∞ y0q + rq
q−1 
Or, pour tout n ∈ N, ynq q
rℓ ynq−1−ℓ , donc, d’après la question précédente,
P
− r = (yn − r)
ℓ=0

2n
ynq − rq 2|y0q − rq |

r
yn − r ∼ ∼ .
+∞ qrq−1 +∞ q y0q + rq

2|y0q − rq |
Ainsi, en posant µq = et C = qr , on obtient :
y0q + rq
n
yn − r ∼ C(µq )2 .
+∞

(b) i. L’énoncé ne tient pas la route, suite à une erreur de calcul de ma part lors de sa conception. Il faut
x2
contidérer k définie par k(x) = 1+x + ln(1 − x2 ). Cette fonction k est dérivable sur [0, 21 ] en tant que
composée, quotient et somme de fonctions qui le sont, et

2x(1 + x) − x2
 
1 2x
∀x ∈ 0, , k ′ (x) = −
2 (1 + x)2 (1 − x)(1 + x)
(2 + x)(1 − x) − 2(1 + x) x+3
=x· = −x2 ·
(1 − x)(1 + x)2 (1 − x)2 (1 + x)

Ainsi, pour tout x ∈ [0, 12 ], k ′ (x) 6 0, donc k est décroissante. De plus, k(0) = 0, donc, étant décroissante,
pour tout x ∈ [0, 21 ], k(x) 6 0
ii. On corrige de même : h est définie par h(x) = ln(1 − x) − x1 ln(1 − x2 ). Cette fonction h est dérivable
sur [0, 21 ] en tant que composée, quotient et somme de fonctions qui le sont, et

ln(1 − x2 )
 
1 1 2
∀x ∈ 0, , h′ (x) = − + +
2 1 − x 1 − x2 x2
 2 2

1 −x (1 + x) + 2x 2
= 2 + ln(1 − x )
x 1 − x2
 2 
1 x (1 − x) 2
= 2 + ln(1 − x )
x 1 − x2
 2 
1 x 2 k(x)
= 2 + ln(1 − x ) = 2 .
x 1+x x

D’après l’étude du signe de k, cette expression est négative sur [0, 21 ], donc h est décroissante sur cet
intervalle.

iii. On a, pour tout p > 2 :


p  p−1 p
p2p−1 (p − 1) p2
 
up+1 p p p−1
vp = = = = · .
up p+1 p−1 (p2 − 1)p p 1 − p2

13
Ainsi, pour tout p > 2,    
1 1
ln vn = ln 1 − − p ln 1 − 2 .
p p
Or, lorsque p croît, p1 décroît, et comme p > 2, p1 ∈ [0, 21 ]. D’après la question 5(b)ii, on en déduit que
   
ln 1 − p1 − p ln 1 − p12 croît. Ainsi, (ln(vp ))p>2 est croissante, et par croissance de l’exponentielle,
(vn )p>2 est croissante.
 
1
De plus, lim ln 1 − = 0 et
p→∞ p  
1 −p 1
p ln 1 − 2 ∼ 2 = − ,
p +∞ p p
 
1
donc lim p ln 1 − 2 = 0. Ainsi, lim ln vn = 0, puis lim vn = 1.
p→+∞ p p→+∞ p→∞

iv. Ainsi, pour tout p > 2, vp 6 1, et donc up+1 6 up . Ainsi, pour tout p > 2, up 6 u2 = 21 .
2
1 p−2
a ap
(c) Soit x > a p . On a alors xp−2 > a p , donc xp−1 6 x . Ainsi :

1  a p−1
(fp (x))p−1 = (p − 1)x +
pp−1 xp−1
2
!p−1 p−1   2(p−1−k)
1 ap 1 X p−1 k ka
p
6 (p − 1)x + = p (p − 1) x
pp−1 x p k xp−1−k
k=0
2(p−1) ! p−1
1 r2(p−1)

1 p−1 p−1 a p p−1
6 (p − 1) x + p−1 = xp−1 + p · p−1 .
pp−1 x p p x
 p−1
p−1
Or, d’après la question précédente, pour tout p > 2, p 6 12 , et de plus, pp > 2, donc 1
pp 6 21 . Ainsi :

r2(p−1)
 
1
fp (x)p−1 6 xp−1 + p−1 = gp−1 (x)p−1 .
2 x

Les expressions étant toutes positives, et la fonction puissance p − 1 étant croissante sur R+ , on en déduit
1
que pour tout x > a p , fp (x) 6 gp−1 (x).
1
(d) i. Du fait de la condition initiale, on a immédiatement, d’après la question IV-3, xn > a p (elle ne peut pas
être stationnaire).
1
Soit, pour tout n dans N, la propriété P(n): a p < xn 6 yn .
P(0) provient des conditions initiales.
1 1
Soit n ∈ N tel que P(n). Alors a p < xn 6 yn , donc, fp étant croissante sur [a p , +∞[,

xn+1 = fp (xn ) 6 fp (yn ) 6 gp−1 (yn ) = yn+1

l’avant-dernière inégalité provenant de la question précédente. Ainsi puisqu’on a déjà justifié que xn+1 >
1
a p , on obtient P(n + 1).
Par conséquent, P(0) est vraie, et pour tout n dans N, P(n) entraîne P(n + 1). D’après le principe de
récurrence, P(n) est vraie pour tout n dans N.
n
ii. On a xn ∼ C ′ (λp (x0 ))2 , et yn ∼ Cµq−1 (x0 ). Ainsi, si λp (x0 ) > µq−1 (x0 ), on obtient
+∞ +∞

C′
 
xn λp (x0 )

yn +∞ C µq−1 (x0 )

qui tend vers +∞. Donc xynn tend vers +∞ lorsque n tend vers +∞, ce qui contredit le fait que pour
tout n ∈ N, xn 6 yn . Par conséquent :

2|x0q−1 − rq−1 |
λp (x0 ) 6 µq−1 (x0 ) = .
x0q−1 + rq−1

14
(e) La suite (x′n )n∈N associée à fp vérifiant x′0 = x1 est définie par : ∀n ∈ N, x′n = xn+1 . Ainsi, soit C et C ′
tels que
n n
xn ∼ C(λp (x0 ))2 et x′n ∼ C ′ (λp (x1 ))2 .
+∞ +∞

On a alors
n+1 n
x′n = xn+1 ∼ C(λp (x0 ))2 = C(λp (x0 )2 )2 .
+∞

Par conséquent, C = C ′ et λp (x1 ) = λp (x0 )2 .


1
Or, d’après le tableau de variations de fp , on a x1 > a p , donc on peut appliquer les récultats précédents :

2|x1q−1 − rq−1 |
λp (x1 ) 6 .
x1q−1 + rq−1

On en déduit que
! 12
2|x1q−1 − rq−1 |
λp (x0 ) 6 ,
x1q−1 + rq−1
avec x1 = fp (x0 ).

15
Lycée Louis-Le-Grand, Paris
MPSI 4 – Mathématiques
A. Troesch

Problème no 10 : Séries

Correction du problème 1 –

Partie I – Un critère de comparaison de séries à termes positifs

1. Effectuons une récurrence sur n ∈ [[N, +∞[[.


Soit, pour tout n dans [[N, +∞[[, la propriété P(n): bN an 6 aN bn .
Pour commencer, bN aN = aN bN donc bN aN 6 aN bN , d’où P(N ).
Soit n ∈ [[N, +∞[[ tel que P(n) soit vérifié. D’après l’inégalité vérifiée par les suites (un )n∈N et (vn )n∈N , on a
(les suites étant à termes strictement positifs) :

bn+1
an+1 6 an · .
bn
Ainsi :
bn+1 bn+1
bN an+1 6 bN an · 6 aN b n ·
bn bn
d’après l’hypothèse de récurrence. Ainsi, bN an+1 6 aN bn+1 , d’où P(n + 1).
Par conséquent, P(N ) est vraie, et pour tout n dans [[N, +∞[[, P(n) entraîne P(n + 1). D’après le principe de
récurrence, P(n) est vraie pour tout n dans [[N, +∞[[.
2. (a) Ainsi, si bn converge, alors, aN étant une constante, aN bn converge. Tous les termes étant strictement
P P

positifs d’après l’énoncé, on déduit de l’inégalité précédente, d’après le théorème de convergence des séries à
termes positifs (TCSTP), que bN an converge. Comme bN est une constante non nulle, an converge .
P P

(b) De même, si an diverge, bN étant non nulle, bN an diverge, puis aN bn aussi, d’après le TCSTP, donc
P P P

bn diverge .
P

(c) Montrons la contraposée. Supposons que bn ne diverge pas grossièrement. Alors (bn )n∈N tend vers 0,
P

donc aussi (aN bn )n∈N . Ainsi, l’encadement 0 6 bN an 6 aN bn amène, grâce au théorème d’encadrement,
lim bN an = 0, et comme bN 6= 0, lim an = 0, et par conséquent, an ne diverge par grossièrement.
P
n→+∞ n→+∞
Par contraposée, si an diverge grossièrement, alors bn aussi .
P P

3. Règle de d’Alembert.
(a) Soit ℓ′ tel que ℓ < ℓ′ < 1. En utilisant la définition de limite avec ε = ℓ′ − ℓ, on trouve l’existence de N tel
que pour tout n > N , uun+1 < ℓ′ . Soit pour tout n ∈ N, bn = (ℓ′ )n . Alors

n


un+1 bn+1
∀n > N, 6 .
un bn

D’après la question précédente, puisque bn converge (série géométrique de raison ℓ′ ∈] − 1, 1[), on en


P

déduit que |un | converge donc un converge absolument (les séries sont à termes positifs, et même
P P

strictement positifs au moins à partir d’un certain rang, ce qui est sous-entendu pour |un | par l’existence
P

de la limite du quotient, qui nécéssite que ce quotient soit bien défini, au moins à partir d’un certain rang).
(b) si ℓ > 1, alors il existe un rang N tel que pour tout n > N , |u|un+1
n|
|
> 1. Soit pour tout n ∈ N, an = 1.
|un+1 | an+1
Alors an diverge grossièrement, et pour tout n > N , |un | > an . Donc, d’après la question I-2,
P P
|un |
diverge grossièrement. Ainsi, (|un |)n∈N ne tend pas vers 0, donc (un )n∈N non plus.
Donc un diverge grossièrement .
P

1
4. Exemples
(2n)!
(a) Soit pour tout n ∈ N, un =
(n!)2
i. On a, pour tout n ∈ N :
un+1 (2n + 2)! n!n! (2n + 2)(2n + 1) 4n + 2
= · = 2
= .
un (n + 1)!(n + 1)! (2n)! (n + 1) n+1
un+1
Ainsi, lim =4.
n→+∞ un

ii. • Soit x ∈ R tel que |x| < 41 . Alors, d’après la question précédente,

|un+1 xn+1 | |x|


lim n
= < 1.
n→+∞ |un x | 4
D’après la règle de d’Alembert démontrée dans la question I-3, on en déduit que :
Si |x[< 41 , un xn converge absolument .
P

• Soit x ∈ R tel que |x| > 41 . Alors, d’après la question précédente,

|un+1 xn+1 | |x|


lim n
= > 1.
n→+∞ |un x | 4
D’après la règle de d’Alembert démontrée dans la question I-3, on en déduit que :
Si |x| > 41 , un xn diverge grossièrement .
P

(b) De même, pour tout n ∈ N,


vn+1 (2n + 2)! n!(n + 1)! (2n + 2)(2n + 1) 4n + 2
= · = = .
vn (n + 1)!(n + 2)! (2n)! (n + 1)(n + 2) n+2
vn+1
Ainsi, lim = 4. Par conséquent :
n→+∞ vn
|vn+1 xn+1 |
• si |x| < 41 , lim < 1, donc vn xn converge absolument ;
P
n→+∞ n
|vn x |
|vn+1 xn+1 |
• si |x| > 14 , lim > 1, donc vn xn diverge grossièrement ;
P
n→+∞ |vn xn |
(c) De même, pour tout n ∈ N,

wn+1 (3n + 3)! (n!)3 (3n + 3)(3n + 2)(3n + 1) 3(3n + 2)(3n + 1)


= · = = .
wn ((n + 1)!)3 (3n)! (n + 1)3 (n + 1)2
wn+1
Ainsi, lim = 33 = 27. Par conséquent :
n→+∞ wn
1 |wn+1 xn+1 |
• si |x| < 27 , lim < 1, donc wn xn converge absolument ;
P
n→+∞ n
|wn x |
1 |wn+1 xn+1 |
• si |x| > 27 , lim > 1, donc wn xn diverge grossièrement ;
P
n→+∞ n
|wn x |

Partie II – Règle de Duhamel.

1. (a) On a, pour tout n ∈ N∗ ,


xn+1 nα 1
= = α .
xn (n + 1)α 1 + n1
xn+1
Ainsi, lim =1.
n→+∞ xn
 −α
xn+1 1
(b) D’après ce qui précède, pour tout n ∈ N∗ , = 1− .
xn n
1
Or, comme lim = 0, on a un équivalent classique :
n→+∞ n
 −α
1 α
1− −1 ∼ − ,
n +∞ n

2
et par conséquent,
 −α    −α  
1 α 1 1 α 1
1− −1=− +o , soit: 1− =1− +o .
n n n n n n

2. Règle de Duhamel.
(a) Supposons que β > 1.
i. Considérons un α tel que 1 < α < β. Alors
     
un+1 β 1 xn+1 α 1 un+1 xn+1 α−β 1
= 1− +o et = 1− +o donc: − = +o .
un n n xn n n un xn n n

un+1 xn+1 α−β


Puisque α − β 6= 0, on en déduit que − ∼ . Ainsi, pour n assez grand ces deux
un xn +∞ n
expressions sont de même signe (en effet, leur quotient étant de limite 1, il existe un rang N à partir
duquel ce quotient est strictement positif, d’où l’égalité des signes) Or, α − β < 0. Par conséquent, il
existe un rang N ∈ N tel que

un+1 xn+1 un+1 xn+1


∀n > N, − 60 donc: 6 .
un xn un xn

ii. Les séries étant par hypothèse à termes strictement positifs, on peut appliquer le résultat de la question
I-2 : la série xn est une série de Riemann de paramètre α > 1, donc convergente, par conséquent,
P

un converge .
P

(b) De même, si β < 1, on peut choisir α tel que β < α < 1. On obtiendra de la même façon :
un+1 xn+1 α−β
− ∼ .
un xn +∞ n
Ainsi, ces deux expressions sont de même signe à partir d’un certain rang, mais cette fois, α − β > 0. Donc,
il existe N ∈ N tel que
un+1 xn+1 un+1 xn+1
∀n > N, − >0 donc: > .
un xn un xn
Or, xn diverge en tant que série de Riemann de paramètre α < 1, donc, les séries étant à termes strictement
P

positif, un diverge d’après la question I-2.


P

Partie III – Exemples

1. (a) On a, pour tout n ∈ N,


1
un+1 xn+1 un+1 4n + 2 1 + 2n
= · x = = .
un xn un 4(n + 1) 1 + n1
Ainsi,
un+1 xn+1
     
1 1 1 1 1 1
= 1+ 1− +o =1+ − +o .
un xn 2n n n 2n n n2

un+1 xn+1
 
1 1
Ainsi, =1− +o .
un xn 2n n
1
(b) La série un xn étant à termes strictement positifs, d’après la règle de Duhamel, puisque un xn est divergente
P P
2 < 1,
(c) D’après ce qui précède, pour tout n ∈ N,

un+1 xn+1 4n + 2
n
= < 1,
un x 4n + 4

donc, puisque un xn > 0, on en déduit que (un xn )n∈N est décroissante .


un+1 xn+1
 
On a, pour tout n ∈ N, ln(un+1 xn+1 ) − ln(un xn ) = ln .
un xn

3
un+1 xn+1
Or, lim = 1, donc
n→+∞ un xn

un+1 xn+1 un+1 xn+1


 
1
ln ∼ −1 ∼ − ,
un xn +∞ un xn +∞ 2n

puisque, d’après la question III-3a,

un+1 xn+1
 
1 1
n
−1=− +o .
un x 2n n

Ainsi, les deux séries


 étant à termes tous négatifs, d’après le théorème de comparaison par équivalents,
X un+1 xn+1 X 1
ln et − sont de même nature. Or, la seconde diverge (en tant que série de Riemann
un xn 2n
de paramètre 1), donc la première aussi. Par conséquent, la série ln(un+1 xn+1 ) − ln(un xn ) diverge. Cette
P

divergence se fait forcément vers −∞, puisque la série est à termes négatifs. Or,
N
X −1
∀N ∈ N∗ , ln(un+1 xn+1 ) − ln(un xn ) = ln(uN xN ) − ln(u0 x0 ),
n=0

(il s’agit d’une somme télescopique), donc, d’après ce qui précède,

lim ln(un+1 xn+1 ) − ln(un xn ) = −∞, donc: lim un+1 xn+1 = 0 .


n→+∞ n→+∞

n
X
(d) On utilise la technique des séries alternées. Soit pour tout n ∈ N, Sn = uk (−x)k . Alors :
k=0
• Pour tout n ∈ N, S2n+2 − S2n = u2n+2 (−x)2n+2 + u2n+1 (−x)2n+1 = u2n+2 x2n+2 − u2n+1 x2n+1 6 0,
puisque (un xn ) décroit. Donc (S2n )n∈N est décroissante
• Pour tout n ∈ N, S2n+3 − S2n+1 = u2n+3 (−x)2n+3 + u2n+2 (−x)2n+2 = u2n+2 x2n+2 − u2n+3 x2n+3 > 0,
puisque (un xn ) décroit. Donc (S2n+1 )n∈N est croissante
• Pour tout n ∈ N, |S2n+1 − S2n | = u2n+1 x2n+1 , donc lim S2n+1 − S2n = 0.
n→+∞
Ainsi, les suites (S2n )n∈N et (S2n+1 )n∈N sont adjacentes, donc convergent vers une limite commune. Alors
(Sn )n∈N converge aussi vers cette limite commune. D’où la convergence de un (−x)n .
P

2. Soit (vn )n∈N la suite définie en I-4, et x = 1ℓ .


(a) On procède de même que pour un xn . Pour tout n ∈ N,
P

1
vn+1 xn+1 4n + 2 1 + 2n
= = ,
vn xn 2(n + 2) 1 + n2

donc

vn+1 xn+1 vn+1 xn+1


       
1 2 1 1 2 1 3 1
= 1+ 1− +o =1+ − +o = 1− +o = .
vn xn 2n n n 2n n n 2n n vn xn

(b) Par conséquent, la série vn xn étant à termes strictement positifs, en utilisant la règle de Duhamel avec
P

β = 32 > 1, on obtient la convergence de vn xn .


P

De plus, pour tout n ∈ N, |vn (−x)n | = vn xn , puisque x > 0, donc, d’après ce qui précède,
vn (−x)n converge absolument .
P

Partie IV – Une petite amélioration à la règle de Duhamel


1 1
1. On a ∼ , et les séries sont toutes deux à termes positifs (en se restreignant à n > −a, conformément
n + a +∞ n
P 1 P1 P 1
à l’énoncé). Ainsi, n+a est de même nature que la série de Riemann n , donc n+a est divergente .

4
a+1
2. D’après les DL classiques, puisque lim = 0,
n
n→+∞

a + 1 (a + 1)2 (a + 1)3 a + 1 (a + 1)2


   
1 1
=1− + + O = 1 − + + O ,
1 + a+1
n
n n2 n3 n n2 n3
en supposant que a 6= −1 (hypothèse manquante dans l’énoncé).
Or, pour tout entier n > −a,
yn+1 n+a 1 + na
= =
yn n+1+a 1 + a+1
n
a + 1 (a + 1)2
  
 a 1
= 1+ · 1− + + O
n n n2 n3
a + 1 (a + 1)2
 
a a(a + 1) 1
=1− + + − + O ,
n n2 n n2 n3
les termes que je n’ai pas écrits dans ce développement étant des termes en O n13 . En simplifiant un peu, on


obtient :  
yn+1 1 1+a 1
=1− + +O .
yn n n2 n3
 
1 1
3. Soit (un )n∈N une suite telle que un = 1 − + O .
n n2
(a) Par définition des O, il existe M > 0 tel que pour tout n ∈ N,
M un+1 1 M
− 2
6 −1+ 6 2
n un n n
Il existe de même M ′ tel que pour tout n ∈ N,
M′ yn+1 1 1+a M′
− 6 − 1 + − 6 .
n3 yn n n2 n3
D’où, en soustrayant ces encadrements (en les croisant bien entendu !)
M M′ un+1 yn+1 1+a M M′
− 2
− 3 6 − + 2
6 2 + 3,
n n un yn n n n
et donc, pour tout n ∈ N :
M + 1 + a M′ un+1 yn+1 M − 1 − a M′
− 2
− 3 6 − 6 + 3,
n n un yn n2 n
Choisissons a de sorte que M + 1 + a < 0, par exemple a = −(M + 2). Alors pour tout n ∈ N,
un+1 yn+1 1 M′ n − M′
− > 2− 3 = .
un yn n n n3
Or, cette expression est positive pour n assez grand (plus précisément pour n > M ′ ). Donc, il existe a ∈ R,
et N ∈ N tel que
un+1 yn+1
∀n > N, >
un yn
(b) Les séries étant à termes strictement positifs (pour n > −a), d’après la question I-2, puisque yn diverge,
P

un diverge .
P

4. On a, pour tout n ∈ N,
2 1
 
wn+1 xn+1 3(3n + 2)(3n + 1) 1 + 3n 1 + 3n
= = 2
wn xn 27(n + 1)2 1 + n1
      
2 1 1 1 2 1 1 1 1
= 1+ 1+ 1− +O = 1 + + − − + O ,
3n 3n n n2 3n 3n n n n2
les autres termes dans ce développement étant en O n12 . Ainsi,


wn+1 xn+1
 
1 1
= 1 − + O .
wn xn n n2
Comme wn xn est à termes strictement positifs, on peut appliquer la question IV-3. On en déduit que
P

wn xn diverge .
P

5
Lycée Louis-Le-Grand, Paris
MPSI 4 – Mathématiques
A. Troesch

Problème no 11 : Fonctions régulières sur un intervalle

Correction du problème 1 – Calcul approché d’une intégrale

Partie I – Approximation polynomiale au bord gauche

Soit f une fonction de classe C n+1 sur un intervalle [α, β].


1. La fonction f étant de classe C n+1 , pour tout k ∈ [[0, n + 1]], f (k) est continue sur l’intervalle fermé borné [α, β],
donc est bornée d’après le théorème de compacité. On en déduit l’existence de Mℓ = sup |f (ℓ) | .
2. Soit P ∈ Rn [X] un polynôme quelconque, qu’on peut écrire de manière unique sous la forme :
n
X
P (X) = aℓ (X − α)ℓ .
ℓ=0

Un calcul simple de dérivée montre qu’on a alors, pour tout ℓ ∈ [[0, n]] :

P (ℓ) (α) = ℓ!aℓ .

P (ℓ) (α)
Ainsi, on a pour tout ℓ ∈ [[0, n]], P (ℓ) (α) = f (ℓ) (α) si et seulement si pour tout ℓ ∈ [[0, n]], αℓ = , si et

seulement si
n
X f (ℓ) (α)
P = (X − α)ℓ
ℓ!
ℓ=0

3. On a bien entendu reconnu le développement de Taylor de f en α. Ainsi, la fonction f étant de classe C n+1 , on
peut utiliser l’inégalité de Taylor-Lagrange : pour tout x ∈ [α, β] :

Mn+1
|(f (x) − P (x))| 6 (x − α)n+1 ,
(n + 1)!

et en intégrant :
Z Z
β β
Mn+1
Z β
Mn+1
(f (x) − P (x)) dx 6 |f (x) − P (x)| dx 6 (x − α)n+1 dx = (β − α)n+2 .

(n + 1)! (n + 2)!

α α α

4. On utilise la majoration précédente sur chaque intervalle [xk , xk+1 ] de la subdivision, k ∈ [[0, N − 1]] :
Z xk+1
Mn+1 Mn+1
(f (x) − Pk (x)) dx 6 (xk+1 − xk )n+2 = (b − a)n+2 ,

xk (n + 2)! (n + 2)!N n+2

où Pk est le polynôme de Taylor à l’ordre n en xk . Or,


xk+1 xk+1 n n
f ℓ (xk ) f ℓ (xk )
Z Z X X
P (x) dx = (x − xk )ℓ dx = (xk+1 − xk )ℓ+1 .
xk xk ℓ! (ℓ + 1)!
ℓ=0 ℓ=0

b−a
Puisque xk+1 − xk = , on obtient :
N
Z xk+1 n
X f ℓ (xk ) (b − a)ℓ+1
P (x) dx = .
xk (ℓ + 1)! N ℓ+1
ℓ=0

1
Ainsi, en sommant ces expressions, en utilisant la relation de Chasles et l’inégalité triangulaire, il vient :
Z n N −1
! N −1
b X (b − a)ℓ+1 X (ℓ) X Mn+1 Mn+1 (b − a)n+2 1
n+2
f (x) dx − f (x ) 6 (b − a) = · n+1 .

ℓ+1 k n+2
(ℓ + 1)!N (n + 2)!N (n + 2)! N

a
ℓ=0 k=0 k=0

Ainsi, lorsque N tend vers +∞

n N −1
!
b
(b − a)ℓ+1 X (ℓ)
 
1
Z X
f (x) dx = f (xk ) + O .
a (ℓ + 1)!N ℓ+1 N n+1
ℓ=0 k=0

1
5. Lorsque n = 0, on retrouve la méthode des rectangles à gauche, et la vitesse de convergence en O justifiée

N
dans le cours d’informatique commune.

Partie II – Approximation polynomiale au point milieu

1. Comme précédemment, Qn,k est le développement de Taylor de f au point mk . Ainsi, l’inégalité de Taylor-
Lagrange donne cette fois :
Z xk+1 Z xk+1
Mn+1
|x − mk |n+1 dx.

(f (x) − Qn,k (x)) dx 6


xk (n + 1)! xk
En utilisant les symétries de la fonction à intégrer (c’est-à-dire un changement de variable t = xk+1 − x sur la
moitié de l’intervalle), on obtient :
Z xk+1 Z xk+1
Mn+1 (b − a)n+2

Mn+1 Mn+1
(x−mk )n+1 dx = 2· (xk −mk )n+2 =

(f (x) − Q n,k (x)) dx 6 2· · .

xk
(n + 1)! mk (n + 2)! (n + 2)! 2n+1
n
X f ℓ (mk )
L’intégrale de Qn,k = (X − mk )ℓ se calcule en remarquant que
ℓ!
ℓ=0

Z xk+1 0
 si ℓ impair
(x − mk )ℓ dx = (b − a)ℓ+1
xk 2
 si ℓ pair.
(ℓ + 1)(2N )ℓ+1
On aboutit donc, comme précédemment, en sommant sur les valeurs de k, à :

n N −1
!
b
(b − a)ℓ+1 X (ℓ)
 
1
Z X
f (x) dx = f (m k ) + O
a (ℓ + 1)!2ℓ N ℓ+1 N n+1
ℓ=0 k=0
ℓ pair

2. Si n est pair, le calcul précédent montre que la partie de degré n + 1 (impair) de Qn+1,k ne contribue à rien
dans le calcul de l’intégrale, donc Z xk+1 Z xk+1
Qn,k = Qn+1,k .
xk xk
Ainsi, dans toutes les majorations précédentes, on peut remplacer Qn,k par Qn+1,k , ce qui nous fait gagner un
ordre. Ainsi :

n N −1
!
b
(b − a)ℓ+1 X (ℓ)
 
1
Z X
f (x) dx = f (mk ) + O
a 2ℓ (ℓ + 1)!N ℓ+1 N n+2
ℓ=0 k=0
ℓ pair

3. Dans le cas n = 0, on retrouve la méthode du point milieu. Le cas n = 1 consiste à approcher la courbe par la
tangente au point milieu. Mais quelle que soit la droite passant par le point milieu d’un intervalle, son intégrale
sur cet intervalle est la même, donc on a exactement la même expression que la méthode du point milieu. On
ne gagner rien de plus.
Au passage, on retrouve la vitesse de convergence de la méthode du point milieu, en O N12 . On comprend


bien d’où vient ce facteur puisque cela revient à faire l’approximation par la tangente.

2
Partie III – Méthodes de Newton-Cotes

1. Il s’agit d’un polynôme d’interpolation, qu’on calcule à l’aide des polynômes de Lagrange :
Y
(X − yi )
n
X i∈[[0,n]]\{k}
P (X) = f (yk ) Y .
ℓ=0 (yk − yi )
i∈[[0,n]]\{k}

2. On a alors n
Z β X
P (t) dt = (β − α) bn,k f (yk ),
α k=0

où Y
(x − yi )
β
1
Z
i∈[[0,n]]\{k}
bn,k = dx.
β−α
Y
α (yk − yi )
i∈[[0,n]]\{k}

Comme yk − yi = (k − i)(β − α), on a donc :


β
1
Z Y
bn,k = Y (x − yi ) dx.
(β − α)n+1 (k − i) α i∈[[0,n]]\{k}
i∈[[0,n]]\{k}

x−α
On pose le changement de variable t = n · , de classe C 1 . Il vient
β−α
Z β
β−α n
 
β−α β−α
Y Z Y
(x − yi ) dx = α+t −α−k dt
α i∈[[0,n]]\{k} n 0 i∈[[0,n]]\{k} n n

(β − α)n+1 n
Z
= t(t − 1) . . . (t − k − 1)(t − k + 1) . . . (t − n) dt.
nn+1 0

Ainsi,
n
1
Z
bn,k = Y t(t − 1) . . . (t − k − 1)(t − k + 1) . . . (t − n) dt ,
nn+1 (k − i) 0
i∈[[0,n]]\{k}

3. Comme les bn,k sont indépendants de f , α et β, il suffit de prendre f la fonction constante égale à 1, qui est
son propre polynôme d’interpolation sur l’intervalle [0, 1]. On obtient immédiatement

n
X Z 1
bn,k = f (x) dx = 1 .
k=0 0

4. Contrôle de l’erreur d’interpolation.


(a) Comme q(yi ) = 0, et f (yi ) = P (yi ) pour tout i, les yi sont bien des zéros de g . De plus on voit facilement
que x est aussi un zéro de g .
(b) Ainsi, l’application g possède n + 2 zéros distincts. Comme elle est de classe C n+1 sur l’intervalle [a, b], on
peut appliquer une première fois le théorème de Rolle entre chacune de ces racines rangées dans l’ordre
croissant, ce qui nous donne n + 1 zéros de g ′ . On applique une deuxième fois le théorème de Rolle pour
trouver n zéros de g ′′ et on itère ce procédé jusqu’à la dérivée d’ordre n + 1, en perdant à chaque fois un
zéro. Il nous reste alors au moins un zéro de g (n+1) . Ainsi, il existe c ∈ [a, b] tel que g (n+1) (c) = 0 .
(c) On calcule g (n+1) . Comme P est de degré n, on obtient :

(n + 1)!
∀t ∈ [a, b], g (n+1) (t) = f (n+1) (t) − (f (x) − P (x)) ,
q(x)

3
le facteur (n + 1)! provenant de l’expression de la dérivée n + 1-ième d’un polynôme unitaire de degré n + 1.
Ainsi, en évaluant en c :
(n + 1)!
0 = f (n+1) (c) − (f (x) − P (x)) ,
q(x)
d’où :
Yn
(x − yk )

|q(x)|
k=0

|f (x) − P (x)| = f (n+1) (c) 6 Mn+1 .
(n + 1)! (n + 1)!

5. On intègre l’expression précédente sur l’intervalle [α, β], en considérant α = xk et β = xk+1 . Ainsi
Z xk+1 Z xk+1 Y
n

Mn+1
|f (x) − P (x)| dx 6 (x − yk ) dx.

xk (n + 1)! xk
k=0

Par ailleurs, d’après la question 2 :


Z xk+1 n
X
P (x) dx = (xk+1 − xk ) bn,ℓ f (yℓ )
xk ℓ=0
n  
b−a X k ℓ b−a
= bn,k f a + (b − a) +
n N n n
k=0
n    
X ℓ b−a
=h bn,ℓ f a + k + h , où h = .
n N
ℓ=0

D’un autre côté, par un calcul similaire à la question 2,


Z xk+1 Y
n

(xk+1 − xk )n+2 n (b − a)n+2 n
Z Z
(x − y ) dx = |t(t − 1) · (t − n)| dt = |t(t − 1) · (t − n)| dt.

k
nn+2 N n+2 nn+2 0

xk
k=0
0

Ainsi : xk+1 n
Mn+1 (b − a)n+2
Z Z
|f (x) − P (x)| dx 6 |t(t − 1) · (t − n)| dt.
xk (n + 1)!N n+2 nn+2 0

Par sommation sur k et inégalité triangulaire (sur la somme et l’intégrale), on en déduit donc que :
Z N −1
b n+2 Z n
n+1 (b − a)
X M
f (t) dt − IN 6 |t(t − 1) · (t − n)| dt

(n + 1)!N n+2 nn+2 0

a
k=0
Cn Mn+1 (b − a)n+2
6 ,
N n+1
Z n
Mn+1
où Cn = |t(t − 1) · (t − n)| dt est bien indépendant de N , f , a et b.
(n + 1)!nn+2 0

6. (a) On pose m = n
2 et γ = 21 (β − α). Le changement de variable t = x − ym amène
Z β Z γ
(x − y0 ) · · · (x − yn ) dx = (t + xm − x0 ) · · · t · · · (t + ym − yn ) dt
α −γ
Z γ  
 m n−m
= t+ · · · (t + 1)t(t + 1) · · · t + dt.
−γ n n

n−m 1 m
On remarque que = = . Ainsi, l’intégrande est une fonction impaire, et l’intervalle d’intégration
n 2 n
est symétrique en 0. Ainsi,
Z β
(x − y0 ) · · · (x − yn ) dx = 0 .
α

(b) On déduit de la question précédente que pour tout λ ∈ R,


Z β Z β
(P (x) − λ(x − y0 ) · · · (x − yn )) dx = P (x) dx.
α α

4
On pose alors Q = P − λ(x − y0 ) · · · (x − yn ), qui est bien de degré au plus n + 1, et vérifie l’égalité des
intégrales. On recherche λ tel que Q′ (ym ) = f ′ (ym ). Pour montrer qu’un tel choix de λ existe, on remarque
que le polynôme R = (X − y1 ) · · · (X − yn ) admet ym comme racine simple, donc R′ (ym ) 6= 0. Il suffit alors
de définir λ par
P ′ (ym ) − f ′ (ym )
λ=
R′ (ym )

pour obtenir Q′ (ym ) = f ′ (ym ).


Y n
(c) On pose q(t) = (t − ym ) (t − yk ), et on considère, pour x fixé, la fonction g définie par :
k=0

q(t)
g(t) = f (t) − Q(t) + (f (x) − Q(x)).
q(x)

Alors, les yi ainsi que x sont toujours des zéros de g, qui admet donc n + 2 zéros distincts. Le théorème de
Rolle permet donc de trouver n + 1 zéros de g ′ , venant s’intercaler strictement entre les zéros de g. Mais
par ailleurs, ym étant une racine double de q, et zéro de f ′ − Q′ , on remarque que g ′ (ym ) = 0, et ainsi, on
dispose de n + 2 zéros distincts de g ′ . Puisque g est de classe C n+2 , on peut itérer le théorème de Rolle,
jusqu’à l’obtention d’un zéro de g (n+2) .
On calcule maintenant g (n+2) , et on évalue en c. Comme q est unitaire de degré n + 2, on obtient :

(n + 2)!
0 = f (n+2) (c) + (f (x) − Q(x)),
q(x)

donc
|f (n+2) (c)|
|f (x) − Q(x)| = |q(x)|.
(n + 2)!
Comme plus haut, on montre qu’il existe un réel Dn ne dépendant que de n, tel que
Z β
|q(x)| dx 6 Dn (β − α)n+3 .
α
Z β
On intègre entre 2 points α = xk et β = xk+1 d’une subdivision régulière de [a, b]. Puisque Q(x) dx =
Z β α

P (x) dx, on obtient la même expression que plus haut, c’est-à-dire :


α
Z n  
xk+1 X  
ℓ (b − a)n+3
f (x) dx − h bn,ℓ f a + k + h 6 Dn (xk+1 − xk )n+3 = Dn .

n N n+3

xk
ℓ=0

Ainsi, en sommant sur k, il vient :


Z N −1
b X (b − a)n+3 (b − a)n+3
f (t) dt − IN 6 Dn = Dn .


a N n+3 N n+2
k=0

On a bien obtenu :
b  
1
Z
f (t) dt = IN + O .
a N n+2

(d) Le cas n = 2 correspond à une interpolation aux deux extrémités et au milieu de chaque intervalle de la
subdivision. On a fait les calculs des coefficients en cours d’informatique (il s’agit de la méthode de Simpson).
Ce qu’on obtient est :

b N −1  
1 1
Z X
f (t) dt = (f (xk ) + 4f (mk ) + f (xk+1 )) + O
a 6 N4
k=0

1
où mk désigne le milieude [xk , xk+1 ]. On a ainsi démontré la convergence en N4 de la méthode d’intégration
de Simpson, point qu’on avait admis dans le cours d’informatique.

5
Partie IV – Méthode de Gauss

(k)
1. (a) On montre par récurrence bornée sur k ∈ [[0, n]] que Pn possède au moins k racines distinctes dans ] − 1, 1[,
propriété que nous noterons P(k). Pour k = 0, la propriété à montrer est assez creuse.
(k)
Soit k ∈ [[0, n − 1]] telle que P(k) soit vraie. Alors Pn admet au moins k racines distinctes dans ] − 1, 1[.
(k)
Par ailleurs, 1 et −1 sont racines de multiplicité n de Pn , donc sont aussi racines de Pn . Ainsi, on dispose
(k)
de k + 2 racines distinctes de Pn dans [−1, 1]. On applique le théorème de Rolle entre ces racines (ce qu’on
(k+1)
peut faire puisqu’un polynôme est de classe C ∞ ). On trouve donc n + 1 racines distinctes de Pn situées
(k)
strictement entre les racines de Pn , donc dans ] − 1, 1[.
(k)
D’après le principe de récurrence, pour tout k ∈ [[0, n]], Pn admet au moins k distinctes racines dans [[0, n]] .
(b) En particulier, Ln admet au moins n racines distinctes dans ] − 1, 1[. Comme deg(Ln ) = n, elle ne peut
pas en avoir plus (comptées avec multiplicité), donc ce sont là toutes les racines de Ln . On en déduit que
Ln est à racines simples toutes dans ] − 1, 1[ .
2. Notons Ln,k le k-ième polynôme d’interpolation de Lagrange de la famille r1 , . . . , rn . Ainsi,
n
X
Qn = f (rn )Ln,k .
ℓ=1
Z 1
On pose alors λk = Ln,k (x) dx, indépendant de f , et on obtient bien :
−1

Z 1 n
X
Pn (x) dx = λℓ P (rℓ ) .
−1 ℓ=1

3. (a) Si P est un polynôme de degré strictement inférieur à n, il est son propre polynôme d’interpolation (par
unicité), donc P = Pn , et donc In (P ) = I(P ) .
(b) Soit P est un polynôme vérifiant deg(P ) < 2n, et R son reste par la division euclidienne par Ln . On a donc
(n)
P = QPn + R, où Q est un polynôme de degré inférieur strictement à n. Or, une intégration par parties
(sur les fonctions C ∞ ) donne :
Z 1 h i1 Z 1 Z 1
(n) (n−1) (n−1)
Q(x)Pn (x) dx = Q(x)Pn − ′
Q (x)Pn (x) dx = − Q′ (x)Pn(n−1) (x) dx
−1 −1 −1 −1

(n−1)
car 1 et −1 sont racines d’ordre n de Pn , donc racines de Pn . On peut itérer cet argument en intégrant
plusieurs fois par parties, et on obtient :
Z 1 Z 1
(n)
Q(x)Pn (x) dx = (−1) n
Q(n) (x)Pn (x) dx.
−1 −1

Puisque deg(Q) < n, Q(n) = 0, d’où finalement,


Z 1
Q(x)Pn(n) (x) dx = 0.
−1

On obtient donc enfin : I(P ) = I(R) .


Mais par ailleurs, puisque deg(R) < n, I(R) = In (Rn ). Pour terminer, on constate que puisque les ri sont
racines de Ln , P et R prennent les même valeurs sur les ri , donc ont même polynôme interpolateur (c’est
en fait le polynôme R lui-même), donc In (P ) = In (R).
En mettant bout-à-bout ces trois égalités, il vient : I(P ) = I(Pn ) .
4. Polynôme d’interpolation de Hermite de f
(a) Soit H1 et H2 deux éléments de R2n−1 [X] et λ ∈ R. Alors :

ϕ(H1 + λH2 ) = (H(r1 ) + λH2 (r1 ), H1′ (r1 ) + λH2′ (r1 ), . . . , H1 (rn ) + λH2 (rn ), H1′ (rn ) + λH2′ (rn ))
= (H1 (r1 ), H1′ (r1 ), . . . , H1 (rn ), H1′ (rn )) + λ(H2 (r1 ), H2′ (r1 ), . . . , H2 (rn ), H2′ (rn ))
= ϕ(H1 ) + λϕ(H2 ).

6
Ainsi, ϕ est une application linéaire. Déterminons son noyau : soit H ∈ Ker(ϕ). Alors pour tout k ∈ [[1, n]],
H(rk ) = H ′ (rk ) = 0. Ainsi, rk est racine au moins double de H. Le polynôme H a donc au moins 2n racines
comptées avec multiplicité. Comme deg(H) < 2n, on en déduit que H = 0. Ainsi, Ker(ϕ) = {0}.
Par conséquent, ϕ est injective. De plus, il s’agit d’une application linéaire entre deux espaces vectoriels de
même dimension finie 2n, donc, par caractérisation des isomophismes en dimension finie, ϕ est un isomorphisme .
(b) La bijectivité de ϕ nous assure l’existence et l’unicité des antécédents de tout 2n-uplet. Ainsi, le 2n-uplet
(f (r1 ), f ′ (r1 ), . . . , f (rn ), f ′ (rn )) admet un unique antécédent par ϕ. En d’autres termes, il existe un unique
polynôme Bn ∈ R2n−1 [X] tel que

∀j ∈ [[1, n]], Bn (rj ) = f (rj ) et Bn′ (rj ) = f ′ (rj ) .

5. Puisque Bn prend les mêmes valeurs que f aux ri , f et Bn ont même polynôme d’interpolation, donc In (Bn ) = In (f ) .
(n)
6. (a) Comme x est distinct des ri , Pn (x) 6= 0, et on trouve α tel que g(x) = 0 en résolvant une équation de
degré 1. D’où l’existence et l’unicité de α .
(b) Comme dans les parties précédentes, puisque f (ri ) = Bn (r1 ), les ri sont zéros de g, ainsi que x. On dispose
donc de n + 1 zéros distincts de g ′ , et donc, en utilisant le théorème de Rolle, de n zéros distincts de g ′ ,
séparant strictement les zéros de g (et donc notamment, dans ] − 1, 1[, et distincts des ri ). Or, les ri sont
(n)
racines doubles de (Pn )2 et f ′ (ri ) = Bn′ (ri ). Ainsi, les ri sont aussi zéros de g ′ . On a donc de la sorte
2n zéros distincts de g ′ , dans ] − 1, 1[.
(c) On utilise toujours le théorème de Rolle itéré pour obtenir c ∈] − 1, 1[ tel que g (2n) (c) = 0, soit, puisque
 2
(n) 2 (2n)!
deg(Bn ) < n, et deg(Pn ) = 2n, de coefficient dominant :
n!
 2
(2n)!
0 = f (2n) (c) − αPn(2n) (c) = f (2n) (c) − α(2n)! .
n!

(n!)2
On trouve donc α = f (2n) (c) · , d’où, en exprimant l’égalité g(x) = 0 :
((2n)!)3

(n!)2
0 = f (x) − Bn (x) − f (2n) (c) · (P (n) (x))2 ,
((2n)!)3 n
c’est-à-dire :
(n!)2
f (x) − Bn (x) = · f (2n) (c)(Pn(n) (x))2 .
((2n)!)3

7. Ainsi,
1 1
(n!)2
Z Z
|I(f ) − In (f )| 6 |f (x) − Bn (x)| dx 6 M2n (Pn(n) (x))2 dx.
−1 ((2n)!)3 −1

Le même argument d’intégrations par partie itérées qu’en 3(b) amène :


Z 1 Z 1 Z 1
(Pn(n) (x))2 dx = (−1)n Pn(2n) (x)Pn (x) dx = (−1)n (2n)! (x − 1)n (x + 1)n dx.
−1 −1 −1
Z 1
Or, soit Ip,q = (x − 1)p (x + 1)q dx. Intégrons par partie, pour p > 0 :
−1

i1 1
1 h
Z
p p
Ip,q = (x − 1)p (x + 1)q+1 − (x − 1)p−1 (x + 1)q+1 dx = − Ip−1,q+1 .
q+1 −1 q+1 −1 q+1
En itérant, il vient :
Z 1
p!q!
p p!q!
Ip,q = (−1) (x + 1)p+q dx = (−1)p 2p+q+1 .
(p + q)! −1 (p + q + 1)!
En particulier,
1
(n!)2 22n+1
Z
(x − 1)n (x + 1)n dx = In,n = (−1)n .
−1 (2n + 1)!

7
On en déduit que
1
(n!)2 22n+1
Z
(Pn(n) (x))2 dx = ,
−1 2n + 1
d’où finalement

(n!)2 (n!)2 22n+1 22n+1 22n+1


|I(f ) − In (f )| 6 M2n = M2n = M2n .
((2n)!)3 2n + 1 2n 2 2n 2
 
n (2n)!(2n + 1) n (2n + 1)!

α+β
u− 2 β−α α+β
8. On effectue le changement de variable x = β−α
, soit u = 2 ·x+ 2 :
2

β 1  
β−α β−α α+β
Z Z
f (u) du = f·x+ du.
α 2
−1 2 2
 
β−α α+β
On applique la majoration précédente à la fonction g : u 7→ f ·x+ , dont la dérivée 2n-ième
2 2
est  2n  
β−α β−α α+β
g (2n) (u) = f (2n) ·x+ ,
2 2 2
 2n
′ β−α
dont la borne supérieure M2n

est par conséquent M2n = M2n . Or,
2
n n  
X β−α X α+β β−α
In (g) = λj g(rj ) = λj f + rj .
j=1
2 j=1 2 2

Ainsi,

Z β n  
β−α X α+β β − α β − α
f (u) du − λj f + rj 6 2 |I(g) − In (g)|

α 2 j=1 2 2
β−α ′ 22n+1
6 · M2n
2 2n 2

n (2n + 1)!
2n+1
22n+1

β−α
= M2n 2
2 2n

(2n + 1)!
n
2n+1
(β − α)
= M2n · .
2n 2

n (2n + 1)!

9. On considère le cas n = 2. On détermine le polynôme L2 :

L2 = ((X 2 − 1)2 )′′ = (X 4 − 2X 2 + 1)′′ = 12X 2 − 4 = 4(3X 2 − 1),

dont les racines sont r1 = − √13 et r2 = √1 .


3
On a alors :

α+β β−α β−α α+β β−α β−α


+ r1 =m− √ et + r2 =m+ √ ,
2 2 2 3 2 2 2 3
où m est le milieu de [α, β].
On détermine aussi les deux coefficients λ1 et λ2 . On peut les déterminer par le calcul des intégrales des
polynômes d’interpolation de Lagrange, ou alors se servir du fait qu’ils ne dépendent pas de f , et que la formule
d’interpolation est exacte sur les polynômes de degré au plus 3. En particulier, pour une fonction f constante
λ1 λ2
de valeur 1, on obtient 2 = λ1 + λ2 , et pour la fonction identité, on obtient 0 = − √ + √ . Il en résulte que
3 3
λ1 = λ2 = 1.
En utilisant la majoration de la question précédente à tout intervalle d’une subdivision régulière (xi )i∈[[0,N ]]
d’un intervalle [a, b], on obtient, pour tout k ∈ [[0, N − 1]] :
Z xk+1      5 5
b−a b−a b−a 6 M4 · (b − a) = M4 (b − a) .

f (u) du − f m k − √ + f m k + √

xk 2N 2N 3 2N 3 62 · 5! · N 5 4320N 5

8
En sommant cette inégalité, et en utilisant l’inégalité triangulaire et la relation de Chasles, il vient enfin :

Z N −1   
b
M4 (b − a)5
 
b−a X b−a b−a
f (u) du − f mk − √ + f mk + √ 6 .

2N 4320N 4

a
k=0
2N 3 2N 3

9
Lycée Louis-Le-Grand, Paris
MPSI 4 – Mathématiques
A. Troesch

Problème no 12 : Intégration

Correction du problème 1 – Théorème de convergence dominée pour l’intégrale de Riemann

Partie I – Réduction du problème

1. Il suffit de considérer (f − fn ), suite de fonctions intégrables (comme différence de deux fonctions intégrables),
qui converge simplement vers 0. On trouve alors l’énoncé général par linéarité de l’intégrale.
Ainsi, on peut restreindre l’étude au cas de fonctions de limite nulle .
g+|g| |g|−g
2. Si g est une fonction intégrable sur [a, b], alors |g| aussi, et donc g + = 2 et g − = 2 aussi.
Ainsi, étant donnée une suite (fn ) de fonctions intégrables convergeant simplement vers 0, les deux suites (fn+ )
et (fn− ) sont aussi constituées de fonctions intégrables. De plus, comme pour tout x ∈ [a, b], et tout n ∈ N :

0 6 fn+ (x) 6 |fn (x)| et 0 6 fn− (x) 6 |fn (x)|,

les suites (fn+ ) et (fn− ) convergent simplement vers la fonction nulle de [a, b]. En outre, les fonctions fn+ et fn−
sont positives.
Ainsi, si le théorème de convergence dominé est acquis pour les fonctions intégrables positives de limite nulle,
on obtient : Z b Z b
lim fn+ (x) dx = 0 et lim fn− (x) dx = 0
n→+∞ a n→+∞ a

puis, par linéarité de l’intégrale et de la limite et du fait que fn (x) = fn+ (x) − fn− (x) :
Z b Z b Z b
lim fn (x) dx = lim fn+ (x) dx − lim fn− (x) dx = 0,
n→+∞ a n→+∞ a n→+∞ a

ce qui est bien ce qui nous intéressait


Ainsi, il suffit de montrer le théorème pour des fonctions positives de limite nulle .
3. La fonction g étant intégrable, elle est majorée. Donc si les hypothèses du théorème de convergence dominé
sont vérifiées, il existe M tel que pour tout n, |fn | 6 M . Si le théorème de convergence dominé est acquis dans
ce cas, on peut conclure.
On peut donc se contenter d’étudier le cas d’une suite (fn ) de fonctions positives majorées par un certain M .
4. (a) La fonction fn étant intégrable, il existe une fonction ψ dans Esc− (f ) (ensemble des fonctions en escalier
Z b
1
minorant f ) telle que (fn (x) − ψ(x)) 6 .
a 2n
Soit (σ) = (σ0 < · · · < σk ) une subdivision associée à ψ et q = min (σi+1 − σi ) la longueur du plus petit
i∈[[0,k−1]]
intervalle défini par cette subdivision. On note ψi la valeur constante de ψ sur ]σi−1 , σi [ (i ∈ [[1, k]]). Alors,
on peut définir, pour tout δ ∈ [0, 2q [, une fonction gδ , affine par morceaux, obtenue :
• en remplaçant l’expression de ψn l’intervalle intervalle [σi , σi + δ] par une fonction affine rejoignant les
points (σi , ψi ) et (σi + δ, ψi+1 ), pour tout i tel que ψi < ψi+1 ,
• en remplaçant l’expression de ψn sur tout intervalle [σi − δ, σi ] par une fonction affine rejoignant les
points (σi − δ, ψi ) et (σi , ψi+1 ), pour tout i tel que ψi > ψi+1 .
• En posant gδ (a) = ψ1 et gδ (b) = ψk
On a alors de façon immédiate la continuité de gδ sur [a, b], l’inégalité gδ 6 ψ 6 fn , et :
Z Z
b b k−1
δX
(gδ − ψ) 6 |gδ − ψ| = |ψi+1 − ψi |.

a a 2 i=0

1
Z
b 1
Comme cette expression tend vers 0 lorsque δ tend vers 0, il existe δ0 tel que |(gδ − ψ) < . On pose

a 2n
alors ϕn = gδ0 , qui est bien continue, vérifie 0 6 ϕn 6 fn , et

b b b b
1 1 1
Z Z Z Z
06 (fn − ϕn ) = (fn − ψ) + (ψ − ϕn ) < + , soit: : 06 (fn − ϕn ) 6 .
a a a 2n 2n a n

(b) Supposons le résultat acquis pour les suites (ϕn ) de fonctions continues positives, convergeant simplement
vers 0 et majorées par un réel M . Soit alors (fn )n∈N une suite de fonctions intégrables sur [a, b], positives,
convergeant simplement vers 0, et majorées par M , et (ϕn ) une suite de fonctions vérifiant les propriétés de
la question précédente. D’après le théorème d’encadrement, (ϕn ) converge simplement vers 0. De plus, pour
tout n ∈ N, 0 6 ϕn 6 fn 6 M . Ainsi, on peut appliquer la version continue du théorème, nous affirmant
Z b Z b
1
que ϕn (x) dx → 0. Mais la majoration (fn − ϕn ) 6 amène :
a a n
Z
b Z b Z b
fn (x) dx − ϕn (x) dx −→ 0 donc: fn (x) dx −→ 0.


a a a

C’est bien ce à quoi il nous faut parvenir.


Ainsi, on peut se limiter au cas de suites de fonctions continues , positives, uniformément majorées, conver-
geant simplement vers 0

Partie II – Théorème de Dini

1. Pour tout x ∈ [a, b], et tout n ∈ N, on a, par croissance et positivité de fn : 0 6 fn (x) 6 fn (b).
Or, fn (b) → 0. Soit ε > 0, il existe donc N ∈ N tel que pour tout n > N , fn (b) < ε. On en déduit :

∀n ∈ N, ∀x ∈ [a, b], 0 6 fn (x) 6 fn (b) < ε.

Cela fournit bien la convergence uniforme de (fn ) vers 0 sur [a, b] .


2. Soit (fn )n∈N une suite décroissante de fonctions continues sur [a, b] convergeant simplement vers la fonction
nulle (ainsi, pour tout x de [a, b], la suite (fn (x)) converge en décroissant vers 0). On définit, pour tout n ∈ N
et tout x ∈ [a, b] :
gn (x) = sup fn (t).
t∈[a,x]

(a) Soit n ∈ N et x ∈ [a, b]. On a :

∀t ∈ [a, x], 0 6 fn+1 (t) 6 fn (t), donc: 0 6 sup fn+1 (t) 6 sup fn (t) soit: 0 6 gn+1 (t) 6 gn (t).
t∈[a,x] t∈[a,x]

Donc pour tout x ∈ [a, b], (gn (x))n∈N est décroissante positive.
D’après le théorème de la limite monotone, (gn (x)) converge . Soit g(x) sa limite. La positivité de gn (x)
implique que sa limite vérifie aussi g(x) > 0 .
(b) Pour tout n ∈ N, par caractérisation de la borne supérieure, il existe tn ∈ [a, x] tel gn (x) − n1 < fn (tn ) 6
gn (x). En faisant tendre n vers +∞ le théorème d’encadrement assure l’existence de la limite de fn (tn ) et
lim fn (tn ) = g(x) .
n→+∞

(c) Comme [a, x] est compact, on peut extraire de (tn ) une suite (tϕ(n) ) convergeant vers un réel t ∈ [a, x]. On
a toujours fϕ(n) (tϕ(n) ) −→ g(x), donc, en supposant g(x) > 0, il existe N tel que pour tout m > N
g(x)
fϕ(m) (tϕ(m) ) > .
2
Soit alors n ∈ N, il existe N ′ > N tel que ϕ(N ′ ) > n. On a alors, pour tout m > N ′ , ϕ(m) > n, et donc,
par décroissante de la suite (fn ) :
g(x)
∀m > N ′ , fn (tϕ(m) ) > fϕ(m) (tϕ(m) ) > .
2

2
g(x)
Par passage à la limite lorsque m tend vers +∞, la fonction fn étant continue, il vient : fn (t) > .
2
(d) La définition de gn amène de façon immédiate la croissance, pour tout n ∈ N de gn sur [a, b]. Ainsi (gn ) est
une suite de fonctions croisantes convergeant simplement vers 0. D’après la question 1, cette convergence
est donc uniforme.
Par ailleurs, on a bien évidemment 0 6 fn 6 gn . Soit alors ε > 0, et N ∈ N tel que pour tout n > N , et
tout x ∈ [a, b], 0 6 gn (x) < ε (cenvergence uniforme de (gn ). On a alors

∀n > N, ∀x ∈ [a, b], 0 6 fn (x) < ε,

d’où la convergence uniforme de (fn ) vers la fonction nulle.

Partie III – Preuve du théorème de convergence dominée


On se donne (fn ) une suite de fonctions continues et positives, majorées
! par un réel M , convergeant simplement vers
Z b
la fonction nulle, et on suppose par l’absurde que fn (t) dt ne converge pas vers 0.
a

1. Supposons qu’on sache aboutir à une contradiction dès lors qu’on suppose qu’une suite (gn ) de fonctions
continues, positives, majorées par un réel M et convergeant simplement vers 0 vérifie en outre la propriété
suivante : Z b
∃α > 0 ∀n ∈ N, gn (x) dx > α.
a
!
Z b
Par hypothèse, fn (t) dt ne tend pas vers 0, donc cette suite positive admet une valeur d’adhérence
a
n∈N !
Z b

dans R+ . Ainsi, il en existe une suite extraite fϕ(n) (t) dt convergeant vers un élément strictement
a
n∈N

positif β ∈ R+ . Soit α ∈ R∗+ tel que α < β. Il existe donc N tel que pour tout n > N ,
Z b
fϕ(n) (t) dt > α.
a
!
Z b
La suite extraite fϕ(n+N ) (t) dt est donc minorée par α. On peut poser gn = fϕ(n+N ) . Cette suite
a
n∈N
vérifie les mêmes conditions que (fn ) (continuité, positivité, majoration, convergence simple), et d’après la
supposition faite en début de question, on aboutit à une contradiction, nous permettant de conclure.
Z b !
Ainsi, on peut se contenter de supposer que fn (t) dt est minorée par un certain α > 0, et montrer que
a

dans ce cas, on parvient à une contradiction.


2. Soit n ∈ N fixé. La suite de fonctions (sup(fn , . .!. , fn+p ))p∈N est croissante et majorée par M , donc par croissance
Z b Z b
de l’intégrale, la suite sup(fn , . . . , fn+p ) est croissante, et majorée par M dx = M (b − a). Le
a a
p∈N
théorème de la limite monotone donne donc :
!
Z b
l’existence d’une limite finie λn de la suite sup(fn (x), . . . , fn+p (x)) dx .
a
p∈N

On peut donc trouver, pour tout n ∈ N, un entier p(n) tel que la fonction gn = sup(fn , . . . , fn+p(n) ) vérifie :
Z b
α
gn (x) dx > λn − .
a 2n+2

3. Par définition même, la suite (hn ) est décroissante et positive. De plus, pour tout x ∈ [a, b], 0 6 hn (x) 6 gn (x),
et lim gn (x) = 0, donc, d’après le théorème d’encadrement, (hn ) converge simplement vers la fonction nulle
n→+∞
de [a, b].

3
On déduit alors du théorème de Dini que (hn ) converge uniformément vers 0, et le résultat admis en début
d’énoncé nous permet de conclure :
Z b Z b
lim hn (x) dx = 0 dx = 0 .
n→+∞ a a

4. On a : gn = sup(fn , . . . , fn+p(n) ), et comme [[n, n + p(n)]] ⊂ [[i, n + i + p(n) + p(i)]], on a alors :

gn 6 sup(fi , . . . , fn+i+p(n)+p(i) ), donc: gn − gi 6 sup(fi , fi+1 , . . . , fn+i+p(i)+p(n) ) − gi .

Comme [[i, = p(i)]] ⊂ [[i, n + i + p(n) + p(i)]], on obtient

sup(fi , fi+1 , . . . , fn+i+p(i)+p(n) ) − gi > 0.

La fonction x 7→ x+ étant croissante, il vient alors :


+
(gn − gi )+ 6 sup(fi , fi+1 , . . . , fn+i+p(i)+p(n) ) − gi = sup(fi , fi+1 , . . . , fn+i+p(i)+p(n) ) − gi .
R 
b
Or, la croissance de la suite a sup(fi , . . . , fi+p ) et sa convergence vers λn amènent :
p∈N

Z b Z b
  α  α
sup(fi , fi+1 , . . . , fn+i+p(i)+p(n) ) − gi dx 6 λn − gi (x) dx 6 λn − λn − i+2 6 i+2 ,
a a 2 2

et donc finalement, par croissance de l’intégrale,


Z b
α
(gn − gi )+ 6
a 2i+2

5. Soit, pour tout n dans N∗ , la propriété P(n): pour tous réels a0 , . . . , an , x, on a :


n−1
X
inf(a0 , . . . , an−1 , x) > x − (x − ai )+ .
i=0
.
Lorsque n = 1, on a

x − inf(a0 , x) = x + sup(−a0 , −x) = sup(x − a0 , 0) = (x − a0 )+ .

Ainsi, P(1) est vérifié (on a même l’égalité dans ce cas).


Soit n ∈ N∗ tel que P(n) soit vrai, et soit (a0 , . . . , an et x des réels. On a

inf(a0 , . . . , an−1 , an , x) = inf(inf(a0 , . . . , an−1 , x), an ) > inf(a0 , . . . , an−1 , x) − (inf(a0 , . . . , an−1 , x) − an )+ ,

d’après P(1) vérifié ci-dessus. Par croissance de y 7→ y + , on a

(inf(an , . . . , an−1 , x) − an )+ 6 (x − an )+ ,

d’où, en utilisant sur l’autre terme l’hypothèse de récurrence :


n−1
X n
X
inf(a0 , . . . , an−1 , an , x) > x − (x − ai )+ − (x − an )+ = x − (x − ai )+ .
i=0 i=0

Ainsi, on a bien montré P(n + 1).


Par conséquent, P(1) est vraie, et pour tout n dans N∗ , P(n) entraîne P(n+1). D’après le principe de récurrence,
P(n) est vraie pour tout n dans N∗ .
En particulier,
n−1
X
hn > g n − (gn − gi )+ ,
i=0

4
et par croissance de l’intégrale, la définition de gn et la question 4 donnent :
Z b n−1
 α  X α
hn > λn − − .
a 2n+2 i=0
2i+2

L’hypothèse faite sur la minoration des intégrales de fn amène alors facilement λn > α, d’où
+∞
Z b n
! !
1X 1 1X 1
hn > α 1 − >α 1− ,
a 4 i=0 2i 4 i=0 2i

Z b
α
d’où enfin : hn > .
a 2
Ceci contredit la question 3, ce qui permet d’achever la démonstration par l’absurde.
Z b
On en déduit que fn (x) dx −→ 0.
a
D’après la réduction faite dans la partie 1, ceci implique bien le théorème de convergence dominée dans sa
version la plus générale donnée en début d’énoncé.

5
Lycée Louis-Le-Grand, Paris
MPSI 4 – Mathématiques
A. Troesch

Problème no 13 : Intégration

Correction du problème 1 – Intégrale de Lebesgue

Partie I – Intégration par rapport à une mesure


n
X
1. Soit f = αk 1Ak une fonction étagée, les Ai étant 2 à 2 disjoints (sinon, on peut s’y ramener facilement
k=1
en considérant toutes les intersections possibles des Ai et leurs complémentaires). Quitte à regrouper certaines
parts (ce qui n’est pas gênant, la tribu étant stable par union), on peut même supposer que les αk sont deux à
deux distincts.
La fonction f ne prend alors que les valeurs {α1 , . . . , αn }, et pour tout k ∈ [[1, n]], f −1 (αk ) = Ak . On a alors,
pour tout borélien X, [
f −1 (X) = Ak ,
k|αk ∈X

qui est bien un élément de la tribu T , par stabilité par union. Ainsi, f est mesurable .
2. Soit f et g mesurables positives. Notons E − (f ) les fonctions étagées minorant f .
(a) Si 0 6 f leg, alors toute fonction étagée minorant f minore g : E − (f ) ⊂ E − (g). On en déduit que
n
! n
!
X X
P
sup αk 1Ak 6 P sup αk 1Ak ,
αk 1Ak ∈E − (f ) k=1 αk 1Ak ∈E − (g) k=1

Z Z
c’est-à-dire f dµ 6 g dµ .
E E
Z
De plus, 0 est une fonction étagée minorant f , donc, par définition de la borne supérieure, f dµ > 0.
E

(b) Supposons A ⊂ B. On considère fA = 1A × f et de même pour fB . Soit h = αk 1Ak une fonction étagée
P

minorant fA . Cette fonction est nécessairement nulle en dehors de A, et minore donc fB en-dehors de A.
Elle minore aussi fB sur A, puisque fA et fB coïncident sur A. Ainsi, h ∈ E − (fB ). On en déduit que
E − (fA ) ⊂ E − (fB ), et en passant à la borne supérieure, il vient :
Z Z
f dµ 6 f dµ .
A B

(c) Cette propriété résulte du fait que si h = αk 1Ak est étagée, alors aussi ch, et
P

n
X
sumnk=1 cαk µ(Ak ) = c αk µ(Ak ).
k=1

Par ailleurs, sauf si c = 0 (mais dans ce cas, le résultat est trivial), h minore f ssi ch minore cf . On obtient
l’égalité voulue en passant aux bornes supérieures :
Z Z
cf dµ = c f dµ .
E E

3. Soit f une fonction mesurable positive telle que


R
E
f dµ = 0.

1
(a) Soit An = f −1 ([ n1 , +∞[). La fonction f étant mesurable, A est un ensemble mesurable. Par ailleurs, de
façon évidente, n1 1An minore f , et est étagée. Ainsi, par définition, de l’intégrale,
1
Z
0 6 µ(An ) 6 f dµ = 0.
n E

On en déduit que µ(An ) = 0 .


(b) On a
+∞
[ 1
f −1 (R∗ ) = f −1 (R∗+ ) = f −1 ([ , +∞[)
n=1
n
On obtient alors
1
µ(f −1 (R∗ )) = lim f −1 ([ , +∞[) = 0
n→+∞ n
Pour cette dernière affirmation, on utilise une propriété classique des mesures, affirmant que si (Bn ) est une
suite croissante d’ensembles mesurables,
+∞
!
[
µ An = lim µ(An ).
n→+∞
n=1

Cette propriété s’obtient en écrivant Bn = An \ An−1 (en posant A0 = ∅), et en remarquant que l’on a
n
[ n
[ +∞
[ +∞
[
An = Ak = Bk et Ak = Bk ,
k=1 k=1 k=1 k=1

mais cette fois, les Bi sont 2 à 2 disjoints. Ainsi, la propriété d’additivité et de σ-additivité fournit :
n
! +∞ +∞ n
!
[ X X [
µ Ak = µ(Bk ) = lim µ(Bk ) = µ Bk = lim µ (An ) .
n→+∞ n→+∞
k=1 k=1 k=1 k=1
n
X
4. Soit s = αi 1Ai une fonction étagée, et B ∈ T .
i=1
(a) s étant une fonction étagée se minorant elle-même, on a
Z Xn
s dµ > αi µ(Ai ).
E i=1

Soit t une fonction étagée minorant s,


m
X
t= βi 1Bi ,
i=1
les Bi étant supposés disjoints. Comme t minore s, t est nulle en dehors de l’union des Aj . Par conséquent
 
n
[ [n
Bi = Bi ∩  Aj  = Bi ∩ Aj .
j=1 j=1

Les Bi ∩ Aj étant disjoints, on a, pour tout (i, j) tel que Bi ∩ Aj soit non vide, βi 6 αj (obtenu en évaluant
s et t en un point de l’intersection), donc βi µ(Bi ∩ Aj ) 6 αi µ(Bi ∩ Aj ).
Cette égalité reste trivialement vraie sur Bi ∩ Aj = ∅. Ainsi, par additivité, on obtient :
m m X n n Xm m m
!! m
X X X X [ X
βi µ(Bi ) = βi µ(Bi ∩ Aj ) 6 αi µ(Aj ∩ Bi ) = αi µ Aj ∩ Bi 6 αi µ(Aj ).
i=1 i=1 j=1 j=1 i=1 j=1 i=1 j=1

On en déduit, par passage à la borne supérieure sur t, que


Z X m
s dµ 6 µ(Aj ).
E j=1

Les deux inégalités obtenues amènent :


Z m
X
s dµ = µ(Aj ) .
E j=1

2
(b) On a
n
X
ν(∅) = αi µ(Ai ∩ ∅) = 0.
i=1

Par ailleurs, si (Bi )i∈N est une famille d’éléments 2 à 2 disjoints de T , et B l’union de ces ensembles,
n
X
s × 1B = αi 1Ai ∩B .
i=1

L’ensemble B est dans T (stabilité par union dénombrable), donc aussi les Ai ∩ B, qui de plus, sont 2 à 2
disjoints. Ainsi, on a toujours une fonction étagée, et
Z Z n
X
s dµ = s × 1B = I(s × 1B ) = αi µ(Ai ∩ B).
B E i=1

Or, par σ-additivité, les Bi étant 2 à 2 disjoints,


+∞
X
µ(Ai ∩ B) = µ(Ai ∩ Bj ),
j=0

donc (on n’a pas de convergence à justifier : il peut y avoir divergence vers l’infini d’une de ces séries mais
dans ce cas, l’égalité est trivialement vraie dans R) :
Z +∞ X
X n +∞ Z
X +∞
X
s dµ = αi µ(Ai ∩ Bj ) = s dµ = ν(Bj ).
B j=0 k=1 j=0 Bj j=0

Ainsi, ν est une mesure .


(c) Quitte à ajouter un terme nul 0 × 1An+1 dans la définition de s, où An+1 est le complémentaire de l’union
des Ak , on peut supposer que les An forment une partition de E. De même pour les Bn .
Soit Ei,j = Ai ∩ Bj . Les Ei,j forment alors aussi une partition (au plus dénombrable, et même finie) de E.
On a alors
1Ei,j × s = αi 1Ei,j et 1Ei,j × t = βj 1Ei,j ,

d’où 1Ei,j (s + t) = (αi + βj )1Ei,j .


On en déduit de façon immédiate que
Z Z Z
(s + t) dµ = (αi + βj )µ(Ei,j ) = s dµ + t dµ.
Ei,j Ei,j Ei,j

Notons νs la mesure définie dans la question précédente, associée à la fonction étagée s. On a alors, pour
tout (i, j)
νs+t (Ei,j ) = νs (Ei,j ) + νt (Ei,j ).

Par σ additivité de νs , νt et νs+t (on n’utilise en fait que l’additivité), on a donc


     
[ [ [
νs+t  Ei,j  = νs  Ei,j  + νt  Ei,j  ,
(i,j) (i,j) (i,j)

soit
νs+t (E) = νs (E) + νs (E),
Z Z Z
c’est-à-dire (s + t) dµ = s dµ + t dµ.
E E E

5. Théorème de convergence monotone de Lebesgue


Soit (fn ) une suite de fonctions mesurables positives, telles que pour tout x ∈ E, (fn (x))n∈N soit croissante, et
converge vers f (x).

3
(a) Soit y ∈ R. On a, pour x ∈ R :

f (x) 6 y ⇐⇒ lim fn (x) 6 y ⇐⇒ ∀n ∈ N, fn (x) 6 y,


n→+∞

la dernière affirmation provenant de la croissance de la suite (fn ). Ainsi,


+∞
\
f −1 (] − ∞, y]) = fn−1 (] − ∞, y]),
n=0

ces derniers ensembles étant mesurables, par mesurabilité des fn . T étant stable par intersection dénom-
brable, f −1 (] − ∞, y]) ∈ T . D’après un point admis dans l’énoncé, les ] − ∞, y] engendrant la tribu des
boréliens, f est mesurable .
(b) On a, pour tout n ∈ N, 0 6 fn 6 fn+1 , donc, d’après 2(a),
Z Z
fn dµ 6 fn+1 dµ.
E E

Z 
La suite fn dµ est alors croissante donc convergente dans R .
E
Soit α sa limite.
(c) Pour tout n ∈ N, on a fn 6 f , donc Z Z
fn dµ 6 f dµ,
E E
Z
cette inégalité étant éventuellement à prendre dans R. On passe à la limite dans cette inégalité : α 6 f dµ.
E

(d) On a Z Z Z
α> fn dµ > fn dµ > c s(x) dµ = cνs (En ).
E En En

Or, pour tout x ∈ E,


• si f (x) = 0, fn (x) aussi pour tout x, ainsi que s(x). On a alors trivilement x ∈ En pour tout n ∈ N
• si f (x) > 0, cs(x) 6 s(x) 6 f (x), l’une au moins de ces deux inégalités étant stricte. Ainsi, cs(x) < f (x).
Par convergence de la suite (fn ), il existe N tel que pour tout n > N , fn (x) > cs(x). Ainsi, x ∈ En .
+∞
[
On en déduit que En = E.
n=0
Par ailleurs, la croissance de la suite (fn ) assure immédiatement que (En ) est une suite croissante. La
propriété déjà utilisée en question 3, appliquée à la mesure νs , amène :

νs (E) = lim νs (En ).


n→+∞

Ainsi, en passant à la limite dans l’inégalité obtenue ci-dessus, il vient :


Z
α > cνs (E) = c s dµ .
E

(e) En passant à la borne supérieure sur s étagée minorant f , il vient alors :


Z
α>c f dµ.
E

Ceci étant vrai pour tout c < 1, on peut passer à la borne supérieure sur c ∈]0, 1[, et il vient donc :
Z
α> f dµ.
E

L’inégalité opposée ayant déjà été justifiée, on a donc :


Z Z
lim fn dµ = f dµ.
E E

4
Partie II – Intégrale de Lebesgue et intégrale de Riemann.

1. L’ensemble Q est un borélien, car union dénombrable de singletons, eux-même des boréliens puisqu’ils s’écrivent :
+∞
!
[ 1
a =] − ∞, a] ∩ ∁R ] − ∞, a − ] .
n=1
n

En fait, comme admis dans l’énoncé, tous les intervalles sont des boréliens, en particulier les singletons. L’in-
tervalle [0, 1] aussi (construction similaire à ci-dessus), donc Q ∩ [0, 1] est aussi un borélien. Ainsi, 1Q∩[0,1] est
étagée, donc mesurable.
Par ailleurs, Z X
1Q∩[0,1] dλ = λ(Q ∩ [0, 1]) = λ({x}) = 0,
E x∈Q∩[0,1]

par définition de λ sur les intervalles (en particulier les singletons). Ce raisonnement est valide par σ additivité,
Q ∩ [0, 1] étant dénombrable.
Ainsi, le résultat obtenu étant réel, 1Q∩[0,1] est Lebesgue-intégrable .
2. Soit h une fonction en escaliers, a = σ0 < σ1 < · · · < σn = b une subdivision associée, et pour tout i ∈ [[1, n]],
hi la valeur de h sur le palier Ai =]σi−1 , σi [. On note également, pour i ∈ [[0, n]], h′i la valeur de h en σi . On a
alors :
Xn n
X
h= h i 1 Ai + h′i 1{σi } ,
i=1 i=0

tous les ensembles intervenant étant mesurables (ce sont des intervalles) et 2 à 2 disjoints. Ainsi, h est une
fonction étagée, à support dans [a, b], et
Z n
X n
X
h dλ = hk λ(Ai ) + h′i λ(σi ).
[a,b] i=1 i=0

Les singletons étant de mesure nulle, il reste :


Z n
X Z Z b
h dλ = hk (σi − σi−1 ) soit: h dλ = h(t) dt
[a,b] i=1 [a,b] a

3. Soit f une fonction Riemann-intégrable sur [a, b]. Par caractérisation séquentielle de la borne supérieure, et par
définition de l’intégrabilité au sens de Riemann, il existe une suite (g˜n ) de fonctions en escalier telles que
Z b Z b
g˜n (t) dt −→ f (t) dt.
a a

On construit alors gn = sup g˜k . Ces fonctions sont encore en escalier, et minorent f . Par contruction, la
k∈[[0,n]]

suite (gn (x)) est croissante pour tout x . De plus, on a :


Z b Z b Z b
∀n ∈ N, g˜n (t) dt 6 gn (t) dt 6 f (t) dt.
a a a

Ainsi, d’après le théorème d’encadrement, on a également


Z b Z b
gn (t) dt −→ f (t) dt .
a a

On montre de la même manière l’existence d’une suite décroissante (hn ) de fonctions en escalier majorant f
telles que
Z b Z b
hn (t) dt −→ f (t) dt.
a a

5
4. Tel qu’il est écrit, l’énoncé suppose qu’on généralise la construction de l’intégrale aux fonctions de signe quel-
conque, et qu’on généralise le théorème de convergence monotone à cette situation. Afin de ne pas avoir à faire
ces généralisations et à rester avec les notions démontrées jusque là, nous ne suivrons donc pas totalement
l’énoncé pour terminer cette partie.
Pour commencer, on suppose f positive, pour rester dans le cadre étudié jusqu’ici. Par ailleurs, f est bornée, car
Riemann-intégrable. En notant m et M un minorant et un majorant de f , quitte à considérer gn′ = sup(gn , m)
et h′n = inf(hn , M ), on peut supposer que les fonctions gn et hn sont elles aussi toutes minorées par m et
majorées par M . On peut choisir m = 0, ce que nous faisons désormais.
Considérons la suite gn − hn + M . Il s’agit alors d’une suite de fonctions en escalier (donc Lebesgue-intégrables),
croissante (car (gn ) est croissante et (hn ) décroissante). Notons pour tout x ∈ R, g(x) la limite de la suite crois-
sante (gn (x)) et h(x) la limite de la suite décroissante (hn (x)). On a alors, d’après le théorème de convergence
monotone de Lebesgue : Z Z
(gn − hn + M ) dλ −→ (g − h + M ) dλ.
[a,b] [a,b]

Par ailleurs, d’après la question 2,


Z Z b Z b Z b
(gn − hn + M ) dλ = gn (x) − hn (x) + M dx = gn (x) dx + hn (x) + (b − a)M −→(b − a)M.
[a,b] a a a

On a donc Z
g − h + M dλ = (b − a)M.
[a,b]

On ne peut pas se ramener directement à la question I-3, car cela nous obligerait à généraliser le résultat à
des fonctions négatives. Nous allons donc adapter son argument. On sait ici que k = g − h + M est mesurable
(cela provient du théorème de convergence monotone de Lebesgue), et majorée par M . Soit alors n ∈ N∗ , et
An = k −1 (] − ∞, M − n1 ]). Soit s une fonction étagée minorant k. On a alors s 6 k 6 M − n1 sur An , et
s 6 k 6 M ailleurs. On a alors
1
s 6 (M − )1An + M 1[a,b]\An ,
n
donc, par monotonie de l’intégrale, et par description de l’intégrale des fonctions étagées :
1
Z
s dλ 6 M (b − a) − λ(An ).
[a,b] n

En passant à la borne supérieure, il vient donc


1
Z
M (b − a) = [a, b](g − h + M ) dλ 6 M (b − a) − λ(An ),
n

ce qui n’est possible que si λ(An ) = 0. On a donc λ(k −1 (]−∞, M − n1 ])) = 0 pour tout n ∈ N, donc en considérant
l’union dénombrable de ces ensembles, par le même argument qu’en I-3, λ(k −1 (] − ∞, M [)) = 0. Comme k est
toujours inférieure à M , il en résulte que k = M sauf sur un ensemble k −1 (R \ {M }) de mesure nulle. Ainsi,
g − h + M = M sauf sur un ensemble de mesure nulle, donc g = h sauf sur un ensemble de mesure nulle.
Comme f est coincée entre g et h, on a alors f = g sauf sur un ensemble de mesure nulle. Par ailleurs, g est
mesurable d’après le théorème de convergence monotone de Lebesgue, et
Z Z Z Z b Z b
f dλ = g dλ = lim gn dλ = lim gn (x) dx = f (x) dx.
[a,b] [a,b] n→+∞ [a,b] n→+∞ a a

Ainsi, si f est Riemann-intégrable, elle est Lebesgue-intégrable, et


Z Z b
f dλ = f (x) dx .
[a,b] a

Évidemment, si on dispose des généralisations pour les fonctions non nécessairement positives, l’argument est
le même, mais sans avoir besoin de translater pour se ramener à des fonctions positives, ce qui simplifie un peu
l’argument.

6
Partie III – Théorème de Carathéodory

1. Pour tout X ∈ P(S), on a

m∗ (∅ ∩ X) + m∗ (∅ ∩ X) = m∗ (∅) + m∗ (X) = m∗ (X).

Ainsi, ∅ ∈ M .
Soit A ∈ M. On a alors, pour tout X ∈ M :

m∗ (X) = m∗ (A ∩ X) + m∗ (A ∩ X) = m∗ (A ∩ X) + m∗ (A ∩ X).

par conséquent, A ∈ M. Ainsi, M est stable par complémentation .


2. Soit A et B dans M
(a) On a :

X ∩ (A ∪ B) = (X ∩ A) ∪ (X ∩ B) = (X ∩ A) ∪ ((X ∩ B) \ (X ∩ A)) = (X ∩ A) ∪ (X ∩ (B \ A)),

d’où X ∩ (A ∪ B) = (X ∩ A) ∪ (X ∩ B ∩ A) .
(b) Pour commencer, la sous-σ-additivité implique la sous-additivité : il suffit pour cela de compléter une famille
finie en une famille dénombrable par ajout de l’ensemble vide, et d’appliquer la sous-σ-additivité à cette
famille dénombrable. On a alors, d’après la question précédente :

m∗ (X ∩ (A ∪ B)) 6 m∗ (X ∩ A) + m∗ (X ∩ B ∩ A),

puis
m∗ (X ∩ (A ∪ B)) + m∗ (X ∩ (A ∪ B)) 6 m∗ (X ∩ A) + m∗ (X ∩ B ∩ A) + m∗ (X ∩ A ∩ B).

Or, B étant dans M, en appliquant la définition de la m∗ -mesurabilité avec X ′ = X ∩ A, on obtient :

m∗ (X ∩ A) + m∗ (X ∩ B ∩ A) + m∗ (X ∩ A ∩ B) = m∗ (X ∩ A) + m∗ (X ∩ A) = m∗ (X),

la dernière égalité provenant de la m∗ -mesurabilité de A. Ainsi

m∗ (X ∩ (A ∪ B)) + m∗ (X ∩ (A ∪ B)) 6 m∗ (X) .

(c) D’un autre côté, la sous-additivité amène :

m∗ (X) = m∗ ((X ∩ (A ∪ B)) ∪ (X ∩ A ∪ B)) 6 m∗ (X ∩ (A ∪ B)) + m∗ (X ∩ A ∪ B).

Ainsi, l’inégalité opposée ayant été démontrée dans la question précédente, A ∪ B ∈ M.


On en déduit que M est stable par union de 2 éléments, puis par récurrence, M est stable par union finie .
Puisque M est aussi stable par complémentation, d’après les lois de De Morgan, on obtient alors également
la stabilité de M par intersection finie .
3. Soit (Ak )k∈N∗ une famille d’éléments de M deux à deux disjoints.
(a) On a :
n+1
! n+1 n+1
!
[ [ [
Ak ∩ An+1 = (Ak ∩ An+1 ) soit: Ak ∩ An+1 = An+1 ,
k=1 k=1 k=1

les ensembles Ak ∩ An+1 étant vides pour k 6= n + 1. De même,

n+1
! n+1 n+1
! n
[ [ [ [
Ak ∩ An+1 = (Ak ∩ An+1 ) soit: Ak ∩ An+1 = Ak ,
k=1 k=1 k=1 k=1

puisque Ak ⊂ Ak+1 pour k 6= n + 1, et An+1 ∩ An+1 = ∅.

7
(b) On montre par récurrence sur n ∈ N la propriété P(n) suivante : pour tout X ∈ P(S), on a :
n
!! n
[ X

m X∩ Ak = m∗ (X ∩ Ak ).
k=1 k=1
X
• Pour n = 0, l’égalité se résume à m∗ (X ∩ ∅) = m∗ (X ∩ Ak ), soit 0 = 0.
k∈∅
• On peut remarquer (mais ce n’est formellement pas nécessaire) que la propriété au rang n = 1 est
également triviale : elle se résume à m∗ (X ∩ A1 ) = m∗ (X ∩ A1 ).
• Soit n > 1 (n > 0 suffit) tel que P(n) soit vraie. On a alors, par m∗ -mesurabilité de An+1 :
n+1
!! n+1
! ! n+1
! !
[ [ [
∗ ∗ ∗
m X∩ Ak =m X∩ Ak ∩ An+1 + m X ∩ Ak ∩ An+1
k=1 k=1 k=1
n
!!
[
= m∗ (X ∩ An+1 ) + m∗ X∩ Ak .
k=1

Par hypothèse de récurrence, il vient alors :


n+1
!! n n+1
[ X X

m X∩ Ak = m∗ (X ∩ An+1 ) + m∗ (X ∩ Ak ) = m∗ (X ∩ Ak ).
k=1 k=1 k=1

Ainsi, la propriété P(n + 1) est également vérifiée.


• D’après le principe de récurrence, la propriété P(n) est donc vraie pour tout n ∈ N.
n
[
(c) On prend X = Ak dans la propriété P(n). Les Ai étant deux à deux disjoints, on a alors X ∩ Ak = Ak ,
k=1
pour tout k ∈ [[1, n]]. On obtient alors :

n
! n
[ X
m∗ Ak = m∗ (Ak ) .
k=1 k=1

Ainsi, m∗ est additive .


+∞
[
4. Les notations étant les mêmes que dans la question précédente, on pose A = Ak et pour tout n ∈ N,
k=1
n
[
Bn = Ak .
k=1
(a) D’après la question 2, Bn est dans M, et
n
X
m∗ (X) = m∗ (X ∩ Bn ) + m∗ (X ∩ Bn ) = m∗ (Ak ) + m∗ (X ∩ Bn ),
k=1

d’après la question 3. Par ailleurs, Bn ⊂ A, donc X ∩ A ⊂ X ∩ Bn . On déduit alors de la monotonie de m∗


que :
Xn
m∗ (X) > m∗ (Ak ) + m∗ (X ∩ A).
k=1

(b) L’inégalité précédente étant vraie pour tout n, on peut passer à la limite lorsque n tend vers +∞ (ce qui a
toujours un sens dans R) :
+∞ +∞
!
X [
∗ ∗ ∗ ∗
m (X) > m (Ak ) + m (X ∩ A) > m Ak + m∗ (X ∩ A), (1)
k=1 k=1

par sous-σ-additivité. Ainsi, m∗ (X) > m∗ (X ∩ A) + m∗ (X ∩ A) .


L’inégalité opposée s’obtient simplement par sous-additivité, donc

m∗ (X) = m∗ (X ∩ A) + m∗ (X ∩ A).

8
La première chose qu’on en déduit est que A ∈ M , et d’autre part, pour que l’égalité soit possible, la
seconde inégalité de l’expression (1) ne peut pas être stricte, donc

+∞ +∞
!
X [
∗ ∗
m (Ak ) = m Ak .
k=1 k=1

5. • M contient ∅, est stable par complémentaire, et d’après la question précédente, par union dénombrables
d’ensembles deux à dexu disjoints. Soit maintenant (Ak )k∈N∗ une famille d’éléments de M non nécessai-
rement deux à deux disjoints. On définit Bn comme dans la question précédente, ainsi que B0 = ∅, et
Cn = Bn \ Bn−1 , pour n > 1. Les Bn sont dans M (on a prouvé la stabilité par union finie), donc aussi les
Cn (stabilité par complémentation et intersection finie). Or les Cn sont 2 à 2 disjoints, et
+∞
[ +∞
[
An = Cn .
n=1 n=1

Donc, d’après la stabilité de M par union dénombrables d’élément deux à deux dijoints, on en déduit qu’on
+∞
[
a aussi An ∈ M. Donc M est stable par union dénombrable. Ainsi, M est une tribu .
n=1
• La propriété m∗ (∅) et la question 4(b) montrent que m∗ se retreint en une mesure sur M .

Partie IV – Théorème de prolongement de Hahn

1. (i) Toutes les sommes intervenant dans la définition de µ∗ sont positives. Ainsi, pour tout X, µ∗ (X) > 0. Par
ailleurs, si X = ∅, en prenant pour tout n ∈ N, An = ∅, on a
+∞
[ +∞
X
∅=X ⊂ Ak , et µ(An ) = 0.
n=1 n=1

Ainsi, µ∗ (∅) 6 0. Les deux inégalités amènent µ∗ (∅) = 0 .


(ii) (Monotonie)
+∞
[
Soit A ⊂ B. Notons A+ l’ensemble des familles (Ak ) d’éléments de A telles que A ⊂ Ak , et définissons
n=1
de même B + . l’inclusion A ⊂ B amène alors de façon évidente B + ⊂ A+ , donc
+∞ +∞
! !
X X
inf + µ(An ) > inf + µ(An ) ,
(An )∈B (An )∈A
n=1 n=1

c’est-à-dire µ∗ (B) > µ∗ (A). D’où la monotonie de µ∗ .


(iii) (Sous-σ-additivité). Soit (An )n∈N∗ une famille dénombrable de sous-ensembles de S.
Soit ε > 0. Par caractérisation de la borne inférieure, il existe une famille (Bn,k )k∈N∗ ∈ A+
n (mêmes
notations que dans la question précédente) telle que
+∞
ε X
µ∗ (An ) + n
> µ(Bn,k ).
2
k=1

On a alors :
+∞ +∞ +∞ X
+∞
X

X 1 X
µ (An ) + ε > µ(Bn,k ).
n=1 n=1
2n n=1
k=1

Les termes étant tous positifs, soit les familles considérées sont sommables, soit les sommes sont infinies.
Dans les deux cas, on peut écrire :
+∞
X X
µ∗ (An ) + ε > µ(Bn,k ).
n=1 (n,k)∈N∗

9
+∞
[ +∞
[ +∞
[
Or, A = An ⊂ Bn,k . Ainsi, quitte à réindexer (Bn,k ) sur N, on peut dire que (Bn,k ) est un
n=1 n=1 k=1
élément de A+ . On a donc, par définition de µ∗ (A) :
+∞
X
µ∗ (An ) + ε > µ∗ (A).
n=1

Ceci étant vrai pour tout ε > 0, il en découle que


+∞ +∞
!
X [
∗ ∗
µ (An ) > µ An ,
n=1 n=1

c’est-à-dire la sous-σ-additivité de σ.
Ainsi, µ∗ est une mesure extérieure .
Au passage retenez la méthode employée pour découper un petit epsilon en une infinité de parts : il suffit de
prendre des parts de plus en plus petites de sorte à assurer la convergence de la somme de ces parts vers ε.
C’est un argument souvent très utile.
2. • Par conséquent, d’après la partie III, µ∗ se restreint en une mesure µ̃ sur la tribu M. Cette tribu M contient
en particulier les ensembles µ∗ -mesurables.
• Une mesure µ sur une algèbre A est monotone : si A ⊂ B, on peut écrire B = A ⊔ (B ∩ A). L’ensemble
B ∩ A est encore dans A, et par additivité,

µ(B) = µ(A) + µ(B ∩ A) > µ(A).

• Par ailleurs, une mesure positive µ sur une algèbre est sous-σ-additive. En effet, soit (Bn )n>1 une suite
d’éléments de A dont l’union est encore dans A. On définit
n
[ n−1
[
Cn = Bk \ Bk .
k=1 k=1

Les Ci sont 2 à 2 disjoints, pour tout n ∈ N, Cn ⊂ Bn et


+∞
X +∞
X
Cn = Bn .
n=1 n=1

On a alors, par monotonie de µ et σ-additivité :


+∞ +∞
! ! +∞ +∞
X X X X
µ Bn = µ Cn = µ(Cn ) 6 µ(Bn ).
n=1 n=1 n=1 n=1

+∞
[
• Soit alors (Bn ) une suite d’éléments de A telle que A ⊂ Bn . On a alors
n=1

+∞
[
A= A ∩ Bn ,
n=1

les A ∩ Bn étant dans A, ainsi que leur union. Par sous-σ-additivité, il vient donc
+∞
X +∞
X
µ(A) 6 µ(A ∩ Bn ) 6 µ(Bn ).
n=1 n=1

Par passage à la borne inférieure, il vient µ(A) 6 µ∗ (A).


l’inégalité réciproque s’obtient simplement en considérant la suite B1 = A, Bk = ∅ si k > 1. Ainsi µ(A) =
µ∗ (A), donc µ et µ∗ coïncident sur A .
• Soit A ∈ A et X ⊂ S. La sous-σ additivité de µ∗ amène µ∗ (X) 6 µ∗ (X ∩ A) + µ∗ (X ∩ A).

10
+∞
[
• Réciproquement, soit (Bn ) une suite d’éléments de A telle que X ⊂ Bn et
n=1

+∞
X

µ (X) + ε > µ(Bn ).
n=1

On a alors
X ∩ A ⊂ (Bn ∩ A) et X ∩ A ⊂ (Bn ∩ A),
tous les ensembles de ces unions étant dans A. On a alors
+∞
X +∞
X +∞
X
∗ ∗
µ (X ∩ A) + µ (X ∩ A) 6 µ(Bn ∩ A) + µ(Bn ∩ A) = µ(Bn ),
n=1 n=1 n=1

par additivité. Ainsi


µ∗ (X ∩ A) + µ∗ (X ∩ A) 6 µ∗ (X) + ε.
Ceci étant vrai pour tout ε > 0, il vient :

µ∗ (X ∩ A) + µ∗ (X ∩ A) 6 µ∗ (X).

• Les deux points précédents permettent d’affirmer que A ⊂ M. Par conséquent, M étant une tribu, par
minimalité, σ(A) ⊂ M.
Ainsi, on peut encore restreindre µ̃ en une mesure µ sur σ(A).
Ainsi, il existe un prolongement µ de µ sur σ(A) .
3. On montre dans cette question l’unicité. Soit µ1 et µ2 deux prolongements de µ sur σ(A). On définit C = {A ∈
A, µ(A) < +∞}
(a) Soit (A, B) ∈ C 2 . On a alors A ∩ B ∈ A, et par monotonie de µ, µ(A ∩ B) 6 µ(A) < +∞. Ainsi, C est stable
par intersection finie. C est donc un π-système .
+∞
[
(b) µ étant σ-finie, il existe (An )n∈N telle que pour tout tout n ∈ N, µ(An ) < +∞ et S = An .
n=0
Soit alors A ∈ A. On a donc :
+∞
[
A= A ∩ An .
n=0

Or, pour tout n ∈ N, A ∩ An est dans A, et

µ(A ∩ An ) 6 µ(An ) < +∞.

Ainsi, A ∩ An ∈ C. Par stabilité d’une σ-algèbre par union dénombrable, on en déduit que A ∈ σ(C).
Par minimalité de la σ-algèbre engendrée par A, il vient donc σ(A) ⊂ σ(C) . L’inclusion réciproque est
immédiate du fait que C ⊂ A. Ainsi, σ(A) = σ(C) .
(c) Les mesures µ1 et µ2 définies sur σ(A) = σ(C) coincident sur le π-système C. On déduit du dernier point ad-
mis dans l’énoncé (théorème d’unicité des mesures, découlant du lemme de classe monotone), que µ1 = µ2 .
La mesure de Lebesgue est alors construite ainsi :
• On commençe par définir λ(I) pour les intervalles I par leur longueur.
• Ceci se prolonge assez naturellement aux unions disjointes finies d’intervalles, en faisant tout de même attention
au fait qu’un tel ensemble peut s’écrire de plusieurs façons différentes comme union finie d’intervalles 2 à 2
disjoints : il faut donc montrer l’invariance vis-à-vis de cette décomposition.
• On montre que l’ensemble A des éléments de P(R) s’écrivant comme union finie d’intervalles disjoints est une
algèbre, et que λ ainsi définie est une mesure sur cette algèbre (c’est là le point délicat, notamment pour montrer
la σ-additivité). On peut d’ailleurs noter que c’est pour cette preuve précisément que Borel a énoncé le fameux
théorème de Borel-Lebesgue pour les compacts en 1895.
• On définit alors λ sur B = σ(A) par le théorème de prolongement de Hahn.

11
Lycée Louis-Le-Grand, Paris
MPSI 4 – Mathématiques
A. Troesch

Problème no 14 : Structures algébriques

Correction du problème 1 – Théorème de Burnside

Partie I – Quelques résultats préliminaires

1. Soit G un groupe, et H un sous-groupe de G. Montrons que NG (H) est un sous-groupe de G. On a :


• NG (H) ⊂ G par définition ;
• eH = H = He, où e désigne le neutre de G, donc e ∈ NG (H)
• Si x ∈ NG (H) et y ∈ NG (H), alors

yHy −1 = H donc: H = y −1 (yHy −1 )y = y −1 Hy donc: xy −1 Hyx−1 = xHx−1 = H.

On en déduit que xy −1 ∈ NG (H).


D’après la caractérisation des sous-groupes, NG (H) est un sous-groupe de G .
Par ailleurs :
• pour tout h ∈ H, par stabilité H, hH ⊂ H
• En particulier, étant donné h ∈ H, h−1 ∈ H, donc h−1 H ⊂ H, puis hh−1 H ⊂ hH, donc H ⊂ hH.
D’après le principe de double inclusion, hH = H. De même, Hh = H. Ainsi, h ∈ NG (H). On a donc
H ⊂ NG (H) .
2. Soit G un groupe.
(a) De même, étant donné x ∈ G :
• CG (x) ⊂ G par définition
• ex = x = xe donc e ∈ G
• Si y et z sont dans CG (E),

x = zxz −1 donc: z −1 xz = x puis: (yz −1 )x(yz −1 )1 = yxy −1 = x.

Ainsi, yz −1 ∈ CG (E).
Par conséquent, CG (x) est un sous-groupe de G.
[
(b) De façon évidente, CG (X) = CG (x), donc CG (X) est un sous-groupe de G , comme intersection de
x∈X
sous-groupes de G.
(c) Si x ∈ CG (H), alors pour tout h ∈ H, xhx−1 = h ∈ H, donc x ∈ NG (H). Ainsi, CG (H) ⊂ NG (H) .

Partie II – Produit semi-direct de deux sous-groupes de G

1. Soit f : H × K → HK définie par f (h, k) = hk. La fonction f est toujours surjective, par définition de HK.
• Supposons H ∩ K = {e}. Montrons que f est injective. Soit (h, k) et (h′ , k ′ ) deux éléments de H × K tels
−1
que f (h, k) = f (h′ , k ′ ), donc hk = h′ k ′ . On a alors h′ h = k ′ k −1 . Cet élément est donc à la fois un élément
de H et de K, donc, puisque H ∩ K = {e} :
−1
h′ h = e = k ′ k −1 puis: h = h′ et k = k ′ .

On en déduit que f est injective, puis la bijectivité de f

1
• Supposons que H ∩ K 6= {e}, Comme H ∩ K contient e, cela signifie qu’il existe un élément x ∈ H ∩ K
différent de e. On a alors (e, x) ∈ H × K et (x, e) ∈ H × K, et f (e, x) = f (x, e). Comme (e, x) 6= (x, e), f
n’est pas injective, donc pas bijective.
On conclut donc : f est bijective si et seulement si H ∩ K = {e}.
2. (a) • Supposons que HK est un sous-groupe de G.
∗ Soit x ∈ HK. Puisque x ∈ HK, x−1 ∈ HK, donc il existe h ∈ H, k ∈ K tels que x−1 = hk, puis
x = k −1 h−1 ∈ KH. Donc HK ⊂ KH
∗ Soit x ∈ KH, alors il existe k ∈ K, h ∈ H tels que x = kh, donc x−1 = h−1 k −1 . Ainsi, x−1 ∈ HK,
et HK étant un groupe, on en déduit que x ∈ HK. Ainsi, KH ⊂ HK.
Des deux inclusions, on déduit : HK = KH.
• Réciproquement, supposons que HK = KH.
∗ On a HK ⊂ G et e = e × e ∈ HK.
∗ Soit x ∈ HK, alors il existe h ∈ H, k ∈ K tel que x = hk, donc x−1 = k −1 h−1 ∈ KH = HK.
∗ Soit (x, y) ∈ (HK)2 . Alors il existe (h1 , h2 ) ∈ H 2 , (k1 , k2 ) ∈ K 2 tels que

x = h1 k1 et y = h2 k2 .

On a alors xy = h1 k1 h2 k2 . Comme k1 h2 ∈ KH = HK, il existe h3 ∈ H et k3 ∈ K tels que


k1 h2 = h3 k3 , d’où
xy = (h1 h3 )(k3 k2 ) ∈ HK.
Ainsi, HK est un sous-groupe de G.
On conclut que HK est un sous-groupe de G si et seulement si HK = KH .
(b) Dans ce cas :
• H ∪ K ⊂ HK de façon évidente (si h ∈ H, h = h × e, et de même pour K).
• Si L est un groupe tel que H ∪ K ⊂ L, par stabilité, pour tout h ∈ H et tout k ∈ K, (h, k) ∈ L2 , donc
hk ∈ L2 . On en déduit que HK ⊂ L.
Ainsi, HK est le plus petit sous-groupe de G contenant H ∪ K.
3. On suppose dans cette question que G est produit semi-direct de K par H.
(a) • Au vu des hypothèses H ∩ K = {e} et HK = G, la fonction f : (h, k) → hk est une bijection de H × K
sur G. Soit g ∈ G. Il existe donc h ∈ H et k ∈ K uniques tels que g = xy. La condition α(xy) = x pour
tout x ∈ H et tout y ∈ K impose alors α(g) = x. Cela assure l’ unicité de α
• Le raisonnement précédent donne aussi l’ existence . Plus formellement, on obtient la description sui-
vante : α = pH ◦ f −1 , où pH désigne la projection (h, k) 7→ h de H × K sur H.
• Par ailleurs, étant donné g1 et g2 deux éléments de G, il existe h1 , h2 , k1 , k2 tels que g1 = h1 k1 et
g2 = h2 k2 . On a alors α(g1 ) = h1 et α(g2 ) = h2 . Par ailleurs, K étant distingué, h2 K = Kh2 , donc il
existe k3 dans K tel que k1 h2 = h2 k3 . Ainsi :

α(g1 g2 ) = α(h1 k1 h2 k2 ) = α((h1 h2 )(k3 k2 )) = h1 h2 = α(g1 )α(g2 ).

Ainsi, α est un morphisme de groupes.

(b) • Pour tout h ∈ H, α(h) = α(h × e) = h. Ainsi, α|H = idH , donc α(H) = H .
• Soit h ∈ H ∩ Ker(α). On a alors
e = α(h) = α(h × e) = h.
Ainsi, H ∩ Ker(α) ⊂ {e}, et e étant dans tout sous-groupe, H ∩ Ker(α) = {e} .
4. Soit G un groupe, H un sous-groupe de G, et α un morphisme de G dans H tel que α(H) = H et H ∩ Ker(α) =
{e}. On pose K = Ker(α).
• On a évidemment HK ⊂ G
• Soit g ∈ G, et h′ = α(g) ∈ H. Puisque α(H) = H il existe h tel que α(h) = h′ . Posons alors k = h−1 g. On
a:
−1
α(k) = α(h−1 g) = α(h)−1 α(g) = h′ h′ = e,
donc k ∈ Ker(α). On a donc g ∈ HK, donc G ⊂ HK.

2
• Par hypothèse, H ∩ K = {e}.
• Soit k ∈ K et g ∈ G. On a

α(gkg −1 ) = α(g)α(k)α(g)−1 = α(g)eα(g)−1 = α(g)α(g)−1 = e.

Ainsi, gkg −1 ∈ K. Par conséquent, K est un sous-groupe distingué de G.


On en déduit que G est produit semi-direct de Ker(α) par H .

Partie III – Théorème de Burnside

1. Soit (x, y) ∈ H 2 . Comme H ⊂ NG (H) = CG (H), x est dans le centralisateur de y, donc x et y commutent.
Ainsi, H est abélien .
2. Soit (x, y) ∈ G × H, et z = xyx−1 . On suppose que z ∈ H.
(a) • Puisque z ∈ H, on a H ⊂ NG (H) = CG (H) ⊂ CG (z). Ainsi, H est un sous-groupe de CG (z). D’après
le théorème de Lagrange, l’ordre de H divise l’ordre de CG (z), qui divise l’ordre de G. On en déduit que la
valuation p-adique de CG (z) est égale à r, et par conséquent, H est un p-sous-groupe de Sylow de CG (z) .
• Par régularité de x et x−1 , l’application définie sur H par h 7→ xhx−1 est injective, donc sa corestriction
à son image xHx−1 est bijective. Par conséquent, H et xHx−1 ont même cardinal pr .
• xHx−1 est un sous-ensemble non vide de G, et pour tout (a, b) ∈ (xHx−1 )2 , il existe h et k dans H tels
que
a = xhx−1 et b = xkx−1 donc: ab−1 = xhk −1 x−1 ∈ xHx−1 .
D’après la caractériation des sous-groupes, xHx−1 est un sous-groupe de G
• Soit a ∈ xHx−1 . Montrons que a ∈ C(z). Il existe h ∈ H tel que a = xhx−1 . On a alors

aza−1 = xhx−1 xyx−1 xh−1 x−1 = xhyh−1 x−1 .

Or, h, h−1 et y sont dans H qui est abélien, donc hyh−1 = hh−1 y = y. Ainsi

aza−1 = aya−1 = z.

On en déduit que xHx−1 est un sous-groupe de C(z).


• Pour les mêmes raisons que plus haut, xHx−1 est donc un p-sous-groupe de Sylow de C(z) .
−1
(b) Les p-sous-groupes de Sylow étant deux à deux conjugués, il existe x′ ∈ CG (z) tel que H = x′ (xHx−1 )x′ .
Il en découle que x x ∈ NG (H) = CG (H). Comme x ∈ CG (H), on obtient x ∈ CG (H), donc x ∈ GC (y). La
′ ′

définition de z amène alors z = y .


3. Soit y ∈ G, et (x1 , . . . , xm ) un système de représentants des classes à gauche modulo H dans G.
(a) Soit i ∈ [[1, m]]. Les ensembles x1 H, . . . , xm H formant une partition de G, l’élément yxi est dans l’un et un
seul d’entre eux. Ainsi, il exite un unique indice σ(i) ∈ [[1, m]] tel que yxi ∈ xσ(i) H. Il existe alors h ∈ H tel
que
yx1 = xσ(i) h
Mais alors h est tout déterminé par la nécessité d’avoir h = yx1 x−1
σ(i) .

D’où l’existence et l’unicité de σ(i) ∈ [[1, m]] et hi ∈ H tels que yxi = xσ(i) hi .
(b) • L’application σ est bien définie de [[1, n]] dans [[1, n]].
• Soit (i, j) dans [[1, m]]2 tels que σ(i) = σ(j). On a alors

yxi h−1
i = xσ(i) = xσ(j) = yxj h−1
j .

Par régularité des éléments d’un groupe, xi hi−1 = xj h−1j , donc xi H ∩ xj H 6= ∅, d’où xi H = xj H, ces
ensembles formant une partition. Comme les xi sont des représentants de classes deux à deux distinctes,
on peut en conclure que i = j, donc que σ est injective.
• Pour des raisons de cardinalité, σ est alors bijective. Donc σ ∈ Sm .

3
(c) T définit une application de G dans H. De plus, étant donné g et g ′ dans G, en définissant les hi (pour gi )
et les h′i (pour gi′ ), et σ et σ ′ les éléments de Sm associés, on a, pour tout i ∈ [[1, m]] :

gg ′ = xσ◦σ′ (i) hσ′ (i) xσ−1 ′ −1


′ (i) xσ ′ (i) hi xi = xσ◦σ′ (i) hσ′ (i) h′i xi .

Ainsi, la permutation associée à gg ′ est σ ◦ σ ′ , et la famille (h′′i ) est définie par :

∀i ∈ [[1, m]], h′′i = hσ′ (i) h′i .

Puisque H est abélien et que σ ′ est une permutation, on en déduit que


m
Y m
Y m
Y
T (gg ′ ) = hσ′ (i) h′i = hi h′i = T (g)T (g ′).
i=1 i=1 i=1

Ainsi, T est un morphisme de groupes de G dans H.


(d) • Soit y ∈ G, et σ la permutation de [[1, m]] associée. On définit sur [[1, m]] la relation suivante :

i ∼ j ⇐⇒ ∃k ∈ N, i = σ k (j),

Il s’agit d’une relation d’équivalence :


∗ Soit i ∈ [[1, m]], i = σ 0 (i), donc i ∼ i, d’où la reflexivité.
∗ Soit i, j tels que i ∼ j. Alors il existe k tel que j = σ k (i). Comme Sm est un groupe fini, l’élément σ
est aussi d’ordre fini (son ordre divise l’ordre de Sm ), il existe donc ℓ ∈ N tel que (σ ℓ ) = id. Soit q
et r le quotient et le reste de la division euclidienne de k par ℓ. Il vient alors :

σ ℓ−r (j) = σ ℓ−r+k (i) = σ (q+1)ℓ (i) = idq+1 (i) = i,

et ℓ − r ∈ N. Ainsi, j ∼ i. D’où la symétrie.


∗ Soit i1 ∼ i2 et i2 ∼ i3 . Il existe (k, ℓ) ∈ N2 tels que i2 = σ k (i1 ) et i3 = σ ℓ (i2 ), donc i3 = σ k+ℓ (i1 ).
Ainsi, i1 ∼ i3 , d’où la transitivité.
Ainsi, il s’agit bien d’une relation d’équivalence.
• On considère alors {X1 , . . . , Xt } la partition de [[1, m]] formée des classes d’équivalence. Soit j ∈ [[1, t]]
et i ∈ Xj . Puisque σ est d’ordre fini, il existe k > 0 tel que σ k (i) = i. Soit k0 la plus petite de ces
valeurs. Alors σ 0 (i), σ 1 (i), . . . , σ k0 −1 (i) sont des éléments deux à deux distincts de Xj (si σ q (i) = σ r (i),
avec q < r, en appliquant la fonction bijective σ −q , on contredit la minimalité de k0 ). De plus, la suite
(σ k (i))n∈N est alors périodique de période minimale k, les k valeurs prises sur une période étant deux à
deux distinctes. Or, par définition de la relation d’ordre et de ses classes, les valeurs prises par cette suite
sont exactement les éléments de Xj , donc k = |Xj |. Ainsi, la restriction de σ à Xj est une permutation
cyclique : après avoir donné un ordre cyclique aux éléments de Xj , chaque application de la permutation
σ fait tourner les éléments. En particulier, Xj = {σ k (i), i ∈ [[0, k0 − 1]]}.
On vient de décrire la décomposition en cycles disjoints de la permutation σ : la permutation σ peut
être vue comme un ensemble de cycles disjoints : à chaque fois qu’on applique une nouvelle fois σ, on
fait tourner d’un cran chaque cycle. Les cycles n’ont pas tous la même taille, donc on n’en fait pas le
tour à la même vitesse. Cette situation est à comparer aux roues de tailles différentes d’un tracteur ou
d’une locomotive à vapeur : une permutation est un ensemble de roues de tailles différentes, qu’on fait
tourner simultanément.
Soit J ⊂ [[1, n]] un système de représentant de chaque classe Xi . On note X(j) la classe représentée par
j ∈ J. Étant donné j ∈ J, on a alors, le produit étant justifiant par le fait que les éléments dont on fait
le produit sont dans H qui est abélien) :
nj −1
Y Y Y
−1
hi = xσ(i) yxi = x−1
σk+1 (j)
yxσk (j)
i∈X(j) i∈X(j) k=0

= xσ−1
nj
(j)
yxσnj −1 (j) x−1
σnj −1 (j)
yxσnj −2 (j) . . . x−1 −1
σ2 (j) yxσ(j) xσ(j) yxj

4
et après simplifications : Y
hi = xσ−1
nj
(j)
y nj xj = xj y nj x−1
j .
i∈X(j)

En particulier, comme hi ∈ H, on a pour tout j ∈ J, x−1 nj


Q
j y xj ∈ H
i∈X(j)
• Du fait que H est abélien, on obtient, en faisant le produit des expressions trouvées sur chacune des
parts de la partition X(j), j ∈ J :
m
Y Y Y
hi = xj−1 y nj xj soit: T (y) = x−1 nj
j y xj
i=1 j∈J j∈J

X
• Comme les nj sont les cardinaux de parts d’une partition de [[1, m]], on a nj = m .
j∈J

(e) Soit y ∈ H. D’après la question 2 (appliquée avec x = x−1 −1 nj


j ), puisque xj y xj ∈ H ainsi que y , il vient,
nj

pour tout j ∈ J :
x−1 nj
j y xj = y .
nj

P
Y nj
nj
Ainsi, T (y) = y =y j∈J
, donc T (y) = y m .
j∈J

(f) La fonction y 7→ y m est bijective de H dans H, car m est premier avec pα . En effet, on a alors, d’après le
théorème de Bézout, l’existence de deux entiers u et v tels que um + vpα = 1. La fonction y 7→ y u de H
dans H est alors une réciproque de y 7→ y m , puisque

(y u )m = (y m )u = y mu = y 1−vp = y × (y −v )p = y,
α α

d’après le théorème de Lagrange, H étant d’ordre pα . Ainsi T (H) = H .


Par ailleurs soit h ∈ Ker(T ) ∩ H, on a :
e = T (h) = hm ,

donc l’ordre de h divise m. Comme l’ordre de h divise pα (théorème de Lagrange), l’ordre de h divise
pα ∧ m = 1. Ainsi h = e. On en déduit que Ker(T ) ∩ H ⊂ {e}, puis Ker(T ) ∩ H = {e}.
D’après la question II-4, G est donc un produit semi-direct de Ker(T ) par H.

5
Lycée Louis-Le-Grand, Paris
MPSI 4 – Mathématiques
A. Troesch

Problème no 15 : Arithmétique

Correction du problème 1 – Critères de primalité


Question préliminaire
On raisonne par l’absurde, en supposant qu’il existe des entiers naturels a et b, qu’on peut supposer premiers entre

eux, tels que n = ab . On a alors nb2 = a2 . On a nécessairement b 6= 1, sinon n serait un carré parfait. Soit alors p un
facteur premier de b. L’égalité précédente permet d’affirmer que p | a2 , et d’après le lemme d’Euclide, p étant premier,
p | a. Cela contredit l’hypothèse a ∧ b = 1 qu’on avait faite sur a et b.

Ainsi, si n n’est pas un carré parfait, n est irrationnel .

Partie I – Anneaux Z[ξ]/(p)

1. Soit A l’ensemble de tous les sous-anneaux B de C vérifiant Z ⊂ B et ξ ∈ B (on peut se rendre compte qu’en
fait la première condition est superflue puisque tout sous-anneau de C contient 1 donc tout élément de Z). On
définit \
A= B.
B∈A

Alors A est un sous-anneau de C, comme on le redémontre rapidement :


• 1 ∈ A car 1 ∈ B pour tout B ∈ A
• Si x, y ∈ A, alors pour tout B ∈ A, x, y ∈ B, donc x − y ∈ B et xy ∈ B (car ce sont des sous-anneaux de
C). Donc x − y ∈ A et xy ∈ A.
De plus, comme pour tout B ∈ A, Z ⊂ B et ξ ∈ B, on a également Z ⊂ A et ξ ∈ A. Ainsi, A est un sous-anneau
de C vérifiant les deux conditions requises, et si B est un autre anneau les vérifiant, B ∈ A, donc A ⊂ B par
définition de A.
Ainsi, A vérifie la propriété de minimalité requise, et définit l’anneau Z[ξ], justifiant ainsi son existence.
2. Si ξ ∈ Z, Z est un sous-anneau contenant Z et ξ, donc par propriété de minimalité, Z[ξ] ⊂ Z. Comme Z ⊂ Z[ξ]
par définition, Z[ξ] = Z .
3. Soit A = {P (ξ) | P ∈ Z[X]}.
• Par stabilité de Z[ξ] par somme, différence et produit, puisque ξ ∈ Z[ξ], ses puissances successives (d’exposant
positif) aussi, donc toute expression λξ k , λ ∈ Z et k ∈ N, puis par stabilité par somme, toute expression
polynomiale P (ξ), à coefficients entiers. Ainsi, A ⊂ Z[ξ].
• On a clairement Z ⊂ A (étant donné n ∈ Z, il suffit de considérer le polynôme constant P = n), ainsi que
ξ ∈ A (avec P (X) = X). De plus, A est un sous-anneau de C. En effet :
∗ 1 ∈ A d’après ce qu’on vient de dire,
∗ si x et y sont dans A, il existe deux polynômes P et Q de Z[X] tels que x = P (ξ) et y = Q(ξ). Alors
x − y = (P − Q)(ξ) et xy = P Q(ξ). Comme P − Q et P Q sont encore de façon évidente des polynômes
à coefficients entiers, on en déduit que x − y ∈ A et xy ∈ A.
Ainsi, par propriété de minimalité de Z[ξ], on a Z[ξ] ⊂ A.
• Les deux inclusions amènent l’égalité Z[ξ] = {P (ξ) | P ∈ Z[X]} .
Considérons ξ = i, et x = i ∈ Z[i]. On a x = i = i5 , ce qui montre que l’écriture de x sous la forme P (ξ) n’est en
général pas unique. Cela n’empêche pas que dans certaines situations, cette écriture est unique. Par exemple,
si ξ ∈ R, cette unicité caractérise les nombres transcendants.
4. La démonstration est strictement identique à celle du cours pour la relation de congruence dans Z : soit α, β
et δ dans Z[ξ].

1
• α − α = p · 0, donc α ≡ α [p], d’où la réflexivité ;
• si α ≡ β [p], il existe γ ∈ Z[ξ] tel que α − β = pγ. Soit γ ′ = −γ ∈ Z[ξ]. On a alors β − α = pγ ′ , donc
β ≡ α [p], d’où la symétrie.
• Si α ≡ β [p] et β ≡ δ [p], alors il existe γ et γ ′ dans Z[i] tels que α − β = pγ et β − δ = pγ ′ . En sommant, il
vient α − δ = p(γ + γ ′ ). Comme γ + γ ′ ∈ Z[ξ], il vient α ≡ δ [p], d’où la transitivité.
Ainsi, la relation de congruence modulo p dans Z[ξ] est une relation d’équivalence.
Montrons sa compatibilité avec les deux lois de Z[ξ]. On se donne x, y, x′ , y ′ dans Z[ξ] tels que x ≡ x′ [p], et
y ≡ y ′ [p], et β et γ dans Z[ξ] tels que x − x′ = pβ, y − y ′ = pγ.
• (x + y) − (x′ + y ′ ) = p(β + γ), donc x + y ≡ x′ + y ′ [p]
• xy − x′ y ′ = xy − (x − pβ)(y − pγ) = p(βy + γx − pβγ), donc xy ≡ x′ y ′ [p].
Ainsi, la congruence est compatible avec les lois de Z[ξ].
5. On vient de montrer que la classe de congruence de x + y ne dépend que de la classe de congruence de x et
de la classe de congruence de y, et de même pour le produit. En désignant par x la classe de congruence de
l’élément x, on peut donc définir sans ambiguïté la somme et le produit dans Z[ξ]/(p) par :

c+d =x+y et cd = xy ,

où x et y sont des représentants quelconques des classes c et d, la définition ne dépendant pas du choix de ces
représentants. Cette définition se traduit par le fait que pour tous x, y ∈ Z[ξ],

x+y = x+y et x · y = xy.

Montrons que ces lois définissent une structure d’anneau sur Z[ξ]/(p) :
• L’associativité de l’addition découle de l’associativité dans Z[ξ] : si b, c, d sont trois éléments de Z[ξ]/(p) et
x, y, z des représentants de ces classes, on a, par les définitions ci-dessus :

b + (c + d) = x + (y + z) = x + y + z = x + (y + z) = (x + y) + z = x + y + z = (b + c) + d.

• L’associativité du produit, la commutativité de l’addition (et du produit) et la distributivité se démontrent


de même.
• 0 est clairement neutre pour l’addition et 1 neutre pour le produit :

0+x=0+x=x et 1 · x = 1 · x = x.

• On vérifie sans peine de −x est l’opposé de x pour tout x ∈ Z[ξ], d’où l’existence des opposés.
Ainsi, Z[ξ]/(p) muni de ces lois est un anneau (commutatif) .
6. Soit a, b ∈ Z[ξ]/(p), et x et y des représentants dans Z[ξ]. Comme l’anneau Z[ξ] est commutatif, on peut utiliser
la formule du binôme :
p  
p
X p k n−k
(x + y) = x y .
k
k=0
 
p
Puisque p est premier, est divisible (dans Z) par p pour tout k ∈ [[1, p − 1]], donc pour ces k, il existe ℓ ∈ Z
k
tel que  
p k n−k
x y = pℓxk y n−k ≡ 0 [p],
k
puisque ℓxk y n−k ∈ Z[ξ]. On en déduit que

(x + y)p ≡ xp + y p [p],

ce qui se traduit dans Z[ξ]/(p) par (a + b)p = ap + bp .


7. Dans Z[i]/(3), i3 6= i, car dans C
i − i3 2
= i 6∈ Z[i].
3 3
Donc la propriété de Fermat ne se généralise pas à Z[ξ]/(p).

2
Partie II – Adjonction d’une racine

1. Soit A = {aξ + b | a, b ∈ Z}. D’après la question I-3, A ⊂ Z[ξ], et Z ⊂ A (avec a = 0), ainsi que ξ ∈ A (avec
a = 1 et b = 0). Pour conclure, il suffit donc de montrer que A est un sous-anneau et d’utiliser la minimalité
de Z[ξ]. Puisque 1 ∈ A, et que la stabilité par différence est évidente, il suffit de montrer que A est stable par
produit. Or,
(aξ + b)(a′ ξ + b′ ) = aa′ ξ 2 + (ab′ + a′ b)ξ + bb′ = (ab′ + a′ b)ξ + (bb′ + daa′ ),
ce qui prouve la stabilité, puisque d = ξ 2 ∈ Z.
Ainsi, A est un sous-anneau de C contenant Z et ξ, donc par minimalité, Z[ξ] ⊂ A. Les deux inclusions amènent
l’égalité Z[ξ] = {aξ + b | a, b ∈ Z} .
2. • le cas d = 0 est exclus (sinon ξ = 0 ∈ Z)
• Supposons d < 0. Dans ce cas, ξ ∈ i R∗ . On peut écrire ξ = i ζ, avec ζ ∈ R∗ . Soit x ∈ A, et supposons qu’on
ait deux décompositions x = aξ + b = a′ ξ + b′ , a, b, a′ , b′ ∈ Z. Alors aζ i +b = a′ ζ i +b′ , et par identification
des parties réelles et imaginaires, on obtient donc b = b′ et aζ = a′ ζ. Comme ζ 6= 0, a = a′ . Cela prouve
bien l’ unicité de la décomposition .
• Supposons d > 0. Alors ξ ∈ R. Puisque ξ 6∈ Z, d n’est pas un carré parfait, donc ξ est irrationnel d’après
la question préliminaire. Supposons que les entiers relatifs a, a′ , b, b′ vérifient aξ + b = a′ ξ + b′ , à savoir
(a − a′ )ξ + (b − b′ ) = 0. Si a − a′ 6= 0, on peut exprimer ξ comme quotient de 2 entiers, ce qui contredit son
irrationnalité. Ainsi, a = a′ , puis b = b′ . Cela prouve l’ unicité dans ce cas également.
3. Soit z ∈ Z[ξ]/(p) tel que z 2 = 0. Considérons Z un représentant de z dans Z[ξ], et a et b deux entiers tels que
Z = aξ + b. On a alors Z 2 = a2 ξ 2 + 2abξ + b2 = 2abξ + a2 d + b2 . L’hypothèse nous affirme que Z 2 ≡ 0 [p], donc
qu’il existe des entiers c et d tels que

2abξ + a2 d + b2 = p(cξ + d).

L’unicité du développement prouvé dans la question précédente permet alors d’identifier les coefficients : 2ab =
pc et a2 + db2 = pd. En particulier, p divise 2ab et a2 + db2 . Comme p est différent de 2, p est premier avec 2
donc divise ab, et par le lemme d’Euclide, il divise a ou b.
• Si p | b, alors puisque p | a2 + db2 , on a p | a2 , et par le lemme d’Euclide, p | a.
• Si p | a, de même, p | b2 d. Puisque p et d sont premiers entre eux, p | b.
Ainsi, Z = aξ + b ≡ 0 [p], donc z = 0 dans Z[ξ]/(p).
On a bien montré : z 2 = 0 =⇒ z = 0 dans Z[ξ]/(p)
4. On peut expliciter N (x) pour x = a + ξb :

N (x) = (a + ξb)(a − ξb) = a2 − ξ 2 b2 = a2 − db2 ∈ Z.

Par ailleurs, si y = a′ + ξb′ , on a

N (xy) = N (aa′ + dbb′ + ξ(ab′ + a′ b) = (aa′ + dbb′ )2 − d(ab′ + a′ b)2


2 2 2 2
= a2 a′ + d2 b2 b′ − da2 b′ − da′ b2
2 2
= (a2 − db2 )(a′ − db′ ) = N (x)N (y).

Par ailleurs, on montre sans difficulté que si x ≡ y [p], N (x) ≡ y [p], cette dernière congruence ayant lieu dans
Z.
Si x est inversible dans Z[ξ]/(p), d’inverse x−1 , on a donc N (1) ≡ N (x)N (x−1 ) [p]. Or, N (1) = 1, donc N (x)
est inversible modulo p, c’est-à-dire (d’après le théorème de Bézout), N (x) ∧ p = 1.
Réciproquement si N (x) ∧ p = 1, alors N (x) est inversible modulo p. On a alors :

xxc N (x)−1 ≡ N (x)N (x)−1 ≡ 1 [p],

donc x est inversible, d’inverse xc N (x)−1 .


Ainsi, x est inversible dans Z[ξ]/(p) si et seulement si N (x) ∧ p = 1 , c’est-à-dire p ne divise pas N (x) (puisque
p est premier).

3
5. Supposons que d n’est pas un résidu quadratique modulo p. Soit x ∈ Z[ξ]/(p) non inversible. On a alors p | N (x)
d’après la question précédente. En écrivant x = a + bξ, on a alors p | a2 − db2 , c’est-à-dire

db2 ≡ a2 [p].

Si b 6≡ 0 [p], alors b est inversible modulo p (car Z/pZ est un corps), et

d ≡ a2 b−2 ≡ (ab−1 )2 [p],

par commutativité. cela contredit l’hypothèse faite sur d. Ainsi, b ≡ 0 [p], puis a2 ≡ 0 [p], et Z/pZ étant un
corps a ≡ 0 [p]. Ainsi, x = 0.
Le seul élément non inversible étant x = 0, on en déduit que Z[ξ]/(p) est un corps.

Partie III – Conditions pour que 2 et 3 soient résidus quadratiques

1. D’après le résultat rappelé en début d’énoncé, si n est inversible modulo p (donc n 6≡ 0 [p]), n est un carré
p−1 p−1
modulo p si et seulement si n 2 ≡ 1 [p], et sinon, n 2 ≡ −1 [p]. Cela correspond bien à la valeur de ( np ). Si
p−1
n ≡ 0 [p], le résultat est évident. Ainsi, pour tout n ∈ Z, ( np ) ≡ n 2 [p]
p−1
2. −1 est donc résidu quadratique si et seulement si (−1) 2 ≡ 1 [p]. Comme p > 2, 1 6= −1, donc cette congruence
est vérifiée si et seulement si p−1
2 est pair, donc p ≡ 1 [4] .

3. On a 25 = 32 ≡ −1[11], et 28 = 32×8 ≡ −2×8 ≡ −16 ≡ 1[17]. Donc 2 est un carré modulo 17, mais par modulo 11 .
En effet, 62 ≡ 2[17].
4. De même, 35 = 92 × 3 ≡ (−2)3 × 3 ≡ 12 ≡ 1 [11] et 38 = 272 × 9 ≡ 102 × 9 ≡ 100 × 9 ≡ −2 × 9 ≡ −18 ≡ −1 [18].
Ainsi, 3 est un carré modulo 11 (en effet, 52 ≡ 3 [11]), mais pas modulo 17 .
5. Soit n et n′ non divisibles par p.
(i) si n et n′ sont des résidus quadratiques, il existe a et b tels que n ≡ a2 [p] et n′ ≡ b2 [p], donc nn′ ≡ (ab)2 /[p].
Donc nn′ est un résidu quadratique .
(ii) si n est un résidu quadratique et n′ un non-résidu, et N = nn′ . Alors, n étant inversible modulo p (car non
divisibles par p), en notant m son inverse modulo p, m est un résidu quadratique aussi, et n′ ≡ mN [p].
Alors N ne peut pas être un résidu quadratique , sinon d’après (i), n′ le serait aussi.
(iii) Fixons n′ un non-résidu quadratique. L’application ϕ : n 7→ nn′ induit une bijection de F∗p dans F∗p . Pour
tout n résidu quadratique, ϕ(n) est un non-résidu quadratique d’après (ii). Or, d’après le point admis en
début de sujet, il y a autant de résidus quadratiques que de non-résidus, à savoir n−1
2 . Ainsi, les images par
ϕ des n−1
2 résidus quadratiques fournissent les n−1
2 non-résidus quadratiques. Par injectivité, les images
des autres éléments sont tous des résidus quadratiques. Ainsi, pour tout n non-résidu quadratique, ϕ(n)
est un résidu quadratique, donc nn′ est un résidu quadratique .
6. Si n ou n′ est divisible par p, alors nn′ est divisible par p, et par définition du symbole de Legendre,
′ ′
( nn n n
p ) = 0 = ( p )( p ).

Sinon, la règle démontrée dans la question précédente sur les produits de résidus et non-résidus quadratique
suit la règle des signes, donc la définition du symbole de Legendre amène directement
′ ′
( nn n n
p ) = ( p )( p ).

2iπ
7. Soit j = e 3 .
(a) On a j = 1 donc jj 2 = 1. Or, j 2 ∈ Z[j]. Ainsi, en réduisant modulo p, et en notant de la même façon les
3

classes d’équivalence dans Z[j]/(p) conformément à l’énoncé, j est inversible dans Z[j]/(p) d’inverse j 2 .

4
(b) On a, d’après la formule du binôme (utilisable, puisque l’anneau est commutatif) :

b2 = (j − j −1 )2 = j 2 − 2 + j −2 .

Or, j −2 = j, et j + j 2 = −1. Par conséquent b2 = −3 .


Attention à ne pas affirmer trop vite que −3 est un résidu quadratique, car pour cela, il faut le voir (modulo
p) comme carré d’un élément de Z, ce qui n’est pas le cas de b.
En revanche, on sait que, puisque p > 3 (donc p ne divise pas −3) −3 est un résidu quadratique si et
p−1 p−1
seulement si (−3) 2 ≡ 1 [p], donc si (dans Z[j]/(p)) (b2 ) 2 = 1, ou encore bp−1 = 1, ce qui équivaut à
bp = b, à condition que b soit inversible, ce qui provient du fait que b2 = −3 est inversible dans Z/pZ (si
p 6= 3, donc dans Z[j]/(p). En effet, en notant c un inverse de b2 , la relation b2 c = 1 montre que bc est un
inverse de b.
Ainsi, −3 est un résidu quadratique si et seulement si bp = b dans Z[j]/(p).
(c) D’après I-6, on a bp = (j − j −1 )p = j p + (−j −1 )p et comme p est impair, bp = j p − j −p .
Ainsi, −3 est résidu quadratique si et seulement si j p − j −p = j − j −1 . Or, j p − j −p est égal respectivement
à 0, j − j −1 et j 2 − j −2 = j −1 − j suivant que p est congru à 0, 1 ou 2 modulo 3. Ainsi, −3 est un résidu
quadratique si et seulement si p ≡ 1 [3] .
(d) D’après la question 5, ( p3 ) = ( −3 −1
p )( p ), donc 3 est résidu quadratique si et seulement si l’un des deux cas
suivant se produit :
• 3 et −1 sont tous deux résidus quadratiques, ce qui équivaut à p ≡ 1 [3] et p ≡ 1 [4], donc p ≡ 1 [12] ;
• 3 et −1 sont tous deux non-résidus quadratiques, ce qui équivaut à p ≡ −1 [3] et p ≡ −1 [4], dont
p ≡ −1 [12].
On remarquera que le cas p ≡ 0 [3] n’est pas possible, p étant supposé strictement supérieur à 3.
On en déduit que 3 est un résidu quadratique modulo p si et seulement si p ≡ ±1 [12] , pour p > 3. Le
résultat ne tient pas pour p = 3.
8. On fait de même, en calculant b2 = ω 2 + ω −2 + 2 = i − i +2 = 2.
Le même raisonnement que ci-dessus montre alors que 2 est résidu quadratique si et seulement bp = b. Or,
bp = ω p + ω −p . Puisque ω est une racine 8-ième de l’unité, on a 4 cas à étudier (car p étant impair, on ne peut
pas avoir p ≡ 0, 2, 4, 6 [8]) :
• si p ≡ 1[8], bp = ω + ω −1 = b
• si p ≡ 3[8], bp = ω 3 + ω −3 = −ω −1 − ω = −b
• si p ≡ 5[8], bp = ω 5 + ω −5 = ω −3 + ω 3 = −b
• si p ≡ 7[8], bp = ω 7 + ω −7 = ω −1 + ω = b.
Ainsi, 2 est un résidu quadratique modulo p si et seulement si p ≡ ±1 [8] .

Partie IV – Critère de primalité de Lehmer et critère de Pépin

Soit n > 1 un entier impair


1. Soit a ∈ Z/nZ un élément inversible.
n−1
• Si l’ordre de a est n − 1, alors an−1 =≡ 1 [n], et pour tout diviseur premier q de n − 1, q n’est pas divisible
n−1
par l’ordre de a, donc a q6≡ 1 [n] .
• Si an−1 ≡ 1 [n] et si pour tout diviseur premier q de n − 1, n−1q n’est pas divisible par l’ordre de a, alors
la première égalité implique que l’ordre de a est un diviseur d de n − 1. S’il s’agit d’un diviseur strict, n−1
d
n−1
admet un facteur premier q dans sa décomposition, et l’ordre d de a divise n−1 q , donc a
q = 1, d’où une
contradiction. Donc l’ordre de a est n − 1.
On a bien démontré l’ équivalence .
2. D’après la question précédente, il suffit de montrer que n est premier s’il existe un élément a dont l’ordre est
n − 1 (ce qui implique son inversibilité). Or, le résultat rappelé en début d’énoncé montre que si n est premier,
Z/nZ étant alors un corps, il existe un élément a engendrant (Z/nZ)∗ , donc l’ ordre sera n − 1 .
Réciproquement, si un tel a existe, il est inversible, ainsi que chacune de ses puissances. Comme a est d’ordre
n − 1, cela fournit n − 1 éléments inversibles, donc tous à part 0. Ainsi, Z/nZ est un corps, donc n est premier .

5
3. • Si Fn est premier, F∗n admettant autant de carré que de non carré, il existe a non carré, donc tel que
Fn −1
a 2 ≡ −1 [Fn ] .
Fn −1
• Réciproquement, s’il existe a tel que a 2 ≡ −1 [Fn ], alors, en élevant au carré, aFn −1 ≡ 1 [Fn ]. Comme
2 est le seul diviseur de Fn et comme Fn 6= 2 (donc −1 6= 1), les hypothèses du critère de Lehmer sont
satisfaites, donc Fn est premier .
4. Le sens réciproque résulte de la question précédente. Supposons que Fn est premier. Le raisonnement fait dans
la question précédente suggère qu’il suffit de montrer que 3 n’est pas un carré modulo Fn . Cela incite, d’après
la partie III, à étudier la classe de congruence modulo 12 de Fn .
Or, pour tout n > 1, Fn ≡ 1[4], et puisque Fn = 42
n−1
+ 1 ≡ 2[3]. Ainsi, Fn est congru à 1, 5 9 modulo 12, ainsi
qu’à 2, 5, 8 ou 11. Donc Fn ≡ 5 [12]. On en déduit bien que 3 n’est pas un carré modulo Fn , se qui se traduit
Fn −1 2n −1
bien par 3 2 ≡ −1 [Fn ], soit 32 ≡ −1 [Fn ]

Partie V – Suites de Lucas

1. Les égalités V0 = 2 et V1 = a sont immédiates. Soit n > 1. On a :

aVn − Vn−1 = (x + x−1 )(xn + x−n ) − xn−1 − x−n+1


= xn+1 + x−n+1 + xn−1 + x−n−1 − xn−1 − x−n+1
= xn+1 + x−n−1 = Vn+1 .

Ainsi, pour tout n > 1, Vn+1 = aVn − Vn−1 . Cette relation est une relation de récurrence linéaire d’ordre 2,
donc l’initialisation sur les deux termes V0 et V1 suffit à déterminer de façon unique la suite (Vn )n∈N , qu’on
complète sur Z par la relation évidente V−n = Vn .
2. Par invariance du second membre par le changement d’indice m′ = −m, et par la relation Vm = V−m , on peut
se contenter d’étudier le cas où m ∈ N. De plus, si la relation est établie pour n > 0, alors soit n′ 6 0 et
n = −n′ . On a :

Vn′ +m + Vn′ −m = V−n+m + V−n−m = Vn−m + Vn+m = Vn Vm = V−n Vm = Vn′ Vn .

La relation est donc alors aussi établie pour n′ 6 0. On se contente donc du cas (n, m) ∈ N2 .
Pour cela on fixe n et on montre la relation par récurrence d’ordre 2 sur m ∈ N. L’initialisation pour m = 0 est
évidente, ainsi que pour m = 1 (on retrouve la relation de récurrence trouvée dans la question 1). Soit m ∈ N
tel que les relations Vn Vm = Vn+m + Vn−m et Vn Vm+1 = Vn+m+1 + Vn−m−1 soient établies. On a alors

Vn Vm+2 = Vn (aVm+1 − Vm ) = aVn Vm+1 − Vn Vm


= a(Vn+m+1 + Vn−m−1 ) − (Vn+m + Vn−m )
= aVn+m+1 − Vn+m + aVn−m−1 + Vn−m
= Vn+m+2 + aVm−n+1 + Vm−n = Vn+m+2 + Vm−n+2 = Vn+m+2 + Vn−m−2 .

Ainsi, d’après le principe de récurrence, pour tout m ∈ N, Vn Vm = Vn+m + Vn−m .


Remarquez qu’on a utilisé la relation V−k = Vk , ainsi que la relation de récurrence pour des indices éventuelle-
ment négatifs, ce qui n’est pas gênant : la preuve de cette relation de récurrence faite dans la question 1 n’utilise
pas de façon cruciale la positivité de n et reste valide en cas de négativité.
3. En particulier, pour m = n, on obtient : V2n = Vn2 − 2 .

Partie VI – Critère de primalité de Lucas-Lehmer

6
1. (a) L’équation du second degré x2 − ax + 1 = 0 admet ∆ comme discriminant. Or ∆ admet une racine ξ dans
Z[ξ]/(p). Comme 2 est inversible modulo p, la mise sous forme canonique et la factorisation qui suit est
valide et l’équation est équivalente à

(x − (−a − ξ) · 2−1 )(x − (−a + ξ) · 2−1 ) = 0.

N’ayant pas établi la régularité de l’anneau Z[ξ]/(p), on ne peut pas conclure que (−a−ξ)·2−1 et (−a+ξ)·2−1 )
sont les deux seules racines, mais ce sont des racines, ce qui prouve l’existence d’au moins une (et même 2
si ∆ 6= 0, mais éventuellement plus) solution de l’équation x2 − ax + 1 = 0 .
(b) On a alors x(x − a) = −1, donc x est inversible, d’inverse x−1 = a − x .
(c) Remarquons dans un premier temps que

(2x − a)2 = 4x2 − 4ax + a2 = 4(ax − 1) − 4ax + a2 = a2 − 4 soit: (2x − a)2 = ∆ .


p−1
Ainsi, si ∆ 2 = 1 (égalité vue dans Z[ξ]/(p), alors
p−1
((2x − a)2 ) 2 = 1, donc: (2x − a)p = (2x − a).

Or, d’après I-6, et l’imparité de p,

(2x − a)p = 2p xp − ap = 2xp − a.

On a donc 2xp −a = 2x−a. Comme 2 est inversible modulo p, on en déduit que xp = x, puis, par inversibilité
de x, xp−1 = 1
p−1
(d) De même, si ∆ 2 ≡ −1[p], on obtient cette fois

(2x − a)p = −(2x − a), donc: 2xp − a = −2x + a, donc: 2xp+1 = 2ax − 2x2 .

La relation définissant x donne alors 2xp+1 = 2, et par inversibilité de 2, xp+1 = 1 .


(e) Soit m ∈ Z. De façon évidente, si xm = 1, alors xm + x−m = 2.
Réciproquement, si xm + x−m = 2, alors x2m − 2xm + 1 = 0, donc (xm − 1)2 = 0. D’après la question II-3,
puisque ∆ est supposé premier avec p, on en déduit que xm − 1 = 0, donc xm = 1 .
2. (a) La relation VN +1 = 2 (dans Z[ξ]/(p)) équivaut à xN +1 + x−(N +1) = 2. Comme ∆ = a2 − 4 et N sont
premiers entre eux, il en est de même de ∆ et p (p divisant N ). On déduit alors de la question précédente
que xN +1 = 1 . Ainsi, l’ordre de x divise N + 1. Mais par ailleurs, si cet ordre était strictement plus petit
N +1
que N + 1, il existerait (comme dans la partie IV) un diviseur premier q de N + 1 tel que x q = 1, donc
V N +1 = 2 dans Z[ξ]/(p). Ainsi, V N +1 − 2 et p ne sont pas premiers entre eux, donc V N +1 − 2 et N non plus,
q q q
ce qui contredit les hypothèses.
On en déduit que l’ordre de x est exactement N + 1 .
p−1
(b) On sait par ailleurs que xp−1 = 1, ou xp+1 = 1, d’après la question 1 (∆ 2 ne pouvant prendre que les
valeurs 1 et −1, d’après le résultat rappelé en début de sujet). Ainsi, N + 1 divise p − 1 ou p + 1. Comme
p 6 N (c’en est un diviseur), on a nécessairement N + 1 = p + 1, donc N = p.
Ainsi, le seul diviseur premier de N est N lui même, ce qui signifie bien que N est premier .
3. (a) En reprenant les notations de la partie V, on remarque que L1 = V1 , L2 = V12 −2 = L2 , et plus généralement,
en itérant la relation V-3, pour tout n ∈ N, Ln = V2n−1 .
Ainsi, Ls−1 ≡ 0 [Ms ] équivaut à V2s−2 ≡ 0 [Ms ]. On a alors

V2s−1 = Ls = L2s−1 − 2 = −2 6= 2 [n] et V2s = L2s − 2 = 2.

Comme 2s = Ms − 1, et que le seul diviseur premier de Ms − 1 est 2, et comme −2 6= 2 modulo Ms , on est


dans les conditions d’application du critère de Lucas-Lehmer. On peut donc conclure que Ms est premier .
(b) Pour montrer que le choix de a = 4 convient, il suffit de montrer que a2 − 4 est premier à Ms = 2s − 1. Or,
avec a = 4, a2 − 4 = 12. Cherchons donc le reste de Ms modulo 12 :

7
• pour s > 2, 2s ≡ 0 [4], donc Ms ≡ −1[4]
• pour s > 2 impair, on a 2s ≡ −1 [3], donc M2 ≡ −2 ≡ 1 [3].
En énumérant les classes de congruence modulo 12, on se rend compte que la seule possibilité est Ms ≡ 7 [12].
Ainsi, Ms est premier avec 12 = a2 − 4. On est donc dans les conditions d’application du critère de Lucas.
Ainsi, le choix de a = 4 convient .
Dans le cas où s est pair, on a une factorisation Ms = (2s/2 − 1)(2s/2 + 1), qui montre que Ms est composé
(sauf pour s = 2).
4. (a) On calcule :
(1 + β)2 = (x − 1)2 = x2 − 2x + 1,

et puisque x2 − 4x + 1 = 0, (1 + β)2 = 2x De même,

(1 − β)2 = (3 − x)2 = x2 − 6x + 9 = −2x + 8 = 2(4 − x).

Or, la relation satisfaite par x se réécrit x(4 − x) − 1 = 0, donc 4 − x = x−1 . ainsi, (1 − β)2 = 2x−1 .
(b) On a donc :
Ms +1 Ms +1
(1 + β)Ms +1 + (1 − β)Ms +1 = (2x) 2 + (2x−1 ) 2 ,

ce qui a un sens puisque les exposants sont entiers positifs. Ainsi,


Ms +1 Ms +1 Ms +1 Ms +1
(1 + β)Ms +1 + (1 − β)Ms +1 = 2 2 (x 2 + x− 2 )=2 2 V2s−1 ,

donc, puisque, comme on l’a déjà dit, Ls = V2s−1 ,


Ms +1
(1 + β)Ms +1 + (1 − β)Ms +1 = 2 2 Ls .

(c) Puisque Ms est supposé premier,

(1 + β)Ms +1 = (1 + β)(1 + β)Ms = (1 + β)(1 + β Ms )

et de même,
(1 − β)Ms +1 = (1 − β)(1 − β Ms ),

par imparité de Ms . On a alors après développement et simplification


Ms +1 Ms +1
2 2 Ls = 2 + 2β Ms +1 = 2(1 + 3 2 ),

puisque β 2 = (x − 2)2 = x2 − 4x + 4 = 3. Or, comme montré ci-dessus, Ms étant premier, s est impair,
Ms −1
et donc Ms ≡ 7 [12]. Ainsi, d’après III-7, 3 n’est pas résidu quadratique, donc 3 2 ≡ −1 [Ms ] puis
Ms +1
3 2 ≡ −3 [Ms ] . De plus, s étant impair au moins égal à 3, Ms ≡ −1 [8], donc d’après III-8, 2 est résidu
Ms −1 Ms +1
quadratique modulo Ms , donc 2 2 ≡ 1 [Ms ], donc 2 2 ≡ 2 [Ms ]. On obtient donc

2Ls ≡ −4 [Ms ] donc: Ls ≡ −2 [Ms ],

2 étant inversible modulo Ms . On a donc L2s−1 ≡ Ls +2 ≡ 0 [Ms ], et Z/Ms Z étant un corps, Ls−1 ≡ 0 [Ms ] .
En déduire que Ls−1 ≡ 0 [Ms ].

On a ainsi démontré le théorème de Lucas-Lehmer affirmant qu’avec les notations et les conditions de la question 3
et le choix de a = 4, Ms est premier si et seulement si Ls−1 ≡ 0 [Ms ].

8
Lycée Louis-Le-Grand, Paris
MPSI 4 – Mathématiques
A. Troesch

Problème no 16 : Polynômes

Correction du problème 1 –
Le but de ce problème est de démontrer un théorème dû à George Pólya sur les polynômes à coefficients complexes :

Théorème 1 (Pólya) Soit P ∈ C[X] un polynôme unitaire de degré au moins 1. Soit :

C = {z ∈ C | |P (z)| 6 2} et R = {Re(z), z ∈ C}.

Alors R est inclus dans une union finie d’intervalles fermés bornés deux à deux disjoints I1 , . . . , It tels que

ℓ(I1 ) + · · · + ℓ(It ) 6 4,

la longueur d’un intervalle I = [a, b] étant définie par ℓ(I) = b − a.

Version réelle :

Théorème 2 Soit P ∈ R[X] un polynôme unitaire de degré n > 1, dont toutes les racines sont réelles. Alors l’ensemble
S = {x ∈ R | |P (x)| 6 2} est une union disjointe d’intervalles fermés I1 , . . . , It tels que

ℓ(I1 ) + · · · + ℓ(It ) 6 4.

Partie I – Préliminaires

1. Soit P scindé dans R de racines r1 < · · · < rk , de mulitplicités α1 , . . . , αk .


Lemme 4 Si r est racine au moins double de P ′ , alors r est racine de P .
Démonstration.
D’après le théorème de Rolle, P ′ admet des racines s1 , . . . sk−1 vérifiant :

r1 < s1 < r2 < · · · < rk−1 < sk−1 < rk .

Par ailleurs, P ′ admet aussi les racines ri , avec multiplicité αi − 1. Cela fournit un total de k − 1 + (α1 − 1) +
· · · + (αk − 1) racines, à savoir n − 1 racines (P étant scindé dans R). Comme P ′ est de degré n − 1, il ne peut
pas avoir davantage de racines. En particulier, les si ne peuvent pas être racines multiples.
Ainsi, une racine multiple de P ′ est nécessairement une des racine ri , d’où le lemme ?? .
2. Lemme 5 Pour tout x ∈ R, on a : P ′ (x)2 > P (x)P ′′ (x).
Démonstration.
D’après le cours,
k
P ′ (x) X αi
∀x ∈ R \ {r1 , . . . , rk }, = ,
P (x) i=1
x − ri
donc, en dérivant :
k
P ′′ (x)P (x) − P ′ (x)2 X αi
∀x ∈ R \ {r1 , . . . , rk }, = − 6 0.
P 2 (x) i=1
(x − r1 )2

Ainsi, pour tout x ∈ R \ {r1 , . . . , rk }, P ′ (x)2 > P ′′ (x)P (x) .


Par continuité, cette inégalité reste vraie pour tout x ∈ R.

1
Partie II – Polynômes et théorème de Tchebychev
(
T0 = 1; T1 = X;
∀n > 1, Tn+1 = 2XTn − Tn−1 .

1. Étude élémentaire des polynômes Tn


(a) T0 = 1, T1 = X, T2 = 2X 2 − 1, T3 = 4X 3 − 3X, T4 = 2X(4X 3 − X) − (2X 2 − 1) = 8X 4 − 4X 2 + 1.
(b) Soit, pour tout n dans N∗ , la propriété P(n): Tn est un polynôme de degré n, de coefficient dominant 2n−1 ,
et Tn (1) = 1, Tn (−1) = (−1)n .
Comme T1 (1) = 1 et T2 (1) = 2 − 1 = 1, et comme T1 (−1) = −1 et T2 (−1) = 1, les autres propriétés étant
évidentes, P(1) et P(2) sont vraies.
Soit n ∈ N∗ tel que P(n) et P(n + 1) soient vraies. Alors 2XTn+1 est un produit de deux polynômes, donc
un polynôme, puis Tn+2 est la différence de deux polynômes 2XTn+1 et Tn , donc un polynôme aussi.
De plus, toujours d’après l’hypothèse de récurrence, puisque Tn+1 6= 0, deg 2XTn+1 = n + 1 + 1 = n + 2, et
deg Tn = n < n + 2. Ainsi, d’après les règles de degré d’une somme, les deux degrés étant différents :

deg Tn+2 = max(deg XTn+1 , deg Tn ) = n + 2.

De plus, l’argument précédent montre que le coefficient dominant de Tn+2 provient exclusivement du terme
2XTn+1. Ainsi, il est obtenu en multipliant le coefficient dominant de Tn+1 par 2. Il vaut donc 2n · 2 =
2n+1 = 2(n+2)−1 .
Calculons maintenant Tn+2 (1) à l’aide de la relation de récurrence :

Tn+2 (1) = 2 · 1Tn+1 (1) − Tn (1) = 2 − 1 = 1.

Enfin :
Tn+2 (−1) = 2 · (−1)Tn+1 (−1) − Tn (−1) = (−1)n (2 − 1) = (−1)n = (−1)n+2 .
Par conséquent, P(n + 2) est vérifié.
Par conséquent, P(1) et P(2) sont vraies, et pour tout n dans N∗ , P(n) et P(n + 1) entraînent P(n + 2).
D’après le principe de récurrence, P(n) est vraie pour tout n dans N∗ .
On en déduit que, pour tout n ∈ N∗ ,
Tn est un polynôme de degré n, de coefficient dominant 2n−1 , et Tn (1) = 1, Tn (−1) = (−1)n .
Remarque : Ne vous amusez pas à faire 5 récurrences différentes pour les 5 propriétés à démontrer. Cela
vous ferait perdre du temps, et sans doute de la qualité de rédaction. Mieux vaut rédiger proprement une
récurrence que d’en bâcler 5.
(c) Soit, pour tout n dans N, la propriété Q(n): ∀θ ∈ R, Tn (cos θ) = cos(nθ).
Soit θ ∈ R. On a T0 (cos θ) = 1 = cos(0 · θ) et T1 (cos θ) = cos θ = cos(1 · θ). Par conséquent, Q(0) et Q(1)
sont vraies.
Soit n ∈ N tel que Q(n) et Q(n + 1) soient satisfaits, et soit θ ∈ R. Alors, d’après la relation de récurrence
définissant Tn+2 :

Tn+2 (cos(θ)) = 2 cos θTn+1 (cos θ) − Tn (cos θ)


= 2 cos θ cos((n + 1)θ) − cos(nθ)
= cos((n + 1)θ + θ) + cos((n + 1)θ − θ) − cos(nθ) = cos((n + 2)θ),

en utilisant la formule trigonométrique pour le produit cos(a) cos(b). Ainsi, Q(n + 2) est vrai.
Par conséquent, Q(0) et Q(1) sont vraies, et pour tout n dans N, Q(n) et Q(n + 1) entraînent Q(n + 2).
D’après le principe de récurrence, Q(n) est vraie pour tout n dans N.

∀n ∈ N, ∀θ ∈ R, Tn (cos θ) = cos(nθ).

2. Étude des racines de Tn et Tn′ . On pose n ∈ N∗ .

2
(a) On commence par rechercher les racines r dans [−1, 1], sous la forme r = cos(θ), pour θ ∈ [0, π].
On a Tn (cos(θ)) = cos(nθ) = 0 si et seulement si nθ ≡ π2 [π], donc θ ≡ 2n π
[ nπ ].
Ainsi les valeurs cos π2 + kπ
n , pour k ∈ [[0, n − 1]], sont n racines distinctes de Tn dans [−1, 1]. Comme Tn


est de degré n, il ne peut pas avoir davantage de racines. Ainsi, l’ensemble des racines de Tn est :
      
π  3π 5π (2n − 1)π
cos , cos , cos , . . . , cos
2n 2n 2n 2n

(b) Pour tout θ ∈ R, Tn (cos θ) = cos(nθ). Dérivons cette égalité (dérivable sur R) membre à membre par rapport
àθ:
∀θ ∈ R, − sin(θ) · Tn′ (cos θ) = −n sin(nθ).

Recherchons d’abord les racines de Tn′ dans ] − 1, 1[, en écrivant x = cos θ, θ ∈]0, π[. Dans ce cas sin θ 6= 0,
et par conséquent, Tn′ (cos θ) = 0 si et seulement si sin(nθ) = 0, donc si :


∃k ∈ Z, nθ = kπ soit: θ= .
n
Ainsi, les racines de Tn′ dans ] − 1, 1[ sont :
        
kπ π  π 2π (n − 1)π
cos , k ∈ [[1, n − 1]] = cos , cos , cos , . . . , cos .
n 2n n n n
On obtient ainsi n − 1 racines deux à deux distinctes de Tn′ qui est de degré n − 1. On les a donc toutes.
Comme la fonction cosinus est décroissante sur [0, π], il faut inverser l’ordre pour trouver la corrspondance
entre ces expressions et les si :
 
(n − k)π
∀k ∈ [[1, n − 1]], sk = cos .
n
(c) On en déduit, grâce à la question II-1(c), que pour tout k ∈ [[1, n − 1]],
  
(n − k)π
Tn (sk ) = Tn cos = cos ((n − k)π) = (−1)n−k : Tn (sk ) = (−1)n−k .
n

3. Démonstration du théorème de Tchebychev


Soit n ∈ N∗ , et soit Q un polynôme unitaire de degré n.
(a) La fonction x 7→ |Q(x)| est continue sur l’intervalle fermé borné [−1, 1], elle y admet donc un maximum .
On définit Qn = Tn − 2n−1 Q.
(b) On a deg(Tn ) = n, et deg(2n−1 Q) = n, donc, d’après les règles de degré d’une somme, deg(Qn ) 6 n.
Montrons que cette inégalité est stricte. Le coefficient dominant de Tn est 2n−1 d’après 1(b), et celui de Q
est 1 (Q est unitaire), donc celui de 2n−1 Q est 2n−1 . Par conséquent, les coefficients du terme X n dans Qn
se compensent, et Qn n’a pas de terme de degré n. Par conséquent, deg(Qn ) 6 n − 1.
1
(c) On suppose que max |Q(x)| < .
−16x61 2n−1
Tn
i. Il s’agit de montrer que Q 6= 2n−1 . D’après la question 1, |Tn | atteint la valeur 1 pour certaines valeurs
dans [−1, 1] (les valeurs 1, −1 et sk , k ∈ [[1, n − 1]]). Ainsi,

Tn (x) 1 Tn (x)
max n−1 > n−1 donc: max n−1 6= max |Q(x)| ,
−16x61 2 2 −16x61 2 −16x61

Tn
Nous avons donc nécessairement Q 6= 2n−1 , c’est-à-dire Qn 6= 0.
ii. Déterminons le signe de Qn en 1, −1 et aux sk :
• Qn (1) = Tn (1) − 2n−1 Qn (1) = 1 − 2n−1 Qn (1).
1
Puisque max |Q(x)| < n−1 , |Q(1)| < 2n−1 , donc −2n−1 < Q(1) < 2n−1 , puis Qn (1) > 0.
−16x61 2
• Qn (−1) = Tn (−1) − 2n−1 Qn (1) = (−1)n − 2n−1 Qn (1).
De même, −2n−1 < Q(−1) < 2n−1 , donc Qn (−1) > 0 si n est pair et Qn (−1) < 0 si n est impair.

3
• Soit k ∈ [[1, n]]. Alors Qn (sk ) = (−1)n−k − 2n−1 Q, et le même raisonnement montre que Qn (sk ) est
du signe de (−1)n−k , donc strictement positif si n − k est pair, et strictement négatif si n − k est
impair.
Posons s0 = −1 et sn = 1, on obtient alors de manière synthétique :
Pour tout k ∈ [[0, n]], Qn (sk ) est strictement positif si n − k est pair et strictement négatif sinon.
Par conséquent, pour tout k ∈ [[0, n − 1]], Qn (sk ) et Qn (sk+1 ) sont de signes (strictement) opposés. La
continuité de Qn associée au théorème des valeurs intermédiaires, montre que Qn admet alors au moins
n racines distinctes, donc strictement plus que son degré. La propriété de rigidité amène donc Qn = 0,
d’où une contradiction avec la question précédente.
(d) L’hypothèse initiale de la démontration par l’absurde est fausse. Par conséquent :
1
max |Q(x)| > .
−16x61 2n−1

Partie III – Exemples et réduction du problème au cas de polynômes réels

1. Un premier exemple : P = X − a, a ∈ C.
(a) z ∈ C si et seulement si |z − a| 6 2. Ainsi, C est le disque fermé de centre a et de rayon 2.
Géométriquement, il est évident qu’alors R = [Re(a) − 2, Re(a) + 2]
(b) Ainsi, R est la réunion d’un seul intervalle, de longueur ℓ = Re(a) + 2 − Re(a) + 2 = 4.
Le théorème ?? est donc vrai sur cet exemple.

2. Un deuxième exemple : P = X 2 − 2.
(a) Soit (x, y) ∈ R2 . Alors :

x + i y ∈ C ⇐⇒ |(x + i y)2 − 2| 6 2
⇐⇒ |x2 − y 2 − 2 + 2 i xy| 6 2
⇐⇒ (x2 − y 2 − 2)2 + 4x2 y 2 6 4
⇐⇒ (x2 − y 2 )2 + 4x2 y 2 + 4 − 4(x2 − y 2 ) 6 4
⇐⇒ (x2 + y 2 )2 − 4(x2 − y 2 ) 6 0

Ainsi : x + i y ∈ C ⇐⇒ (x2 + y 2 )2 6 4(x2 − y 2 ).


(b) • Soit x + i y ∈ C. Alors :
x4 = (x2 )2 6 (x2 + y 2 )2 6 4(x2 − y 2 ) 6 4x2 .
Ainsi :
∗ si x 6= 0, x2 6 4, puis |x| 6 2, soit x ∈ [−2, 2] ;
∗ si x = 0, l’inclusion x ∈ [−2, 2] est évidente !
Par conséquent, R ⊂ [−2, 2].
• On remarque sans peine (en prenant y = 0) que [−2, 2] ⊂ C donc [−2, 2] est aussi inclus dans la projection
de C sur l’axe réel, soit [−2, 2] ⊂ R.
• Des deux inclusions, on déduit l’égalité R = [−2, 2] . Cet intervalle étant de longueur 4, le théorème de
Pólya est vrai sur cet exemple.

3. Réduction du problème

(a) Cela résulte de l’inégalité, pour tout z ∈ C : |Re(z)| 6 |z| (en effet, |z|2 = Re(z)2 + Im(z)2 ), de laquelle il
découle, pour tout z ∈ C et tout i ∈ [[1, k]] :

|Re(z) − ti | 6 |z − ri |.

On en déduit alors :
k
Y k
Y
∀z ∈ C, |Q(Re(z))| = |Re(z) − ti |αi 6 |z − ri |αi = |P (z)|, soit: |Q(Re(z))| 6 |P (z)|
i=1 i=1

4
(b) Par conséquent, soit x ∈ R. Il existe z ∈ C tel que x = Re(z). Ainsi, |P (z)| 6 2. On déduit alors de la
question précédente que :
|Q(x)| = |Q(Re(z))| 6 |P (z)| 6 2,

donc que x ∈ S. Ainsi, R ⊂ S .


(c) Si le théorème ?? est vrai, on a bien obtenu le fait que R est inclus dans une union finie d’intervalles
fermés (à savoir S donc la longueur totale est inférieure à 4 (on est bien dans les conditions d’application
du théorème : Q est unitaire, et scindé dans R).
Donc le théorème ?? implique le théorème ??.
Remarquez que j’ai modifié l’énoncé de sorte à ne pas avoir à prouver que R est lui-même une union finie
d’intervalles fermés. Des arguments de continuité et de compacité permettent de montrer assez facilement
que R est une union d’intervalles fermés bornés. En revanche, montrer qu’ils sont en nombre fini est une
autre histoire. Est-ce vrai d’ailleurs ?

Partie IV – Démonstration du théorème de Pólya

1. P est un polynôme de degré au moins 1, donc admet au moins une racine dans C. Comme par hypothèse,
toutes les racines de P sont réelles, P admet une racine r dans R. Alors |P (r)| = 0 6 2, donc r ∈ S. Ainsi,
S est non vide.

2. Cas où S est un intervalle

(a) Comme P est de degré au moins 1, on a :

lim |P (x)| = lim |P (x)| = +∞.


x→+∞ x→−∞

Ainsi, il existe des réels B et B ′ tels que :

∀x > B, |P (x)| > 2 et ∀x < B ′ , |P (x)| > 2.

Ainsi, S ⊂ [B ′ , B], donc I = S est borné.


(b) Soit a et b les bornes inférieure et supérieure de I. Commençons par montrer que |P (a)| = 2.
1
• Dans un premier temps, considérons la suite (un )n∈N∗ définie pour tout n ∈ N∗ par un = a − . Alors,
n
pour tout n ∈ N∗ , un < a, donc un 6∈ S, donc |P (un )| > 2.
En passant à la limite dans cette inégalité, puisque (un )n∈N∗ tend vers a et que |P | est continue en a,
on obtient : |P (a)| > 2.
• On en déduit dans un premier temps que P (a) 6= 0, donc que a 6= b. En effet, si a = b, alors S, qui est
non vide, serait égal au singleton {a}. Or, S contient une racine de P au moins, d’après la démonstration
faite en IV-1. Ainsi, P (a) serait nul, d’où une contradiction.
• Ainsi, a < b. Soit (vn )n∈N∗ la suite définie pour tout n ∈ N∗ par vn = a + b−an . Alors pour tout n ∈ N ,

a < vn < b, donc vn ∈ I. On en déduit que pour tout n ∈ N , |P (vn )| 6 2. En passant à la limite dans

cette inégalité, puisque (vn )n∈N∗ tend vers a et que |P | est continue en a, on obtient : |P (a)| 6 2.
Par conséquent, a < b, et |P (a)| = |P (b)| = 2 (le raisonnement est similaire pour |P (b)|)
On en déduit que a ∈ S = I, et B ∈ S = I. Ainsi, I contient ses deux bornes. I est donc fermé.
(c) Par définition de I, 2 est un majorant de |P | sur I, atteint aux points a et b.
Ainsi, |P | admet sur I un maximum, égal à 2.
(d) Le polynôme Q est de degré n, en tant que composée d’un polynôme de degré n et d’un polynôme de degré
1, le degré d’une ccomposition étant le produit des degrés (pour des polynômes sur un anneau intègre). De
plus, le monôme dominant de Q est
 n  n
2 b−a
× an ×X = X n,
b−a 2

5
puisque an = 1 (P est unitaire). Donc Q est un polynôme unitaire de degré n.
Le théorème de Tchebychev nous apprend alors que :
   n  n
1 b−a b−a 1 b−a
max |Q(x)| > n−1 soit: max P (x + 1) + a > = 2 ·
−16x61 2 −16x61 2 2 2n−1 4
 n
b−a
soit: max P (y) > 2 · .
a6y6b 4

(e) D’après IV-2(c), on en déduit que :


 n  n
b−a b−a
2>2· soit: 6 1.
4 4
b−a ln 1 b−a
Le logarithme étant croissant, on en déduit que ln 6 = 0, puis 0 < 6 1 et enfin 0 < b−a 6 4.
4 n 4
Par conséquent, S = I, avec ℓ(I) = b − a 6 4.
Le théorème de Pólya pour les polynômes à coefficients réels (deuxième énoncé) est donc bien vérifié dans
le cas où S est un intervalle.

3. Une description de S

(a) Comme on l’a déjà vu, P admet au moins une racine réelle r. De plus, P étant un polynôme de degré au
moins 1, donc non constant, P est non borné (car se comporte comme son monôme de plus haut degré).
Donc il existe s ∈ R tel que |P (s)| > 2. L’application |P | est continue sur l’intervalle fermé de bornes r et
s, et |P (r)| < 2, |P (s)| > 2. Ainsi, d’après le théorème des valeurs intermédiaires, il existe t dans ]r, s[ (ou
]s, r[) tel que |P (t)| = 2, donc t ∈ E. E est donc non vide.
De plus P − 2 est un polynôme non nul (car de degré n > 1), donc admet un nombre fini de racines ; de
même, P + 2 admet un nombre fini de racines. L’ensemble E étant l’union de ces deux ensembles de racines,
E également fini.
(b) On raisonne par l’absurde : soit i ∈ [[1, N − 1]], et supposons que [βi , βi+1 ] 6⊂ S et ]βi , βi+1 [∩S = 6 ∅. Ainsi, il
existe x ∈ [bi , bi+1 ] tel que x 6∈ S, et il existe y ∈]βi , βi+1 [∩S, soit |P (x)| > 2 et |P (y)| 6 2. De plus, puisque
y n’est pas égal à un des βi , |P (y)| 6= 2, donc |P (y)| < 2.
Comme |P | est continue sur [x, y] (ou [y, x]), on peut appliquer le théoèrme des valeurs intermédiaires : il
existe c ∈]x, y[ (ou ]y, x[) tel que |P (c)| = 2. Or, ]x, y[ (ou ]y, x[) est inclus dans ]βi , βi+1 [. Ainsi, il existe
c ∈]βi , βi+1 [ tel que |P (c)| = 2. Or, comme c n’est pas égal à un βi (donc n’est pas dans E), ceci est
impossible.
L’hypothèse initiale de la démonstration par l’absurde est donc faux, et on en déduit que pour tout i ∈
[[1, N − 1]], soit [βi , βi+1 ] ⊂ S, soit ]βi , βi+1 [∩S = ∅.
(c) On raisonne de même. Supposons ] − ∞, β1 [∩S 6= ∅, et soit x ∈] − ∞, β1 [∩S. Alors |P (x)| 6 2. Comme
lim |P (x)| = +∞, et comme |P | est continue sur ] − ∞, x], il existe c ∈] − ∞, x[⊂] − ∞, β1 [ tel que
x→−∞
|P (c)| = 2. Un tel c est donc dans E, ce qui contredit c < β1 .
L’hypothèse initiale de la démonstration par l’absurde est donc fausse. Ainsi ] − ∞, β1 [∩S = ∅.
Même raisonnement pour montrer que ]βN , +∞[∩S = ∅.
(d) Soit J le sous-ensemble de I constitué des indices i ∈ I tels que [βi , βi+1 ] ⊂ S. Alors, d’après ce qui précède,
[
S= [βi , βi+1 ] ∪ E.
i∈J

J et E étant finis, S est la réunion d’un nombre fini d’intervalles fermés bornés et éventuellement de points
isolés βi (dans le cas où i 6∈ J et i − 1 6∈ J). Mais des points isolés sont des cas particuliers d’intervalles
fermés bornés ({a} = [a, a]). Ainsi, J est une union d’un nombre fini d’intervalles fermés bornés.
Ces intervalles ne sont pas forcément disjoints, mais en regroupant les intervalles voisins, on obtient un nombre fini d’in

4. De l’existence d’une racine de P dans chaque Ij

6
(a) Les bornes des intervalles Ij , j ∈ [[1, t]], sont, par construction, dans l’ensemble E, donc, par définition de
E, pour tout j ∈ [[1, t]], |P (aj )| = |P (bj )| = 2.
(b) Soit j ∈ [[1, t]] tel que aj 6= bj et P (aj ) = P (bj ) = 2
i. P est une fonction continue sur [aj , bj ] qui est un intervalle fermé et borné, elle y admet un minimum
m. Puisque P (aj ) = 2, m 6 2.
• Si m < 2, alors ce minimum est atteint en un point b ∈ [aj , bj ] différent de aj et de bj .
• Si m = 2, alors, le minimum est égal au maximum, donc P est constant sur [ai , bi ], donc en particulier,
P admet son minimum en un point intérieur b ∈]aj , bj [.
Ainsi, dans tous les cas, P admet un minimum sur Ij , atteint en un point b ∈]aj , bj [.

ii. Sur l’ouvert ]aj , bj [, P atteint un mimimum en b, et est dérivable en b, donc P ′ (b) = 0.
Par ailleurs, au voisinage de b, d’après la formule de Taylor-Young,

(x − b)2
P (x) = P (b) + P ′ (b)(x − b) + P ′′ (b) + o((x − b)2 ),
2
et donc :
(x − b)2
P (x) − P (b) ∼ P ′′ (b) .
x→b 2
Ainsi, si P ′′ (b) < 0, par conservation du signe, P (x) − P (b) serait négatif au voisinage de b, ce qui
contredit l’existence d’un minimum en b. Ainsi, P ′′ (b) > 0 .
Remarquez qu’il s’agit là d’un argument de convexité locale.
iii. Ceci est le cœur de la démonstration, et fait toute la beauté de la preuve. Distinguons deux cas.
• Si P ′′ (b) = 0, alors P ′ (b) = P ′′ (b) = 0, donc b est racine au moins double de P ′ . De plus, on a supposé
que toutes les racines de P (dans C) sont réelles. On est donc dans les conditions d’application du
lemme 6. Ainsi, b est racine de P . Dans ce cas, on a donc trouvé une racine b de P dans ]aj , bj [.
• Si P ′′ (b) > 0, utilisons le lemme 7. On est bien dans les conditions d’application de ce lemme, puisque
toutes les racines de P sont réelles. Ainsi, en considérant l’inégalité obtenue avec x = b, on trouve :

0 = P ′ (b)2 > P (b)P ′′ (b).

Ainsi, comme P ′′ (b) > 0, on a P (b) 6 0.


Comme P est continue sur [aj , b], et P (aj ) = 2 > 0 et P (b) 6 0, il existe, d’après le théorème des
valeurs intermédiaires, un réel c ∈ [aj , b], forcément distint de aj , tel que P (c) = 0. Ainsi, P admet
une racine dans ]aj , b], donc dans ]aj , bj [.
Dans tous les cas, P admet une racine dans ]aj , bj [.
Cela reste-t-il vrai si P n’est pas scindé dans R ?
(c) On raisonne exactement de la même façon. Cette fois, P admet un maximum en un point b ∈]aj , bj [. Ce
point vérifie P ′ (b) = 0 et P ′′ (b) 6 0. En distinguant comme précédemment selon que P ′′ (b) = 0 et P ′′ (b) < 0,
on obtient une racine de P dans ]aj , bj [.
(d) Supposons que aj = bj .
• Si P (aj ) = 2, alors, puisque Ij est un singleton, et puisque P est continue, il existe un voisinage de aj
sur lequel P est supérieur à 2. Ainsi, P atteint en aj un minimum local, et comme précédemment, on en
déduit que P ′ (aj ) = 0 et P ′′ (aj ) > 0. De plus :
∗ si P ′′ (aj ) > 0, alors, d’après le lemme 7, P (aj ) 6 0, ce qui entre en contradiction avec P (aj ) = 2 ;
∗ si P ′′ (aj ) = 0 = P ′ (aj ), alors, d’après le lemme 6, P (aj ) = 0, ce qui entre en contradiction avec
P (aj ) = 2.
• De même si P (aj ) = −2. Dans ce cas, aj est un maximum local, et on aboutit de même à une contra-
diction.
Dans tous les cas, l’hypothèse aj = bj conduit à une contradiction. Par conséquent, aj 6= bj .
(e) Soit j ∈ [[1, t]]. D’après la question précédente, aj 6= bj . Ainsi :
• Si P (aj ) = P (bj ), alors on est dans un des deux cas des questions (b) et (c). Ainsi, ]aj , bj [ contient une
racine de P .

7
• Si P (aj ) = 2 et P (bj ) = −2, ou si P (aj ) = −2, et P (bj ) = 2, alors, P étant continue sur [aj , bj ], le
théorème des valeurs intermédiaires nous fournit une racine c de P dans ]aj , bj [.
Ainsi, pour tout j ∈ [[1, t]], P admet une racine dans ]aj , bj [.

5. Où l’on augmente le nombre de racines dans le dernier intervalle

(a) Si m = n, toutes les racines de P (au nombre de n comptées avec multiplicité, d’après le théorème de
d’Alembert-Gauss) sont dans It , donc il ne peut y avoir d’autres intervalles Ij constituant S, car ces inter-
valles ne contiendraient pas de racine de P , ce qui est en contradiction avec le résultat de la question 4(e).
Par conséquent, t = 1 .
On est donc dans la situation de la question IV-2-e, et le théorème ?? est donc vrai .
(b) C’est la contraposée de la question précédente, en remarquant que P P admet n racines avec multiplicité
(donc on a toujours m 6 n)
(c) Les réels c1 , . . . , cn représentant toutes les racines de P (répétées autant de fois que leur multiplicité), et P
étant unitaire, on a
n
Y Ym Yn
P = (X − ci ) = (X − ci ) (X − ci ).
i=1 i=1 i=m+1

n
Y
Ainsi, en posant R = (X − ci ) , on a P = QR. D’où l’existence de R· L’unicité de R découle de
i=m+1
l’unicité du quotient de la division euclidienne de P par Q.
(d) i. Soit x ∈ I1 ∪ · · · ∪ It−1 .
• Soit i ∈ [[1, m]]. Alors ci ∈ It par définition. Or, x ∈ I1 ∪ · · · ∪ It−1 , donc x 6 bt−1 , d’où

x + d = x + at − bt−1 6 at .

Comme ci ∈ It , on a ci > at . Par conséquent, x + d − ci < 0. Ainsi, comme d > 0, on obtient :

0 > x + d − ci > x − ci , donc: |x + d − ci | < |x − ci |.

• Ainsi :

Ym Y m m
Y Ym
|Q(x+d)| = (x + d − ci ) = |x+d−ci | < |x−ci | = (x − ci ) soit: |Q(x + d)| < |Q(x)| .


i=1 i=1 i=1 i=1

• Par conséquent,
|P1 (x)| = |Q(x + d)| · |R(x)| 6 |Q(x)| · |R(x)| = |P (x)|,

et comme x ∈ I1 ∪ · · · ∪ It−1 ⊂ S, |P (x)| 6 2. Ainsi, P1 (x) 6 2


ii. Soit x ∈ It .
• On raisonne de même. Puisque x ∈ It , x > at , donc

x − d > at − d = at − at + bt−1 = bt−1 .

Or, pour tout i ∈ [[m + 1, n]], comme P (ci ) = 0, on a ci ∈ S, et comme ci 6∈ It , on a ci ∈ I1 ∪ · · · ∪ It−1 ,


d’où ci 6 bt−1 . Par conséquent :

∀i ∈ [[m + 1, n]], x − d − ci > 0, donc: x − ci > x − d − ci > 0.

Ainsi, pour tout i ∈ [[m + 1, n]], |x − d − ci | < |x − ci |.


n
Y n
Y
On en déduit que : |R(x − d)| = |x − d − ci | 6 |x − ci |, soit : R(x − d) 6 |R(x)|
i=m+1 i=m+1
• Ainsi :
|P1 (x − d)| = |Q(x − d + d)| · |R(x − d)| 6 |Q(x)| · |R(x)| = |P (x)|.

Or, x ∈ It ⊂ S, donc |P (x)| 6 2. Par conséquent, |P1 (x − d)| 6 2.

8
(e) i. D’après la question (d),
• pour tout x ∈ I1 ∪ · · · ∪ It−1 , |P1 (x)| 6 2, donc x ∈ S1 . Ainsi :

I1 ∪ · · · ∪ It−1 ⊂ S1 .

• Pour tout x ∈ It′ , x + d ∈ It , donc |P1 (x)| = |P1 (x + d − d)| 6 2. Par conséquent,

It ⊂ S1 .

On en déduit que I1 ∪ · · · ∪ It−1 ∪ It′ ⊂ S1 .


ii. La factorisation en facteurs irréductibles du polynôme P1 est :
m
Y n
Y
P1 = (X + d − ci ) · (X − ci ).
i=1 i=m+1

Les racines de P1 sont donc c1 − d, . . . , cm − d, cm+1 , . . . , cn .


Or, pour tout i ∈ [[1, m]], ci ∈ It , donc ci − d ∈= It′ ⊂ I1 ∪ · · · ∪ It−1 ∪ It′ .
De plus, pour tout i ∈ [[m + 1, n]], ci ∈ I1 ∪ · · · ∪ It−1 ⊂ I1 ∪ · · · ∪ It−1 ∪ It′ .
Ainsi, toutes les racines de P1 sont dans I1 ∪ · · · ∪ It−1 ∪ It′ .
iii. On a : It−1 = [at−1 , bt−1 ], et It′ = [at − d, bt − d] = [bt−1 , bt − d]. Ainsi :

It−1 ∪ It′ = [at−1 , bt−1 ] ∪ [bt−1 , bt − d] = [at−1 , bt − d].

On en déduit que It−1 ∪ It′ est un intervalle.


Alors, It−1 ∪ It′ est inclus dans un même intervalle de la décomposition de S1 : il existe j ∈ [[1, t′ ]] tel que
It−1 ∪ It′ ⊂ Jj .
Montrons que j = t′ . Si ce n’était pas le cas, l’intervalle Jt′ serait situé strictement plus à droite que
It−1 ∪ It′ , donc que I1 ∪ · · · ∪ It−1 ∪ It′ . Ainsi :

Jt′ ∩ I1 ∪ · · · ∪ It−1 ∪ It′ = ∅.

Comme I1 ∪ · · · ∪ It−1 ∪ It′ contient toutes les racines de P1 (d’après (e)-ii), il en résulterait que It′ ne
contient aucune racine de P1 , ce qui rentre en contradiction avec la question 4(e) appliquée au polynôme
P1 , à racines toutes réelles.
Par conséquent, j = t′ , donc It−1 ∪ It′ ⊂ Jt′ .
iv. It′ contient m racines de P1 , et It−1 contient au moins une racine de P d’après la question 4(e),
qui est aussi racine de P1 , puisqu’elle n’est pas dans It . Ainsi, It−1 ∪ It′ contient au moins m +
1 racines de P1 (comptées avec multiplicité bien sûr). Comme It−1 ∪ It′ ⊂ Jt′ , on en déduit que
Jt′ contient au moins m + 1 racines de P1 .

6. On effectue une récurrence forte descendante et bornée sur m, le nombre de racines dans le dernier intervalle
constituant S. Ce nombre m est élément de [[1, n]], n étant le degré (fixé) de P .
Soit, pour tout m ∈ [[1, n]], P(m) la proposition : Pour tout polynôme P de R[X] de degré n, dont toutes les
racines sont réelles, et telles que le nombre de racines situées dans le dernier intervalle constituant S est m, le
théorème ?? est vérifié.
D’après la question IV-5(a), P(n) est vérifié.
Soit m ∈ [[1, n − 1]] tel que P(m + 1), . . . , P(n) soient vérifiés. Soit alors P un polynôme de degré n à coefficients
réels, à racines toutes réelles, et dont le nombre de racines situées dans le dernier intervalle constituant S est
égal à m. On construit le polynôme P1 comme précédemment. Ce polynôme P1 est également de degré n, à
racines toutes réelles, et le nombre de racines dans le dernier intervalle de S1 est strictement plus grand que m.
Ainsi, on peut appliquer l’hypothèse de récurrence à P1 : le théorème ?? est vérifié pour P1 , donc la longueur
totale de S1 est inférieure ou égale à 4.
Or, on a montré que I1 ∪ · · · ∪ It−1 ∪ It′ ⊂ S1 , donc la longueur totale de I1 ∪ · · · ∪ It−1 ∪ It′ est inférieure à
celle de S1 , c’est-à-dire à 4. De plus It′ et It étant de même longueur, il est immédiat que I1 ∪ · · · ∪ It−1 ∪ It′ et

9
I1 ∪ · · · ∪ It−1 ∪ It ont même longueur totale. Ainsi, S est de longueur totale inférieure ou égale à 4, et donc P
vérifie le théorème ??.
On a donc montré P(n), et on a montré que pour tout m ∈ [[1, n − 1]], P(m + 1), . . . , P(n) impliquent P(m).
Ainsi, d’après le principe de récurrence, pour tout m ∈ [[1, n]], P(m) est satisfait.
Cela prouve le théorème ??, et donc le théorème ??, d’après la partie III.

10
Lycée Louis-Le-Grand, Paris
MPSI 4 – Mathématiques
A. Troesch

Problème no 17 : Polynômes, algèbres

Correction du problème 1 – (Théorème de l’élément primitif )

Partie I – Extensions de degré fini.

1. Soit K ⊂ L et L ⊂ M deux extensions de degré fini. Soit (a1 , . . . , an ) une base du K-ev L et (b1 , . . . , bm ) une
base du L-ev M . Soit alors x ∈ M . On a donc l’existence de scalaires λ1 , . . . , λm dans le corps L tels que
m
X
x= λk bk .
k=1

Or, les coefficients λk sont dans L, dont une K-base est (a1 , . . . , an ). Ainsi, il existe pour tout k ∈ [[1, m]], il
existe une famille (µ1,k , · · · , µn,k telle que
n
X
λk = µℓ,k aℓ .
ℓ=1

On en déduit que :
n X
X m
x= µℓ,k aℓ bk .
ℓ=1 k=1

La famille (aℓ bk )(ℓ,k)∈[[1,n]]×[[1,m]] est donc une famille génératrice du K-ev L.


Par ailleurs étant donnés des scalaires λi,j ∈ K tels que
n X
X m
λi,j ai bj = 0,
i=1 j=1

on peut écrire, !
m
X n
X
λi,j ai bj = 0.
j=1 i=1

Ainsi, la somme interne étant un élément de L, par liberté sur L de la famille (bj ), on obtient, pour tout
j ∈ [[1, m]], !
Xm Xn
λi,j ai = 0.
j=1 i=1

La liberté de la famille (ai ) sur K amène alors :

∀(i, j) ∈ [[1, n]] × [[1, m]], λi,j = 0

Ainsi, la famille (ai bj ) est une famille libre.


Il s’agit donc d’une base de M sur K. Son cardinal est nm. On en déduit que

dimK M = dimK L × dimL M soit: [M : K] = [M : L] × [L : K] .

2. Soit α ∈ L. La famille (αn )n∈N ne peut pas être libre, car le cardinal d’une famille libre est inférieur à la
dimension de l’espace. Ainsi, il existe une famille (λn )n∈N de scalaires presque tous nuls, mais non tous nuls
+∞ +∞
tels que λn αn = 0. Les λi étant presque tous nuls, P = λn X n est un polynôme, non nul, et tel que
P P
n=0 n=0
P (α) = 0. Ainsi, α est algébrique sur K.
Par conséquent, si K ⊂ L est de degré fini, alors elle est algébrique.

1
3. Soit K ⊂ L une extension de degré fini. D’après la question précédente, elle est algébrique. Ainsi, étant donné
α ∈ L, il existe P ∈ K[X] non nul tel que P (α) = 0. Considérons I = {P ∈ K[X], P (α) = 0}. L’ensemble
I est clairement stable par différence et contient 0, c’est donc un sous-groupe additif de K[X]. Par ailleurs,
si P (α) = 0, alors pour tout Q ∈ K[X], P Q(α) = 0. Par conséquent, I est stable par multiplication par un
élément de K[X]. Ainsi, I est un idéal non nul de K[X]. Comme K[X] est principal, on en déduit qu’il existe
Pα 6= 0, qu’on peut choisir unitaire, tel que I = (Pα )
Si Pα n’est pas irréductible, il existe une factorisation Pα = QR par des polynômes non constants. On a alors
Q(α)R(α) = 0, d’où Q(α) = 0 ou R(α) = 0, par intégrité. Ainsi, Q ou R est un élément de I, donc divisible
par Pα . Cela contredit le fait que ces deux polynômes sont non nuls (car non constants) et de degré strictement
inférieur à celui de Pα .
Ainsi, Pα est irréductible.
Par ailleurs, soit P un autre polynôme unitaire (distinct de Pα ) de I. Montrons que P 6= Pα . Cela provient
du fait que Pα divise P . Si deg P = deg Pα , on a l’existence d’une constante λ tel que P = λPα . Les deux
polynômes étant unitaires, λ = 1, ce qui contredit P 6= Pα . On en déduit que deg P > deg Pα , et la divisibilité
par Pα nous donne l’existence d’une décomposition non triviale P = Pα Q. Ainsi, P n’est pas irréductible.
Il existe donc un unique polynôme irréductible unitaire Pα tel que Pα (α) = 0.

Partie II – Adjonction d’un ou plusieurs éléments à un corps


\
1. Soit M = Mi . On a M ⊂ L. Par ailleurs, 1L est dans chaque Mi , donc M est non vide. De plus, si x et
i∈I
y sont dans M , pour tout i ∈ I, x, y ∈ Mi , et Mi étant un sous-corps de L, x − y ∈ Mi , et si de plus y est
inversible, xy −1 ∈ Mi . Ces inclusions étant vraies pour tout i ∈ I, x − y ∈ M et si y est inversible xy −1 ∈ M .
On en déduit que M est un sous-corps de L.
2. On considère M l’ensemble des sous-corps M de K tels que K ∪ E ⊂ M . L’ensemble M est non vide, puisque
L ∈ M. On définit \
M0 = M.
M∈M

Il s’agit d’un sous-corps de L d’après la question précédente. Ce corps contient K ∪ E, car c’est le cas de chaque
M de l’intersection. Par ailleurs, pour tout corps M1 contenant K et E, M1 est l’un des termes de l’intersection,
donc M0 ⊂ M1 . Ainsi, M1 est bien le plus petit sous-corps de L contenant K ∪ E.
D’où l’existence de K(E).
3. • On a E ⊂ K(E) ⊂ K(E)(F ), F ⊂ K(E)(F ) et K ⊂ K(E) ⊂ K(E)(F ). Ainsi, K ∪ E ∪ F ⊂ K(E)(F ).
Comme de plus, par définition, K(E)(F ) est un corps, K(E ∪ F ) ⊂ K(E)(F ), par propriété de minimalité
de K(E ∪ F ).
• On a K ⊂ K(E ∪ F ) et E ⊂ K(E ∪ F ), et K(E ∪ F ) est un corps. Donc, par minimalité de K(E),
K(E) ⊂ K(E ∪ F ). De plus, F ⊂ K(E ∪ F ), donc par minimalité de K(E)(F ), K(E)(F ) ⊂ K(E ∪ F ).
• Les deux inclusions amènent l’égalité K(E ∪ F ) = K(E)(F ).
4. Considérons K = R, L = C, α = 1 (ou n’importe quel réel), et β = i. On a alors K(α) = R et K(β) = C. Or,
les corps R et C ne sont pas isomorphes. En effet, soit ϕ : R → C un morphisme de corps. Supposons que ϕ
soit un isomorphisme. Par surjectivité, il existe x ∈ R tel que ϕ(x) = i. On a alors ϕ(x2 ) = ϕ(x)2 = i2 = −1.
Or, ϕ(−1) = −ϕ(1) = −1, donc, par injectivité, x2 = −1, ce qui est impossible puisque x ∈ R.
Ainsi, en général, on n’a pas K(α) = K(β) .
5. Soit x ∈ K[X]/(P ) non nul, et Q un représentant de x dans P . Le polynôme Q n’est alors par divisible par P
(puisque x est non nul). Le polynôme P étant irréductible, Q est premier avec P (sinon, le PGCD, non constant
et différent de P par non divisibilité, diviserait P , ce qui contredirait son irréductibilité).
Il existe donc, d’après le théorème de Bézout, deux polynômes U et V tels que U P + V Q = 1. En passant au
quotient, et en notant y la classe de V dans K[X]/(P ), on obtient xy = 1. Ainsi, x est inversible.
Par conséquent, l’anneau K[X]/(P ) est un corps.
6. • Soit Q = 1 le polynôme constant égal à 1. On a alors Q(α) = 1. Donc ϕ(1) = 1.

2
• Soit Q1 , Q2 deux polynômes. On a

ϕ(Q1 + Q2 ) = (Q1 + Q2 )(α) = Q1 (α) + Q2 (α) = ϕ(Q1 ) + ϕ(Q2 ),

et de même ϕ(Q1 Q2 ) = ϕ(Q1 )ϕ(Q2 ).


• Ainsi, ϕ est un morphisme d’anneaux.
• En adaptant l’argument de la question I-3, les polynômes annulant α forment un idéal non nul (il contient
Pα ), engendré par un polynôme irréductible unitaire Pα qui est l’unique polynôme irréductible unitaire
annulant α. Ce polynôme irréductible unitaire est alors le polynôme irréductible P divisé par son coefficient
dominant (par unicité). On en déduit qu’il existe λ ∈ K tel que P = λPα . Ainsi, P et Pα engendrent le
même idéal, donc Ker(ϕ) = (P ) .
7. En quotientant K[X] par le noyau de ϕ, l’application ϕ passe au quotient et définit un morphisme d’anneau
injectif de K[X]/(P ) → L (donc un morphisme de corps), Son image est donc un sous-corps de L. Montrons
que cette image (qui est aussi Im(ϕ)) est K(α).
En effet, on a, pour tout polynôme constant Q = x ∈ K, ϕ(x) = x donc x ∈ Im(ϕ), donc K ⊂ Im(ϕ). De plus,
ϕ(X) = α, donc α ∈ Im(ϕ). Comme Im(ϕ) est un corps, par minimalité, on a donc K(α) ⊂ Im(ϕ).
Réciproquement, par stabilité par produit et somme, puisque α ∈ K(α), et K ⊂ K(α), toute combinaison
linéaire de puissances de α à coefficients dans K est encore dans K(α), donc Im(ϕ) ⊂ K(α).
On a donc Im(ϕ) = K(α), et l’injectivité étant acquise, on a un isomorphisme de corps entre K[X]/(P ) et K(α).
8. Soit α et β deux racines d’un polynôme irréductible P . La question précédente montre que K(α) et K(β) sont
tous deux isomorphes au même corps K[X]/(P ), donc K(α) ≃ K(β) .
On remarquera que l’isomorphisme de la question précédente est un isomorphisme d’espace vectoriel sur K,
donc en particulier, K(α) et K(β) auront même dimension sur K. On se servira de cette remarque par la suite.
√ √ √
9. Considérons P = X 3 − 2 ∈ Q[X]. Ses racines dans C sont 3 2, j 3 2 et j 2 3 2. Or, si P n’est pas irréductible, il se
factorise en un produit non trivial de polynômes irréductibles de Q[X], dont l’un au moins aura un degré égal
à 1. Ce polynôme s’écrira donc sous la forme X − α (à une constante multiplicative près), avec α rationnel. Le

rationnel α est alors une racine de P . Mais 3 2 est irrationnel, donc P n’a pas de racine rationnelle, d’où une
contradiction.
On en déduit que Q est irréductible.
√ √
Clairement Q( 3 2) 6= Q(j 3 2), puisque le premier corps est inclus dans R et pas le second. Donc en général
on n’a pas K(α) = K(β) pour α et β deux racines d’un même polynôme irréductible P .

Partie III – Corps de décomposition d’un polynôme

1. D’après II-5, i est bien une application entre deux corps. On a trivialement, par définition de la structure
quotient ϕ(1) = 1 = 1K[X]/(P ) , ϕ(λµ) = λµ = λµ = ϕ(λ)ϕ(µ) et de même ϕ(λ + µ) = ϕ(λ) + ϕ(µ).
Ainsi, ϕ est un morphisme de corps.
d
2. Soit α = X la classe de X dans K[X]/(P ). En notant P = λk X k , on a
P
k=0

d d
X X k
P (α) = λk αk = λk X ,
k=0 k=0

puisqu’on a identifié λk et λk via le morphisme i. On a donc :


k
X
P (α) = λk X k = P = 0K[X]/(P ) .
k=0

Ainsi, α est racine de P , donc P admet une racine dans K[X]/(P ).


3. Soit P ∈ K[X]. Soit P0 un facteur irréductible de P . Il existe d’après la question précédente une extension L
de K telle que P0 admette une racine dans L. Comme P0 divise P , P admet cette même racine dans L.
Ainsi, il existe une extension L de K telle que P admette une racine dans L.
Autrement dit, il existe un corps de rupture de P .

3
4. On montre par récurrence sur n ∈ N∗ que pour tout corps K, et tout polynôme P de degré n dans K[X], il
existe une extension K ⊂ L de K telle que P soit scindé sur L. Remarquez que je quantifie sur le corps dans
la propriété de récurrence.
Pour n = 1, la propriété est évidente, un polynôme de degré 1 s’écrivant P = λ(X − α), avec λ, α dans K.
Soit n ∈ N∗ tel que la propriété soit vérifiée pour les polynômes de degré n (sur un corps quelconque). On
considère K un corps et P un polynôme de degré n + 1 dans K[X]. D’après la question précédente, il existe
une extension K ⊂ M telle que P ait une racine α dans M . On peut alors factoriser P = (X − α)Q, où Q est
un polynôme de M [X] de degré n. On peut appliquer l’hypothèse de récurrence sur Q ∈ M [X] (on voit ici la
nécessité d’étendre l’hypothèse de récurrence à tout corps, puisqu’on l’utilise pour un corps distinct du corps
initial K). Ainsi, il existe une extension L de M telle que Q soit scindé sur L. Le corps L est aussi une extension
de K, et P est alors scindé sur L.
D’après le principe de récurrence, pour tout corps K, pour tout polynôme P de K[X], il existe une extension
L de K telle que P soit scindé sur L.
5. • Puisque λ est un morphisme de corps,

λ (1K ) = λ(1K ) = 1K ′

(vu comme élément de K ′ [X] : il s’agit du polynôme constant)


+∞ +∞
• Soit P = ak X k et Q = bk X k , les ak et les bk étant presque tous nuls. Puisque λ(0) = 0, les λ(ak ) et
P P
k=0 k=0
λ(bk ) sont aussi presque tous nuls, ce qui permet de justifier que λ
b est bien défini. On a de plus :

+∞
X +∞
X
b + Q) =
λ(P λ(ak + bk )X k = (λ(ak ) + λ(bk ))X k = λ(P
b ) + λ(Q),
b
k=0 k=0

ainsi que :
+∞ +∞ X
k
! k
!
X X X
k
b Q) =
λ(P λ aℓ bk−ℓ X = λ(aℓ )λ(bk−ℓ ) X k = λ(P
b )λ(Q).
b
k=0 ℓ=0 k=0 ℓ=0

• Ainsi, λ
b est un morphisme d’anneau.
+∞ +∞
• Tout bk X k ∈ K ′ [X] est l’image par ϕ de ak X k ∈ K[X], où pour tout k, ak = λ−1 (bk ) (existe par
P P
k=0 k=0
bijectivité). Donc λb est surjective.
+∞ +∞
• Soit P = b On a donc P λ(ak )X k = 0, donc les coefficients de ce polynôme sont tous
ak X k ∈ Ker(λ).
P
k=0 k=0
nuls. Ainsi, pour tout k ∈ N, λ(ak ) = 0, et λ étant un isomorphisme d’anneaux, ak = 0. On en déduit que
P = 0. Ainsi, Ker(λ)
b = {0}, donc λb est injective.

On en déduit que λ
b est un isomorphisme d’anneaux.

6. Soit P un polynôme de K[X] tel que Pλ ne soit pas irréductible. Notons ϕ l’isomorphisme réciproque de λ.
b
Comme λ b respecte les degrés, il en est de même de ϕ. Soit une décomposition Pλ = QR, en polynômes de
degrés strictement positifs. On a alors

P = ϕ(Pλ ) = ϕ(QR) = ϕ(Q)ϕ(R).

D’après la propriété ci-dessus de conservation du degré par ϕ, il s’agit d’une décomposition de P assurant que
P n’est pas irréductible.
Ainsi, par contraposée, si P est irréductible, Pλ l’est aussi.
L’application λ
b définit, par composition avec la projection π : K ′ [X] → K ′ [X]/(Pλ ), un morphisme d’anneaux
µ de K[X] dans K ′ [X]/(Pλ ), surjectif en tant que composée de 2 surjections. Soit Q ∈ Ker(µ). On a donc
Qλ = 0, soit Pλ | Qλ . Comme λ b est un isomorphisme d’anneaux, la factorisation traduisant cette divisibilité se
traduit en une factorisation dans K[X], donc P | Q. Ainsi, Ker(µ) ⊂ (P ), la réciproque étant immédiate. Par
conséquent, Ker(µ) = (P ), et on peut donc passer µ au quotient, définissant un morphisme injectif d’anneaux
de K[X]/(P ) dans K ′ [X]/(Pλ ), la surjectivité étant aussi préservée par passage au quotient. Ainsi, il s’agit
d’un isomorphisme d’anneaux, et comme ces quotients sont les corps, il s’agit d’un isomorphisme de corps.

4
On a bien montré que K[X]/(P ) et K ′ [X]/(P ′ ) sont isomorphes.
Il n’est pas dur de constater qu’une base du K-ev K[X]/(P ) sera envoyée sur une base du K ′ -ev K ′ [X]/(P ′ )
par cette isomorphisme. Ainsi, les deux extensions de K et K ′ respectivement ainsi définies ont même degré.
Nous nous servirons plus tard de cette remarque.
7. Montrons par récurrence sur deg P que pour tout corps K, tout isomorphisme λ : K → K ′ , pour tout P ∈ K[X]
non nul, toute extension K ⊂ L et toute extension K ′ ⊂ L′ telles que P soit scindé dans L et Pλ soit scindé
dans L′ , en notant α1 , · · · , αr les racines distinctes de P dans L et β1 , . . . , βs les racines distinctes de Pλ dans
L′ , le sous-corps K(α1 , . . . , αr ) de L et le sous-corps K ′ (β1 , . . . , βs ) de L′ sont isomorphes.
• Si P est constant non nul, les ensembles de racine sont vides donc K(Rac(P )) = K(∅) = K ≃ K ′ =
K ′ (∅) = K ′ (rac(P ′ )), d’où le résultat.
• Soit n ∈ N. Supposons la propriété vraie pour tous corps et tout polynôme de degré n tel que dans la
propriété de récurrence. Soit K, K ′ , L, L′ et P de degré n + 1 vérifiant les hypothèses de la propriété. Soit
P = QR, où Q est irréductible (éventuellement, R est constant si P est lui-même irréductible). Une telle
décomposition existe du fait que P n’est pas constant. On a alors Pλ = Qλ Rλ , et Qλ est irréductible. Soit α1
dans L une racine de Q et β1 une racine de Qλ dans L′ (existant par hypothèse). On complète en α1 , . . . , αr
les racines de P et β1 , . . . , βs les racines de Pλ .
D’après II-7, K(α1 ) est isomorphe à K[X]/(P ), et K ′ (β1 ) est isomorphe à K ′ [X]/(Pλ ). D’après III-6,
K[X]/(P ) et K ′ [X]/(Pλ ) sont isomorphes. On en déduit, par composition, que K(α1 ) et K(β1 ) sont iso-
morphes. Par ailleurs, la description explicite des isomorphismes que l’on compose ainsi (isomorphismes
construits dans lesdites questions) montre que l’on peut trouver un isomorphisme µ = K(α1 ) → K ′ (β1 )
coïncidant avec λ sur K et tel que µ(α1 ) = β1 .
On peut factoriser P dans K(α1 ) sous la forme P = (X − α1 )Q. Appliquant la question 5 à µ, coïncidant
avec λ sur K, on obtient
Pλ = Pµ = µ b(X − α1 )Qµ = (X − β1 )Qµ .
Les racines de Q sont alors α2 , . . . , αr auquel on doit éventuellement ajouter α1 (si elle était racine multiple
de P ), et les racines de Qµ sont de même β2 , . . . , βs , auquel on ajoute éventuellement β1 . Par conséquent, le
corps de décomposition de Q est K(α1 )(α2 , . . . , αs ) (la discussion sur α1 disparaît du fait que α1 est de toute
manière déjà élément du corps de base considéré), et le corps de décomposition de Q′ est K ′ (β1 )(β2 , . . . , αr ).
On peut appliquer l’hypothèse de récurrence, du fait que Q est de degré n et que K(α1 ) et K(α2 ) sont
isomorphes. Ainsi
K(α1 )(α2 , . . . , αr ) ≃ K ′ (β1 )(β2 , . . . , βs ).
On déduit alors de la question II-3 que K(α1 , . . . , αr ) ≃ K ′ (β1 , . . . , βs )
• D’après le principe de récurrence, cette propriété est donc vraie pour tout polynôme.
La remarque de la question précédente s’adapte ici aussi : les deux extensions obtenues auront même degré.
8. On applique la question précédente à l’isomorphisme id : K → K, K ⊂ L et K ⊂ L′ deux extensions telles que
L et L′ soient des corps de décomposition du polynôme P . On a alors L = K(RacL (P )) et L′ = K(RacL′ (P )),
d’après la remarque suivant III-4. La question III-7 nous donne alors L ≃ L′ .
Ainsi, deux corps de décomposition d’un polynôme P sont isomorphes.
9. Soit K ⊂ L une extension de corps.
• Supposons que L soit le corps de décomposition d’un polynôme P de K[X].
Pour commencer, K ⊂ L est de degré fini, car en notant α1 , . . . , αk les racines de P ,

K ⊂ K(α1 ) ⊂ K(α1 )(α2 ) ⊂ · · · ⊂ K(α1 , . . . , αk−1 )(αk ) = K(α1 , · · · αk ),

chacune de ces extensions étant de degré fini, car isomorphe à un L[X]/(Q) d’après la partie 1, une telle
extension étant de degré fini, puisqu’engendrée par des représentants de 1, X, · · · , X d−1 , où d est le degré
de Q. En effet, pour toute classe, on pourra toujours trouver un représentant de degré strictement plus
petit que d en considérant le reste de la division euclidienne d’un représentant quelconque par Q). Ainsi,
K ⊂ L est de degré fini d’après I-1.
En notant α1 , . . . , αk les racines de P dans L, on a donc L = K(α1 , . . . , αk ). Soit Q un polynôme irréductible
ayant une racine β dans L. On considère M une extension de L, corps de décomposition du polynôme P Q

5
(qui peut être vu comme polynôme à coefficients dans L, ce qui assure L ⊂ M ). Soit γ une autre racine de
Q. Les racines de P étant les αi , et par description du corps de décomposition lorsqu’on dispose d’un corps
dans lequel P est scindé, puisque

L(β) = K(α1 , . . . , αk , β) = K(β)(α1 , . . . , αk ),

L(β) est corps de décomposition de P sur K(β). De même, L(γ) est corps de décomposition de P sur K(γ).
Or, on a vu dans la question 7 que puisque β et γ sont racines d’un même polynôme irréductible, il existe
un isomorphisme d’anneaux µ : K(β) → K(γ) coïncidant avec l’identité sur K et tel que µ(β) = γ. On a
alors Pµ = P , puisque P est à coefficients dans γ. Or, la question 7 affirme que le corps de décomposition
de P sur K(β) est isomorphe au corps de décomposition de Pµ (donc de P ) sur K(γ). Comme toutes les
extensions considérés sont de degré fini, on peut donc écrire

[L(β) : K(β)] = [L(γ) : K(γ)]

D’après I-8 (et la remarque qui suit sa résolution), on a également

[K(β) : K] = [K(α) : K].

La question I-1, amène alors :

[L(β) : K] = [L(β) : K(β)][K(β) : K] = [L(α) : K(α)] : [K(α) : K] = [L(α) : K].

Une nouvelle application de I-1 amène :

[L(β) : L][L : K] = [L(γ) : L][L : K].

En simplifiant par [L : K] 6= 0, il vient [L(β) : L] = [L(γ) : L]. Or, β ∈ L par hypothèse, donc

[L(γ) : L] = [L(β) : L] = 1.

On en déduit que L(γ) = L, donc γ ∈ L . Ainsi, toute racine de Q est dans L, donc Q est scindé dans L.
• Réciproquement, supposons que K ⊂ L est une extension de degré fini telle que tout polynôme irréductible
de K[X] ayant une racine dans L soit scindé dans L. Comme L est de dimension finie sur K, il existe
(α1 , . . . , αn ) une base de L sur K. On a alors de façon immédiate L = K(α1 , . . . , αn ). Les éléments α1 , . . . , αn
sont algébriques puisque l’extension est de degré fini. Soit P1 , . . . , Pk dans K[X] les polynômes irréductibles
de α1 , . . . , αn . Comme P1 , . . . , Pn sont irréductibles et admettent une racine dans L, par hypothèse, ils sont
scindés dans L. On considère P = P1 · · · Pn . Puisque P est scindé dans L, il existe un corps de décomposition
M de P tel que M ⊂ L. Plus précisément, K(Rac(P )) ⊂ L. Par ailleurs, puisque {α1 , . . . , αn } ⊂ Rac(P ),
on a aussi :
L = K(α1 , . . . , αn ) ⊂ K(rac(P ));

Ainsi, L = K(rac(P )), et L est donc corps de décomposition de P .

Partie IV – Extensions séparables

1. Soit P ∈ K[X] non constant, et L un corps de décomposition de P .


(a) Soit α ∈ L. On suppose que X − α divise P et P ′ dans L[X], et on écrit P = (X − α)Q, où Q ∈ L[X]. On
a alors
P ′ = Q + (X − α)Q′ .

Comme X − α divise P ′ et (X − α)Q′ , on en déduit que X − α divise Q.


(b) • Supposons que P est inséparable. Le polynôme P admet donc une racine double dans L. On peut donc
factoriser dans L sous la forme P = (X − α)2 R. On a alors P ′ = (X − α)((X − α)R′ + 2XR). Ainsi,
X − α divise à la fois P et P ′ , donc P ∧ P ′ 6= 1.

6
• Réciproquement, si P ∧ P ′ 6= 1, P et P ′ étant scindés sur L, ils admettent une racine commune α. Ils
sont donc tous deux divisibles par X − α. D’après la question précédente, en reprenant les notations de
cette question, on peut factoriser Q sous la forme Q = (X − α)R, donc P = (X − α)2 R. On en déduit
que α est racine au moins double de P dans L, donc P est inséparable.
Ainsi, P est inséparable si et seulement si P ∧ P ′ 6= 1.
Remarquez qu’on a utilisé le PGCD dans L[X] alors que le PGCD considéré est en fait dans K[X]. Ce n’est
pas, gênant, puisque le PGCD est invariant pas extension de corps (pour un polynôme à coefficients dans
K, l’algorithme d’Euclide s’écrit de la même façon que l’on se place dans K[X] ou dans L[X], L étant une
extension de K).
Remarquez également qu’on ne peut pas se servir directement de la caractérisation de la multiplicité par les
dérivées donnée dans le cours, cette caractérisation ayant été établie pour un corps de caractéristique nulle.
2. Soit K un corps de caractéristique nulle, et P un polynôme irréductible. En particulier, P est non constant.
Donc P ′ 6= 0, et deg P ′ < deg P . On a alors nécessairement P ∧ P ′ = 1, sinon, il existerait Q non constant,
de degré inférieur ou égal à deg P ′ , donc strictement inférieur à deg P , divisant simultanément P et P ′ . Cela
contredirait l’irréductibilité de P . Ainsi, d’après la question précédente, P est séparable.
Ainsi, en caractéristique nulle, tout polynôme irréductible est séparable.
Soit K un corps de caractéristique p 6= 0, et P un polynôme irréductible. Si P ′ 6= 0 le raisonnement précédent
reste valide, et donc P est séparable. Si P ′ = 0, alors P ∧ P ′ = P (ou plutôt l’unique polynôme unitaire
colinéaire à P ), donc P ∧ P ′ 6= 1, un polynôme irréductible n’étant pas constant. Donc P est inséparable
d’après la question précédente.
Ainsi, en caractéristique non nulle, un polynôme irréductible est séparable si et seulement si P ′ 6= 0.
3. Soit p un nombre premier impair. On donne ici un exemple de polynôme irréductible non séparable pour un
corps K de caractéristique p.
(a) Il suffit de considérer K = Fp (X) le corps des fractions de Fp . L’élément t = X de K n’est pas algébrique sur
Fp , car par définition même des polynômes formels (qui sont aussi des fractions rationnelles via l’identification
classique), pour tout P ∈ Fp (X) non nul, P (t) = P (X) = P 6= 0 !
Ainsi, Fp admet une extension K dans laquelle il existe un élément transcendant t.
(b) Soit L un corps de décomposition de P = X p − t. Soit α une racine de P dans L. On a donc αp = t. D’après
la formule du binôme,
p  
X p
(X − α)p = (−α)k X p−k .
k
k=0
p
Or, p est premier, donc k est divisible par p pour tout k ∈ [[1, p − 1]]. Comme K est de caractéristique p,


on en déduit que
(X − α)p = X p + (−α)P .

Or, p est impair et αp = t, donc (X − α)p = X p − t.


(c) Supposons que P n’est pas irréductible. Il existe donc dans K[X] un diviseur Q de K[X], non constant
et de degré strictement inférieur à celui de P . Il s’agit aussi d’un diviseur dans L[X]. D’après la question
précédente, il existe donc q ∈ [[1, p − 1]] tel que Q = (X − α)q .
On peut raisonner sur la somme des racines, égale à un coefficient de Q, donc élément de K (puisque
Q ∈ K[X]) : les racines étant en nombre q et toutes égales à α, on obtient qα ∈ K. Comme q ∈ [[1, p − 1]]
et p est premier, q est premier avec p donc est inversible modulo p d’après le théorème de Bezout (donc
inversible dans Fp ⊂ K). On en déduit que α ∈ K.
(d) On suppose que P n’est pas irréductible. D’après la question précédente, α ∈ K = Fp (t). Or, l’application
P
ϕ : Fp (X) 7→ K qui à une fraction rationnelle F associe F (t) est clairement bien définie, car si F = Q , P (t)
et Q(t) sont à valeurs dans K par stabilité, et Q(t) est non nul, puisque t n’est pas algébrique. Il est assez
immédiat de vérifier que ϕ est un morphisme de corps, donc son image est un sous-corps de K contenant
Fp (image des fractions rationnelles constantes) et t (image de X). Par minimalité de K = Fp (t), on a donc
K = Im(ϕ).

7
En particulier, puisque α ∈ K, on peut donc écrire α = F (t) pour une certaine fraction rationnelle F ∈ Fp [X].
P
L’équation αp = t se réécrit alors F (t)p − t = 0. En écrivant F = Q , avec P et Q premiers entre eux, il vient

P (t)p − tQ(t)p = 0.

Comme t n’est pas algébrique, cette relation n’est possible que si P p − XQp est le polynôme nul. Or,
deg(P p ) ≡ 0 [p] et deg(XQp ) ≡ 1 [p], d’où une contradiction.
Ainsi, P est irréductible, et inséparable , puisqu’il n’a qu’un racine de mulitplicité p.
4. Soit K ⊂ L ⊂ M deux extensions de corps.
(a) Soit α ∈ M , algébrique sur K. Il existe donc un polynôme P ∈ K[X] tel que P (α) = 0. Comme K ⊂ L, on
a aussi P ∈ L[X], donc α est algébrique sur L .
(b) Soit Pα ∈ K[X] le polynôme irréductible de α sur K et Qα ∈ L[X] le polynôme irréductible de α sur L.
En particulier, on a aussi Pα ∈ L[X], donc Pα est un polynôme annulateur de α dans L[X]. Or, par un
argument similaire à I-3, l’ensemble des polynômes annulateurs de α dans L[X] est (Qa ). On en déduit que
Pα ∈ (Qα ), donc Qα divise Pα .
(c) Supposons que K ⊂ M est séparable.
• Puisque L ⊂ M , pour tout α ∈ L, la séparibilité de l’extension K ⊂ M assure que α est algébrique sur
K et que Pα le polynôme minimal de α sur K (c’est le même qu’on se place globalement dans L ou dans
M ) est séparable. Donc K ⊂ L est séparable .
• Soit α ∈ M . Puisque K ⊂ M est séparable, α est algébrique sur K donc sur L d’après 4(a). Soit
Qα ∈ L[X] son polynôme irréductible sur L et Pα sont polynôme irréductible sur K. D’après 4(b), Qα
divise Pα . Or, Pα n’ayant que des racines simples dans un corps de décomposition, il en est de même de
ses diviseurs, donc que Qα . Ainsi, α est séparable. On en déduit que L ⊂ M est séparable .

Partie V – Théorème de l’élément primitif

1. Soit K ⊂ L une extension de degré fini, telle que K soit de cardinal infini.
(a) On suppose qu’il existe α et β tels que L = K(α, β). Comme K ⊂ L est de degré fini, α et β sont algébriques
sur K, d’après I-2. Il existe donc des polynômes irréductibles Pα et Pβ de α et β sur K.
Soit α, α2 , · · · , αr et β, β2 , . . . , βs respectivement les racines distinctes de Pα et de Pβ dans un corps M de
décomposition du produit Pα Pβ .
Puisque K ⊂ L est séparable, les βj , j ∈ [[2, s]], sont deux à deux distincts, et distincts de β. Ainsi, βj −β 6= 0
α−α
pour tout j ∈ [[2, s]]. L’équation αi + tβj = α + tβ équivaut donc à t = βj −βj .
α−α
Il suffit donc de choisir t ∈ K ∗ distinct des βj −βj , i ∈ [[2, r]], j ∈ [[2, s]], ce qui est possible puisque ces valeurs
sont en nombre fini (au plus (r − 1)(s − 1)) alors que K ∗ est infini par hypothèse.
Il est donc possible de choisir t ∈ K ∗ tel que pour tout (i, j) ∈ [[2, r]] × [[2, s]], αi + tβj 6= α + tβ .
(b) On se donne un tel t, et on pose θ = α + tβ. Soit H ∈ K(θ)[X] le polynôme à coefficients dans K(θ) défini
par H(X) = Pα (θ − tX). On se place dans un corps de décomposition de HPβ . Dans un tel corps, les deux
polynômes H et Pβ sont scindés. Leur pgcd est donc obtenu en considérant leurs racines communes et en
conservant leur multiplicité minimale dans ces deux polynômes. Les racines communes sont nécessairement
des racines de Pβ , donc β ou les βj , j ∈ [[2, s]]. Or, pour tout j ∈ [[2, s]],

H(βj ) = Pα (α + tβ − tβj ).

Or, d’après le choix de t, α + tβ − tβj n’est égal à aucun αj . Il ne peut pas être égal à α non plus, sinon
au aurait β = βj , ce qui n’ets pas de cas, Pβ étant séparable. On en déduit que α + tβ − tβj n’est pas une
racine de Pα donc βj n’est pas racine de H.
En revanche,
H(β) = Pα (α + tβ − tβ) = P (α) = 0.
Ainsi, la seule racine commune de H et Pβ est β, et cette racine ne peut pas être multiple, puisque par
hypothèse, Pβ est séparable.
Ainsi, H ∧ Pβ = X − β .

8
(c) Puisque H ∈ K(θ)[X] et Pβ ∈ K(θ)[X], on a aussi H ∧ Pβ ∈ K(θ)[X], et donc β ∈ K(θ).
On a de plus α = θ−tβ, donc on a aussi /a ∈ K(θ). Ainsi, par minimalité de K(α, β) comme corps contenant
K, α et β, on en déduit que K(α, β) ⊂ K(θ).
Réciproquement, puisque clairement θ ∈ K(α, β) le même argument donne K(θ) ⊂ K(α, β).
Les deux inclusions donnent K(θ) = K(α, β) = L.
(d) Montrons par récurrence sur n ∈ N que si L = K(α1 , . . . , αn ) et si K ⊂ L est séparable de degré fini, alors
il existe θ ∈ L tel que L = K(θ).
Si n = 0, il n’y a rien a démontrer (il suffit de prendre θ = 1). Si n = 1, le résultat est trivial. Le cas n = 2
est celui qu’on a démontré dans la question précédente.
Soit n > 2 tel que le résultat soit vrai pour toute extension séparable de degré fini K ⊂ K(α1 , . . . , αn ). Soit
K ⊂ L une extension séparable de degré fini, telle qu’il existe α1 , . . . , αn+1 tels que L = K(α1 , . . . , αn+1 ).
On a donc L = K(α1 , . . . , αn )(αn+1 ). Par hypothèse de récurrence, il existe λ ∈ L tel que K(α1 , . . . , αn ) =
K(λ). On a alors :
L = K(λ)(αn+1 ) = K(λ, αn+1 ),

et en appliquant la question 1c, il existe θ ∈ L tel que L = K(θ).


D’après le principe de récurrence, pour toute extension séparable de degré fini du type K ⊂ L = K(α1 , . . . , αn ),
il existe θ tel que L = K(θ) .
(e) Il reste à montrer que si K ⊂ L est une extension déparable de degré fini, on peut trouver une famille finie
(α1 , . . . , αn ) d’éléments de L tels que L = K(α1 , . . . , αn ).
Il suffit pour cela de considérer une K-base (α1 , . . . , αn ) de L. En effet,

K(α1 , . . . , αn ) ⊂ L = Vect(α1 , . . . , αn ) ⊂ K(α1 , . . . , αn ),

d’où l’égalité voulue.


On applique la question précédente pour conclure : pour toute extension séparable K ⊂ L de degré fini, il
existe θ ∈ L tel que L = K(θ) (on dit que l’extension est simple).
√ √ √ √
2. Soit α = 2 et β = 3. Puisque 2 et 3 sont irrationnels, leurs polynômes irréductibles sont au moins de
degré 2. On en déduit que Pα = X 2 − 2 et Pβ = X 2 − 3. Le corps de décomposition de Pα Pβ est inclus dans R,
√ √ √ √
et dans ce corps, Pα a deux racines 2 et − 2, tandis que Pβ en a également deux, 3 et − 3. On a donc,
√ √
avec les notations précédentes, r = s = √2, α2 = − 2 et β2 = − 3. En suivant l’argument des questions 1(a) et
1(b), on choisit t distinct de α−α √2
β2 −β = − 3 . Par exemple t = 1 convient. La question 1(c) donne alors :
2

√ √ √ √
Q( 2, 3) = Q( 2 + 3).

Comme on le voit, on a beaucoup d’autres possibilités pour définir θ.


3. C’est une question classique, qu’on a déjà traitée dans un DM. On ne fait qu’en esquisser l’argument. On renvoie
au DM en question pour plus de détails.
Le premier argument est un résultat classique sur l’exposant d’un groupe abélien. Ce résultat affirme que si G
est un groupe abélien d’ordre fini, et si ω(G) désigne le ppcm de l’ordre de tous les éléments de G, il existe
un élément x de G d’ordre ω. Cela se montre en commençant par montrer que si x et y sont d’ordres n et m
premiers entre eux, alors xy est d’ordre nm. Une façon de terminer (qui n’est pas celle du DM) est de dire
que si pα est un facteur de la décomposition primaire de ω(G), il existe un élément dont l’ordre est divisible
par pα . Une de ses puissances est alors d’ordre pα . Ainsi, si pα 1 . . . pn est la décomposition primaire de ω(G),
1 αn
α1
il existe des éléments x1 , . . . , xn d’ordres respectifs p1 , . . . , pn . En effectuant une récurrence à partir du cas
αn

d’un produit de deux termes, on obtient alors que x1 . . . xn est d’ordre ω(G)
On applique ce résultat au groupe abélien (L∗ , ×). On note ω = ω(L∗ ). Soit P = X ω − 1. Par définition de
ω, pour tout x ∈ K ∗ , l’ordre de x divise ω, donc xω = 1, donc x est racine de P . Ainsi, X ω − 1 admet tout
élément de L∗ comme racine de P . Soit n = |L∗ |. Le polynôme P ayant n racines distinctes, il est de degré au
moins n, donc ω > n.

9
Par ailleurs, l’ordre de tout élément x de L∗ divise n d’après le théorème de Lagrange, donc ω divise n, donc
ω 6 n.
On en déduit que ω = n. D’après le premier argument, il existe donc θ ∈ L∗ d’ordre n. Ainsi, hθi = L∗ , donc
L∗ est cyclique.
4. Soit K ⊂ L une extension séparable de degré fini. tel que K soit un corps fini. En fait, l’hypothèse de séparabilité
est ici inutile. L étant un K-ev de dimension finie, la donnée d’une base de cardinal n permet d’obtenir un
système de coordonnée définissant une bijection de K n sur L. Ainsi, |L| = |K|n , donc L est un corps fini. On
peut donc appliquer le résultat de la question précédente : L∗ est un groupe cyclique. Soit θ tel que hθi = L∗ .
On a alors clairement K(θ) = L.

Question subsidiaire (hors barême)


• Si K est de caractéristique nulle, tout polynôme irréductible est séparable (IV-2). Donc toute extension algé-
brique est séparable, donc K est parfait .
• Si K est de caractéristique p 6= 0 et K = {ap , a ∈ K}. Soit K ⊂ L une extension algébrique et α ∈ L. Soit
P = Pα le polynôme irréductible de α.
Si P ′ ∧ P 6= 1, comme P est irréductible, on a nécessairement P ′ ∧ P = P , donc P divise P ′ , ce qui n’est possible
d
que si P ′ = 0. Soit P = ak X k . On a
P
k=0
d
X
P′ = kak X k−1 .
k=1

On a P = 0 si et seulement si kak = 0 pour tout k ∈ [[0, d]]. Puisque k est inversible dans Fp (donc dans K) si

et seulement si k n’est pas divisible pas p (et si k est divisible par p, kak = 0), on en déduit que P ′ = 0 si et
seulement si pour tout k non divisible par p, ak = 0.
Ainsi, P ′ ∧ P 6= 1 si et seulement si P n’est constitué que de monômes de degré divisible par p.
D’après IV-1(b), P est donc inséparable si et seulement P s’écrit sous la forme
m
X
P = bk X kp ,
k=0

donc si et seulement s’il existe un polynôme Q tel que P = Q(X p ).


On en déduit que Q est polynôme annulateur de ap .
Or, considérons l’application ϕ : K → K définie par ϕ(x) = xp est alors surjective. De plus, puisque kp = 0


lorsque k ∈ [[1, p − 1]], la formule du binôme permet d’établir que ϕ(x + y) = ϕ(x) + ϕ(y). Enfin de façon
évidente, ϕ(xy) = ϕ(x)ϕ(y) et ϕ(1) = 1. Ainsi, ϕ est un morphisme de corps (appelé morphisme de Forbenius),
donc en particulier injectif.
On en déduit que ϕ est un isomorphisme de corps. Avec les notations de la partie III, et Pϕ est irréductible.
De plus, ϕ se prolonge en un morphisme ϕ̃ défini de la même façon de L dans L (on perd en revanche la
surjectivité). On a alors
Pϕ (αp ) = ϕ̃(P (α)) = ϕ̃(0) = 0.

Ainsi, Pϕ est le polynôme irréductible de αp , et il est de même degré que P . Cela contredit le fait que Q de
degré strictement plus petit que P annule α.
Ainsi, le polynôme irréductible de tout α ∈ K est séparable donc K ⊂ L est séparable. Ceci étant vrai pour
toute extension algébrique, K est parfait.
• Réciproquement, si K est parfait de caractéristique non nulle p, le morphisme de Frobenius ci-dessus peut
toujours être défini, et est injectif, comme tout morphisme de corps. Il s’agit de montrer sa surjectivité. Si ce
n’est pas le cas, il existe un élément α qui n’est pas dans l’image de ϕ, c’est-à-dire tel que pour tout β ∈ K,
β n 6= β. Considérons un tel α, et adaptons l’argument de IV-3, en considérant P = X p − α. Ce polynôme
n’admet pas de racine dans K, vu le choix de α. Dans un corps de décomposition L, il admet par le même
argument qu’en IV-3, une racine unique θ. Cette racine n’est pas élément de K, son polynôme irréductible est
donc de degré au moins 2, et divise P . Ainsi, il admet une unique racine θ, d’ordre de multiplicité au moins 2.
Ainsi, Pθ est inséparable dans K(θ). Par ailleurs, θ étant algébrique, K(θ) est de dimension finie (voir III-9).

10
Ainsi, l’extension K ⊂ K(θ) est de dimension finie, donc algébrique, et elle n’est pas séparable, puisque le
polynôme irréductible de θ n’est pas séparable. Cela contredit le fait que K est parfait.
Ainsi, si K est parfait de caractéristique non nulle, le morphisme de Frobenius est un isomorphisme .

11
Lycée Louis-Le-Grand, Paris
MPSI 4 – Mathématiques
A. Troesch

Problème no 18 : Espaces vectoriels

Correction du problème 1 – (Extrait de X-ENS 2013) – Opérateurs quantiques modulaires

Partie I – Opérateurs sur les fonctions à support fini

1. (a) • V est défini comme un sous-ensembe de CZ ;


• La suite nulle est à support fini (vide)
• Si u et v sont deux suites à supports finis, et λ ∈ C, (u + λv)(k) est nul dès lors que u(k) = 0 et v(k) = 0.
Ainsi, Supp(u + λv) ⊂ Supp(u) ∪ Supp(v). Une union d’ensembles finis étant finie, on peut conclure que
u + λv est aussi à support fini.
Ainsi, par caractérisation des sous-espaces vectoriels, V est un sous-espace vectoriel de CZ .
(b) • E(f ) est par définition une application de CZ dans lui-même. Montrons sa linéarité : si f et g sont deux
suites de CZ , et λ ∈ C E(f + λg) est défini par :

∀k ∈ Z, E(f + λg)(k) = (f + λg)(k + 1) = f (k + 1) + λg(k + 1) = E(f )(k) + λE(g)(k).

Ainsi, E(f + λg) = E(f ) + λE(g). On en déduit la linéarité de E, puis E ∈ L(CZ ) .


• Si f ∈ V , alors E(f )(k) est nul dès lors que k + 1 6∈ Supp(f ). Ainsi, Supp(E(f )) ⊂ Supp(f ) − 1 =
{k − 1, k ∈ Supp(f )}.
On a même l’égalité, mais l’inclusion est suffisante pour conclure que E(f ) est aussi à support fini, donc
élément de V .
Ainsi, V est stable par E .
(c) On définit Ẽ ∈ L(CZ ) de façon symétrique par :

∀f ∈ CZ , ∀k ∈ Z, Ẽ(f )(k) = f (k − 1).

L’argument précédent s’adapte bien pour justifier que Ẽ peut se restreindre en un endomorphisme de V , et
Ẽ est clairement une réciproque de E. Ainsi, E est un endomorphisme bijectif de V , donc un automorphisme
de V : E ∈ GL(V ) .
2. Pour tout i ∈ Z, on pose vi ∈ CZ définie pour tout k ∈ Z par vi (k) = δi,k , où δi,k est le symbole de Kronecker,
égal à 1 si i = k, et nul sinon.
(a) • Soit f ∈ V , on a directement : X
f= f (i)vi ,
i∈Supp(f )

cette somme étant finie, donc étant bien définie, et définissant un objet de Vect(vi , i ∈ Z). Ainsi, la
famille (vi )i∈Z est une famille génératrice de V .
• Soit (λi )i∈Z une famille de complexes presque tous nuls tels que
X
λi vi = 0,
i∈Z

le 0 désignant la suite nulle. En évaluant cette égalité au point k, il vient :


X
0= λi δi,k = λk .
i∈Z

Ainsi, ∀k ∈ Z, λk = 0, d’où la liberté de la famille (vi )i∈Z .

1
• Des deux points précédents, on déduit que (vi )i∈Z est une base de V .
(b) Soit i ∈ Z. Pour tout k ∈ Z, on a :

E(vi )(k) = vi (k + 1) = δi,k+1 = δi−1,k .

Ainsi, E(vi ) = vi−1 .


Remarquez que c’est cohérent avec le fait que le support de E(f ) est obtenu par translation de −1 du
support de f .

Partie II – Opérateurs quantiques

1. Une application linéaire étant entièrement déterminée par l’image d’une base, on a H ◦ E = q 2 E ◦ H si et
seulement si pour tout i ∈ Z, H ◦ E(vi ) = q 2 E ◦ H(vi ), donc si et seulement si H(vi−1 ) = q 2 E(λ(i)vi ), ou encore
λ(i − 1)vi−1 = q 2 λ(i)vi−1 . Ceci équivaut à dire que pour tout i ∈ Z, λ(i) = q −2 λ(i − 1), donc λ est géométrique
(des deux côtés vers −∞ et +∞)
Ainsi, par deux récurrences immédiates (l’une sur N l’autre sur Z− ), on obtient la condition nécessaire (et
clairement suffisante) : ∀i ∈ Z, λ(i) = λ(0)q −2i .
2. H est dans L(V ) par définition.
La condition de la question précédente étant imposée, λ(i) n’est nul pour aucune valeur de i. On peut alors
définit l’endomorphisme H̃ de V de la même manière que H, par l’image des vecteurs de la base (vi ) :

H̃(vi ) = λ(i)−1 vi .

Alors H̃ est clairement réciproque de H donc H est un automorphisme : H ∈ GL(V ) .


3. À nouveau, E ◦ F = F ◦ E + H − H −1 si et seulement si ces deux applications linéaires coïncident sur les
vecteurs de la base (vi ), donc si et seulement si pour tout i ∈ Z,

E ◦ F (vi ) = F ◦ E(vi ) + H(vi ) − H −1 (vi ).

En explicitant ces expressions, on obtient la condition nécessaire et suffisante :

µ(i)vi = µ(i − 1)vi + λ(i)vi − λ(i)−1 vi ,

ce qui équivaut à
µ(i) = µ(i − 1) + λ(0)q −2i − λ(0)−1 q 2i ,

du fait de l’expression imposée des λ(i).


4. Puisque q est une racine ℓ-ième de 1, il en est de même de q −2 . Ainsi, (q −2 )ℓ = 1, donc λ est ℓ-périodique .
La relation de récurrence trouvée pour µ implique que pour tout i ∈ Z,
ℓ ℓ 2 ℓ
X X 1 − (q −2 )ℓ −1 1 − (q )
µ(i + ℓ) = µ(i) + λ(0) q −2j + λ(0)−1 q 2j = µ(i) + λ(0)q −2j + λ(0) = µ(i),
j=1 j=1
1 − q −2 1 − q2

puisque q 2 et q −2 sont des racines ℓ-ièmes de l’unité. Ainsi, µ est ℓ-périodique .


5. Soit C = (q − q −1 )E ◦ F + q −1 H + qH −1 .
(a) Les conditions de la question 3 étant réunies, on a

C = (q − q −1 )(F ◦ E + H − H −1 ) + q −1 H + qH −1 .

Une simplification facile amène :

C = (q − q −1 )F ◦ E + qH + q −1 H −1

2
(b) On justifie que C coïncide sur les éléments de la base (vi ) avec une certain homothétie. Soit i ∈ Z. On a :

C(vi ) = (q − q −1 )F (vi−1 ) + qλ(i)vi + q −1 λ(i)−1 vi = (µ(i − 1)(q − q −1 ) + qλ(i) + q −1 λ(i)−1 )vi .

Montrons que l’expression ki = (µ(i − 1)(q − q −1 ) + qλ(i) + q −1 λ(i)−1 ) est indépendante de i. Cela provient
du fait que la condition de la question 3 se réécrit :

µ(i) = µ(i − 1) + λ(i) − λ(i)−1 .

On a alors, pour tout i ∈ Z

ki+1 = µ(i)(q − q −1 ) + qλ(i + 1) − q −1 λ(i + 1)−1


= (µ(i − 1) + λ(i) − λ(i)−1 )(q − q −1 ) + q −1 λ(i) − qλ(i)−1
= µ(i)(q − q −1 ) + qλ(i) − q −1 λ(i)−1 )
= ki .

Ainsi, pour tout i ∈ Z, ki+1 = ki , donc (ki ) est une suite constante, égale à un certain réel k. On a alors,
pour tout i ∈ Z, C(vi ) = kvi . Ainsi, C coïncide sur la base (vi ) avec kId. On en déduit que C = kId, donc
que C est une homothétie de rapport k .

Partie III – Opérateurs quantiques modulaires

1. Pour tout i ∈ [[0, ℓ − 1]], la division euclidienne de i par ℓ s’écrit i = pℓ + r avec p = 0 et r = i. Ainsi, Pa (vi ) = vi .
Par linéarité, cette égalité reste vraie sur Wℓ : Wℓ est inclus dans l’ensemble des points fixes.
Soit maintenant i ∈ Z, et p et r le quotient et le retse de la division euclidienne de i par ℓ. D’après ce qui
précède, puisque r ∈ [[0, ℓ − 1]],

Pa ◦ Pa (vi ) = Pa (ap vr ) = ap Pa (vr ) = ap vr = Pa (vi ).

Ainsi, Pa ◦ Pa et Pa coïncident sur une base, donc sont égales. On en déduit que Pa est un projecteur .
Par définition, Pa (Wℓ ) ⊂ Wℓ , et on a vu que les points de Wℓ sont tous des points fixes (donc sont dans l’image
de Pa ). Ainsi, Im(Pa ) = Wℓ .
2. (a) Supposons que ϕ ∈ L(V ) commute avec Pa . On a alors :

Pa ◦ ϕ ◦ Pa = Pa ◦ Pa ◦ ϕ = Pa ◦ ϕ.

Ainsi, ϕ est compatible avec Pa .


(b) Soit i ∈ Z, et p et r le quotient et le reste de la division euclidienne de i par ℓ. On a

Pa ◦ H ◦ Pa (vi ) = Pa ◦ H(ap vr ) = Pa (ap λ(r)vr ) = ap λ(r)vr .

D’un autre côté,


Pa ◦ H(vi ) = Pa (λ(i)vi ) = λ(i)ap vr .
Or, λ est ℓ-périodique, donc λ(i) = λ(r). Ainsi, Pa ◦ H ◦ Pa et Pa ◦ H coïncident sur une base, donc sont
égales. On en déduit que H est compatible avec Pa .
Puisque H −1 est défini comme H en remplaçant λ par λ−1 qui est aussi ℓ-périodique, on peut aussi affirmer
que H −1 est aussi compatible avec Pa .
3. • L’application nulle est évidemment compatible avec Pa .
• La bilinéarité de la composition des applications linéaires montre que Uq est stable par combinaisons linéaires.
• L’application identité est dans Uq car Pa ◦ Pa = Pa
• Si u et v sont dans Uq , u ◦ v également, car :

Pa ◦ u ◦ v ◦ Pa = (Pa ◦ u ◦ Pa ) ◦ v ◦ Pa = Pa ◦ u ◦ (Pa ◦ v ◦ Pa ) = Pa ◦ u ◦ (Pa ◦ v) = (Pa ◦ u ◦ Pa ) ◦ v = (Pa ◦ u) ◦ v.

Ainsi, Uq est une sous-algèbre de L(V ) .

3
4. On a, pour tout i ∈ ZZ, avec les notations précédentes

 ap v
r−1 si r 6= 0
Pa ◦ E ◦ Pa (vi ) = Pa ◦ E(ap vr ) = Pa (ap vr−1 ) =
a−1 ap vℓ−1 si r = 0.

D’un autre côté, si ℓ ne divise pas i (donc r 6= 0), le reste de la division euclidienne de i − 1 par ℓ est r − 1, et le
quotient p, alors que si ℓ divise i, alors le reste de la division euclidienne de i − 1 par ℓ est ℓ − 1 et le quotient
p − 1. On a donc : 
 ap v
r−1 si a 6= 0
Pa ◦ E(vi ) = Pa (vi−1 ) =
ap−1 vℓ−1 si r = 0.

On conclut comme précédemment que E est compatible avec Pa , donc E ∈ Uq .


Un raisonnement similaire convient pour F :

µ(r)ap v
r+1 si r 6= ℓ − 1
Pa ◦ F ◦ Pa (vi ) = Pa ◦ F (ap vr ) = Pa (µ(r)ap vr+1 ) =
µ(r)ap+1 v0 si r = ℓ − 1,

alors que d’un autre côté :



µ(i)ap v
r+1 si r 6= ℓ − 1
Pa ◦ F (vi ) = Pa (µ(i)vi+1 ) =
µ(r)ap+1 v0 si r = ℓ − 1.

On conclut en utilisant la ℓ-périodicité de µ : F ∈ Uq .


5. (a) On procède par analyse-synthèse :
• Analyse. Soit ϕ ∈ Uq , et supposons qu’il existe Ψa (ϕ) = ψ ∈ L(Wℓ ) tel que ψ ◦ Pa = Pa ◦ ϕ. Pour tout
i ∈ [[0, ℓ − 1]], on a alors
ψ(vi ) = ψ(Pa (vi )) = Pa ◦ ϕ(vi ).

Ainsi, ψ(vi ) est défini de façon unique. Ceci prouve l’unicité de Ψa (ϕ) (les vi , 0 6 i < ℓ formant une
base de Wℓ ), sous reserve d’existence, donc aussi l’ unicité de Ψa .
• Synthèse. Pour tout ϕ ∈ Uq , on définit Ψa (ϕ) ∈ L(Wℓ ) par l’image de la base (v0 , . . . , vℓ−1 ) :

Ψa (ϕ)(vi ) = Pa ◦ ϕ(vi ).

Cela définit bien une application linéaire Ψa (ϕ). Par conséquent, Ψa est définie de Uq dans Wℓ . Par
ailleurs, la linéarité de Pa montre que Ψa est linéaire. Enfin, pour tout ϕ et ψ dans Uq ,

Ψa (ϕ ◦ ψ) = Pa ◦ ϕ ◦ ψ = (Pa ◦ ϕ ◦ Pa ) ◦ ψ = Ψa (ϕ) ◦ Ψa (ψ).

Ainsi, Ψa est un morphisme d’algèbre .


(b) On remarqueXque par définition, ϕ ∈ Ker(Ψa ) si et seulement si Im(ϕ) ⊂ Ker(Pa ). On décrit donc Ker(Pa ) :
• Soit u = λi vi ∈ Ker(Pa ), les λi étant presque tous nuls. On a alors
i∈I

ℓ−1 X
X
u= λpℓ+r vpℓ+r ,
r=0 p∈Z

d’où
ℓ−1 X
X
0 = Pa (u) = λpℓ+r ap vr .
r=0 p∈Z

Ainsi, par liberté de la famille (vi ), pour tout r ∈ [[0, ℓ − 1]],


X X
λpℓ+r ap = 0 donc: λr = − λpℓ+r ap .
p∈Z p∈Z∗

4
On peut alors réécrire :
   
ℓ−1
X X X ℓ−1
X X
u=  λpℓ+r vpℓ+r − λpℓ+r ap vr  =  λpℓ+r (vPℓ+r − ap vr  .
r=0 p∈Z∗ p∈Z∗ r=0 p∈Z∗

Toutes les sommes considérées sont finies, ce qui justifie toutes les manipulations qu’on effectue dessus,
et qui assure qu’à l’issue de ce calcul, on peut conclure que

Ker(Pa ) ⊂ Vect(vPℓ+r − ap vr , p ∈ Z∗ , r ∈ [[0, ℓ − 1]]).

• Réciproquement, la définition de Pa amène directement, pour tout p ∈ Z∗ et tout r ∈ [[0, ℓ − 1]],

vPℓ+r − ap vr ∈ Ker(Pa ),

d’où l’inclusion réciproque : Vect(vPℓ+r − ap vr , p ∈ Z∗ , r ∈ [[0, ℓ − 1]]) ⊂ Ker(Pa ).


• On en déduit que
Ker(Pa ) = Vect(vPℓ+r − ap vr , p ∈ Z∗ , r ∈ [[0, ℓ − 1]]) ,

puis que
Ker(Ψa ) = {ϕ ∈ Uq | Im(ϕ) ⊂ Vect(vPℓ+r − ap vr , p ∈ Z∗ , r ∈ [[0, ℓ − 1]]) .
6. Ψa (F ) est nipotent s’il existe n ∈ N∗ tel que Ψa (F )n = 0, donc, Φa étant un morphisme d’algèbre, si Ψa (F n ) = 0.
Or, F n envoie vj sur µ(i) · · · µ(j + n − 1)vi+n . Supposons que F n (vi ) ∈ Vect(vj − ap vr ). ces derniers vecteurs
étant nuls pour i ∈ [[0, ℓ − 1]], on peut donc écrire
X
F n (vi ) λj (vj − ap(j) vr(j) ).
j6∈[[0,ℓ−1]]

• Si i + n 6∈ [[0, ℓ − 1]], L’identification des composantes sur vj , j ∈∈ [[0, ℓ − 1]], amène alors

λi+n = µ(i) · · · µ(j + n − 1) et λj = 0 si j 6= i + n.

Ainsi, si F n (vi ) ∈ Vect(vj − ap vr ), alors

F n (vi ) = µ(i) · · · µ(j + n − 1)(vi+n − ap(i+n) vr(i+n) ).

En comparant à l’expression initiale, on a nécessairement µ(i) · · · µ(j + n − 1) = 0, et au final, F lui-même


est nilpotent, et au moins un des coefficients de la suite µ est nul.
• Si i + n ∈ [[0, ℓ − 1]], on obtient la même chose, les li étant ici directement tous nuls
La question précédente nous permet alors d’affirmer que Φa (F ) est nilpotent si et seulement si l’un des termes
de la suite µ est nul (la réciproque étant évidente, en considérant F ℓ , en se sovenant que µ est ℓ-périodique).
En utilisant l’expression du facteur d’homothétie k trouvé dans la partie II, on trouver la CNS sur k : Φa (F )
est nilpotent si et seulement si il existe i tel que

k = qλ(i) + q −1 λ(i)−1 = λ(0)(q −(2i−1) + q 2i−1 ).

Ainsi, Ψa (F ) est nilpotent ssi k ∈ {λ(0)(q −(2i−1) + q 2i−1 ), i ∈ [[0, ℓ − 1]]} .

5
Lycée Louis-Le-Grand, Paris
MPSI 4 – Mathématiques
A. Troesch

Problème no 19 : Algèbre linéaire matricielle

Correction du problème 1 – (Trigonalisation des algèbres nipotentes, d’après X 1996)

Partie I – Questions préliminaires

1. Soit r l’ordre de nilpotence de A, et t un élément de A. En posant pour tout i ∈ [[1, r]], ti = t, on a, par
nilpotence de A :
tr = tr ◦ · · · ◦ t1 = 0.

Ainsi, t est nilpotent, d’indice de nilpotence inférieur ou égal à r .


2. Tout d’abord, il s’agit bien d’une sous-algèbre. En effet, elle contient 0 et est clairement stable par combinaison
linéaire et produit (ces opérations laissant stables l’ensemble des matrices strictement triangulaires supérieures)
Soit f1 , . . . , fn des éléments de T . On a alors

MatB (fn ◦ · · · ◦ f1 ) = MatB (fn ) · · · MatB (f1 ).

Or, les matrices MatB (fi ) sont strictement triangulaires supérieures. En notant Tn,k l’ensemble des matrices
triangulaires supéieures dont les k premières diagonales sont nulles, on sait, d’après le cours, que Tn,k1 · Tn,k2 ⊂
Tn,k1 +k2 . Ainsi, en particulier, le produit de n matrices strictement triangulaires supérieures (donc des éléments
de Tn,1 ) est dans Tn,n = {0}.
On en déduit que MatB (fn ◦ · · · ◦ f1 ) = 0, puis que fn ◦ · · · ◦ f1 = 0. Ainsi, T est une sous-algèbre nilpotente.
Ce qui précède nous assure que l’ordre de nilpotence de T est majoré par n. Par ailleurs, en considérant J la
matrice de Jordan constituée de 0 partout sauf sur la diagonale juste au-dessus de la diagonale principale, un
calcul fait en cours nous assure que J n−1 6= 0 et J n = 0. Ainsi, J est nilpotente, d’indice exactement n. Cet
exemple montre que T est au moins d’ordre de nilpotence n.
Par conséquent, l’ordre de nilpotence de T est exactement n .
3. Soit S l’ensemble des endomorphismes de l’espace E représentés dans la même base B par une matrice
strictement triangulaire inférieure . Il s’agit, pour les mêmes raisons, d’une sous-algèbre nilpotente.
La seule matrice à la fois strictement triangulaire supérieure et strictement triangulaire inférieure étant la
matrice nulle, on a bien T ∩ S = {0} .

4. Soit A l’ensemble des endomorphismes dont la matrice dans la base B est de la forme λK , où K est la
matrice dont tous les coefficients sont nuls, à part un 1 en position (1, n). Cette matrice vérifie K 2 = 0, et A est
clairement non vide et stable par combinaison linéaire et produit. De plus, A est clairement nilpotente (d’ordre
de nilpotence égal à 2), et non nulle, ni égale à T (puisque la matrice de Jordan par exemple n’est pas de la
forme λK, lorsque n > 3).

Partie II – Le cas de la dimension 2


Dans cette partie, E est un espace vectoriel sur E de dimension 2.
1. Soit t un endomorphisme nilpotent non nul de E, et r son indice de nilpotence.
(a) t ne peut pas être un automorphisme, sinon tr serait également bijective, ce qui contredit tr = 0.
Ainsi, par caractérisation des automorphismes en dimension finie, t ne peut être ni injective, ni surjective .

1
(b) En particulier, t n’étant pas injective, Ker(t) n’est pas nul, donc dim(Ker(t)) > 1. De plus, t est non
nul, donc Ker(t) 6= E, donc dim(Ker(t)) 6 1. Ainsi dim(Ker(t)) = 1 , et d’après le théorème du rang,
dim(Im(t)) = rg(t) = dim(E) − dim(Ker(t)) = 1.
(c) • Analyse. Une telle base B = (b1 , b2 ) doit vérifier t(b1 ) = 0 et t(b2 ) = b1 6= 0. Ainsi, en particulier,
b2 6∈ Ker(t).
• Synthèse. Soit b2 non nul dans E \ Ker(t) (ce qui est possible du fait du calcul des dimensions). Si on
montre comme on a fait dans le cours que t est nilpotente d’indice 2, on peut poser b1 = t(b2 ), qui
sera un élément du noyau. Cela ne semble pas être la philosophie de l’énoncé. On va donc se débrouiller
sans ce résultat. Par définition de b2 , Vect(b2 ) ∩ Ker(t) = {0}, et du fait des dimensions, on a donc
E = Vect(b2 ) ⊕ Ker(t). Soit alors t(b2 ) = λb2 + k la décomposition de t(b2 ) dans cette somme. On
montre alors sans peine par récurrence que pour tout m ∈ N∗ , t(bm m
2 ) = λ b2 + λ
m−1
k. Ainsi, si λ 6= 0,
la composante λm b2 sur le premier facteur de la somme directe est non nulle, donc tm (b2 ) 6= 0. Cela
contredit la nilpotence de t. Ainsi, λ = 0, et t(b2 ) ∈ Ker(t).
On pose donc b1 = f (b2 ). Comme b2 6∈ Ker(t), b1 6= 0, donc forme à lui seul une famille libre. Comme
b2 6∈ Vect(b1 ) = Ker(t), B = (b1 , b2 ) est une famille libre, donc une base
! de E.
0 1
On a par construction t(b1 ) = 0 et t(b2 ) = b1 , donc MatB (t) = .
0 0
!
0 0
Un calcul direct amène MatB (t)2 = , donc t est nilpotente d’indice r = 2 .
0 0
2. Soit A une sous-algèbre commutative nilpotente
! non nulle de L(E). Soit t0 un élément non nul de A, et
0 1
B = (b1 , b2 ) telle que MatB (t0 ) = .
0 0
(a) Soit t ∈ A. On a alors
t0 ◦ t(b1 ) = t ◦ t0 (b1 ) = t(0) = 0.
Ainsi, t(b1 ) ∈ Ker(t0 ) = Vect(b1 ). On en déduit que t(b1 ) et b1 sont colinéaires.
Ainsi, il existe λ tels que t(b1 ) = λb1 . En itérant, pour tout m ∈ N∗ , tm (b1 ) = λm b1 . Si λ 6= 0, cela contredit
la nilpotence de T . Ainsi, λ = 0, donc t(b1 ) = 0 .
(b) Si t est non nul, son noyau est de dimension 1, et la question précédente montre que b1 en est un élément.
Donc Ker(t) = Vect(b1 ). Par ailleurs, l’argument donné dans la question 1(c) montre ! que t(b2 ) ∈ Ker(t).
0 a
Ainsin il existe un scalaire a tel que t(b2 ) = ab1 . On en déduit que MatB (t) = = aMatB (t0 ), donc
0 0
t = at0 . Ainsi, A ⊂ Vect(t0 ). L’autre inclusion est évidente, puisque A est un sous-espace vectoriel de L(E)
contenant t0 .
Ainsi, A = Vect(t0 ) .
3. On ne suppose plus que A est commutative. L’argument de la question 1(c) (ou l’argument du cours) reste
valable, et nous assure que tout élément de A est nilpotent d’indice 2. On a alors, avec les données précédentes,
puisque t + t0 ∈ A (A étant un espace vectoriel)

0 = (t + t0 )2 = t2 + t ◦ t0 + t0 ◦ t + t20 = t ◦ t0 + t0 ◦ t.

Ainsi, t ◦ t0 = −t0 ◦ t.
On peut alors remplacer dans l’argument de 2(a) l’égalité de commutation par cette dernière égalité. Le signe
qui s’ajoute ne perturbe pas le raisonnement.
Ainsi, le résultat reste vrai même si l’algèbre n’est pas supposée commutative .
Le résultat obtenu nous assure que de fait, l’algèbre obtenue sera bien commutative. On vient en fait de montrer
qu’il n’existe pas dans L(E) de sous-algèbre nilpotente non commutative (en dimension 2).

Partie III – Trigonalisation des endomorphismes nilpotents


Dans cette partie, E est de dimension n > 0. On considère un endomorphisme T nilpotent non nul de E, et on note
r son indice de nilpotence. On pose E1 = Im(t) ∩ Ker(t).

2
1. • Puisque t est non nul, Ker(t) est un sous-espace vectoriel strict de E, donc E1 aussi. Ainsi, E1 6= E
• Puisque t est non nul, Im(t) 6= 0. De plus, {0} = Im(tr ) = T r−1(Im(t)) = Im(t̃r−1 ), où t̃ est l’endomorphisme
induit par t sur le sous-espace (trivialement stable) Im(t). Ainsi, t̃r−1 étant l’endomorphisme nul d’un espace
non nul, elle n’est pas une bijection, donc t̃ non plus. Par caractérisation des automorphismes en dimension
finie, t̃ n’est pas injective, donc

{0} 6= Ker(t̃) = Ker(t) ∩ Im(t) = E1

2. E1 = Im(t) si et seulement si Ker(t) ⊂ Im(t), si et seulement si t2 = 0. Comme t 6= 0, cette dernière égalité


équivaut à r = 2 .
3. (a) Par définition de E3 , Im(t) ⊕ E3 = E. Par définition de E1 , E1 ⊕ E2 = Im(t). Par associativité de la somme
(et du caractère direct), E1 ⊕ E2 ⊕ E3 = E .
(b) Soit B une base de E adaptée à la décomposition E = E1 ⊕ E2 ⊕ E3 . Notons B1 , B2 et B3 les 3 bases
associées de E1 , E2 et E3 . On considère le découpage par blocs sur les lignes et sur les colonnes associée à
cette partition de B : ainsi, les différents blocs Ti,j ont un nombre de lignes égal à dim(E1 ) si i = 1, dim(E2 )
si i = 2, et dim(E3 ) si i = 3. Et de même pour les colonnes.
• Pour tout bi de B1 , bi ∈ E1 = Im(t) ∩ Ker(t), T (bi ) est nul, donc la colonne correspondante est nulle.
Ainsi, les 3 blocs de la première colonne sont nuls, cette première colonne correspondant au groupement
des vecteurs de B1 .
• Pour tout bi ∈ B2 ∪ B3 , t(bi ) ∈ Im(t) = E2 ⊕ E3 . Ainsi, t(bi ) se décompose uniquement sur B1 et B2 , et
les coordonnées sur B1 sont nulles. Cela correspond à la nullité des blocs A3,2 et A3,3 (avec l’indexation
que vous imaginez).
 
0 T1,2 T1,3
Ainsi, la matrice de t relativement à la base B est bien de la forme MatB (t) = 0 T2,2 T2,3  .
 

0 0 0
(c) D’après les règles du produit matriciel par blocs, et le fait que les coefficients diagonaux d’un produit de
deux matrices triangulaires supérieures sont égaux aux produit des coefficients diagonaux correspondants,
on obtient la description suivantepar blocs :
 
0 ∗ ∗
0 = MatB (tr ) = (MatB (t))r = 0 T2,2 r
∗ ,
 

0 0 0

où ∗ désigne un bloc quelconque.


Ainsi, T2,2
r
= 0. On en déduit que T2,2 est nilpotente, d’indice au plus égal à r.
4. On raisonne par récurrence forte sur n ∈ N Pour n = 1, il n’y a pas grand chose à démontrer, un endomorphisme
ayant une matrice scalaire (a) : il ne peut être nilpotent que si a = 0. Le cas n = 2 découle de la partie II.
Soit n tel que la propriété soit vraie sur tout espace vectoriel E de dimension strictement inférieure à n, et soit
t un endomorphisme nilpotent. On reprend la base et la décomposition en blocs de la question précédente. La
matrice T2,2 définit sur E2 un endomorphisme u dont la matrice dans B2 est T2,2 . Comme T2,2 est nilpotente,
u l’est également. Ainsi, par hypothèse de récurrence (puisque dim(E2 ) ∈ [[1, n − 1]] d’après la question 1), il
existe une base B2′ de E2 telle que MatB2′ (u) soit strictement triangulaire supérieure. Soit B ′ la base obtenue
par juxtaposition de B1 , B2′ et B3 , et T ′ la matrice de t dans cette base, de blocs Ti,j

. Le bloc T2,2

correspond
alors à la matrice de u dans la base B2 , soit T2,2 = MatB2′ (u). Ainsi, T2,2 est strictement triangulaire inférieure,
′ ′ ′

et d’après les autres blocs, on en déduit que T ′ est strictement triangulaire supérieure.
Ainsi, d’après l’axiome de récurrence, pour tout t endomorphisme nilpotent d’un espace de dimension finie, il
existe une base B ′ de E telle que MatB′ (t) soit strictement triangulaire supérieure .
5. Soit T = MatB′ (t). Puisque T ∈ Tn++ = Tn,1 , on a d’après le cours, T k ∈ Tn,k , et donc en particulier, T n = 0.
Ainsi, tn = 0, donc r 6 n. C’est un résultat qu’on avait démontré de façon différente en exemple de cours, en
considérant une famille libre formée des tk (x) où x ∈ E \ Ker(tr−1 ).

3
6. On commence par déterminer l’image et le noyau. On a intérêt à trouver un système générateur le plus simple
possible de l’image, afin de simplifier les calculs. On précède donc par pivot (double) sur les colonnes :
     
−1 1 1 0 −1 0 0 0 −1 0 0 0
−3 2 3 1 −3 −1 0 1
  −3 1 0 −1
Im   = Im   = Im 
   

 2 −1 −1 0 2 1 1 0 2 0 1 1
−2 1 1 0 −2 −1 −1 0 −2 0 −1 −1
   
1 0 0 0 1 0 0 0
3 1 0 0 0 1 0 0
= Im   = Im 
   
−2 0 1 0 0 0 1 0

2 0 −1 0 0 0 −1 0

Ainsi, en notant (e1 , e2 , e3 , e4 ) la base canonique, une base de l’image est (e1 , e2 , e3 − e4 ).
En particulier, t est de rang 3, donc son noyau est de dimension 1. Or, on a une relation simple sur les colonnes
 
0
1
de T : C2 − C3 + C4 = 0. Ainsi, Ker(T ) = Vect   = Vect(e2 − e3 + e4 ).
 
−1
1
Ce vecteur est bien dans Im(T ) (c’est la différence des deux derniers vecteurs de la base de Im(T )). Ainsi,
Ker(t) ⊂ Im(t), donc
E1 = Ker(t) ∩ Im(t) = Vect(e2 − e3 + e4 ) .
     
0 0 1
1  1  0 
Les vecteurs   et   sont non colinéaires, donc forment une famille libre. Par ailleurs, le vecteur  
     
0 −1 0 
0 1 0
   
0 0
1  1 
n’est pas dans Vect   ,   (par examen de la première coordonnée). Ainsi, (e2 − e3 + e4 , e1 , e2 ) est
   
0 −1
0 1
une famille libre de vecteurs de Im(t). Cet espace étant de dimension 3, il s’agit d’une base de Im(t).
Ainsi, un supplémentaire de E1 dans Im(t) est (par exemple) E2 = Vect(e1 , e2 ) .
Enfin, on remarque que (e1 , e2 , e3 − e4 , e4 ) est échelonnée : la matrice dans la base canonique de cette famille
est triangulaire inférieure à coefficients diagonaux non nuls. Il s’agit d’une base de E. Les 3 premiers de ces
vecteurs formant une base de Im(t), on en déduit un supplémentaire de cet espace :

E3 = Vect(e4 ) .

On considère donc la base B ′ = (e2 − e3 + e4 , e1 , e2 , e4 ) = (b′1 , b′2 , b′3 , b′4 ). On a :


• t(e2 − e3 + e4 ) = 0 (c’est un vecteur du noyau)
• t(e1 ) = −e1 − 3e2 + 2e3 − 2e4 = −2(e2 − e3 + e4 ) − e1 − e2 = −2′ b1 − b′2 − b′3
• t(e2 ) = e1 + 2e2 − e3 + e4 = (e2 − e3 + e4 ) + e1 + e2 = b′1 + b′2 + b′3
• t(e4 ) = e2 = b′3 .
Ainsi,
 
0 −2 1 0
0 −1 1 0
MatB′ (t) = 
 

0 −1 1 1
0 0 0 0
!
−1 1
On fait de même sur la matrice du milieu T ′ = , représentant, dans E2 , un endomorphisme t′ ,
−1 1
relativement à la base (b′2 , b′3 ). On a alors facilement Im(t′ ) = Vect(b′2 , b′3 ) = Ker(t′ ). Ainsi, on pose b2 = b′2 + b′3 .

4
Il n’y a pas de supplémentaire à prendre dans Im(t′ ), et un supplémentaire dans E2 est Vect(b′2 ). Ainsi, on pose
b3 = b′2 . On a alors : !
′ 0 1
Mat(b2 ,b3 ) (t ) = .
0 0

On pose enfin B = (b′1 , b2 , b3 , b′4 ) = (e2 − e3 + e4 , e1 + e2 , e1 , e4 ) . On a dans cette base :

 
0 −2 1 0
0 0 −1 0
MatB (t) = 
 

0 0 0 1
0 0 0 0

Partie IV – Trigonalisation d’une sous-algèbre nilpotente de L(E)

1. (a) Supposons que I(A) = E, et soit F un sous-espace vectoriel strict de E. Si pour tout u ∈ A, Im(u) ⊂ F ,
leur somme aussi, ce qui contredit I(A) = E. Ainsi, il existe u ∈ A tel que Im(u) 6⊂ F .
(b) On suppose toujours I(A) = E. On construit par récurrence une suite (un )n∈N telle que pour tout k ∈ N∗ ,
u1 ◦ u2 ◦ · · · ◦ uk 6= 0.
On initialise en se donnant u1 non nul dans A, ce qui existe pas construction.
Soit k ∈ N∗ , on suppose que u1 ◦ u2 ◦ · · · ◦ uk 6= 0. On a donc Ker(u1 ◦ · · · ◦ uk ) 6= E. D’après la question
précédente, il existe uk+1 ∈ A tel que Im(uk+1 ) 6⊂ Ker(u1 ◦ · · · ◦ uk ). Ainsi, il existe y ∈ E tel que
uk+1 (y) 6∈ Ker(u1 ◦ · · · ◦ uk ), donc u1 ◦ · · · ◦ uk ◦ uk+1 (y) 6= 0. Ainsi, u1 ◦ · · · ◦ uk+1 6= 0.
D’après l’axiome de récurrence, notre suite (un )n∈N est construite, et contredit la nilpotence de A. Ainsi,
I(A) 6= E
2. • D’après ce qui précède, E1 = I(A) ∩ K(A) 6= E
• Supposons I(A) ∩ K(A) = {0}. Comme dans la question précdente, on peut alors construire une suite
infinie donc les composées successives sont non nulles. En effet, on considère u1 non nulle dans A. Alors
Im(u1 ) ⊂ I(A), donc Im(u1 ) ∩ K(A) = {0}. On en déduit l’existence de u2 ∈ A tel que Im(u1 ) 6⊂ Ker(u2 )
(sinon, Im(u1 ) est inclus dans K(A), et l’intersection ne peut pas être {0} puisque Im(u1 ) 6= {0}). Ainsi,
u2 ◦ u1 6= 0. Plus généralement, si uk ◦ · · · ◦ u1 6= 0, alors Im(uk ◦ · · · ◦ u1 ) est non nul et inclus dans Im(uk )
donc dans I(A). Par le même argument, il existe donc uk+1 tel que Im(uk ◦ · · · ◦ u1 ) 6⊂ Ker(uk+1 ), donc
uk+1 ◦ uk ◦ . . . u1 6= 0.
Par axiome de récurrence, on obtient une suite infinie d’éléments de A dont les composées sont non nulles,
ce qui contredit la nilpotence de A. Ainsi, I(A) ∩ K(A) 6= {0}
3. Si E1 = I(A), alors, pour tout (u, v) ∈ A2 ,

Im(u) ⊂ I(A) = E1 = I(A) ∩ K(A) ⊂ K(A) ⊂ Ker(v).

Ainsi, v ◦ u = 0. Ainsi, r 6 2. Puisque A est non nulle, r = 2 .


Réciproquement, si r = 2, soit u ∈ A. On a alors, pour tout v ∈ A, v ◦ u = 0, donc Im(u) ⊂ Ker(v). Cette
inclusion étant vérifiée pour tout v de A, on en déduit Im(u) ⊂ K(A). Puisque ceci est vrai pour tout u de A,
et puisque K(A) est un sous-espace vectoriel de E (donc stable par somme), on en déduit que I(A) ⊂ K(A) .
4. Soit t ∈ A et T sa matrice dans la base B. Notons (Ti,j )16i,j63 sa représentation par blocs associée à la partition
de la base B en B1 , B2 et B3 .
• Soit b ∈ B1 . Alors b ∈ K(A) ⊂ Ker(t), donc t(b) = 0. Ainsi, la colonne correspondante de la matrice T est
nulle. Cela donne Ti,1 = 0, pour i ∈ [[1, 3]].
• Soit b ∈ B2 ∪ B3 . Alors t(b) ∈ Im(t) ⊂ I(A). Comme B1 ∪ B2 est une base de I(A), la décomposition de t(b)
dans la base B ne fait intervenir que ces vecteurs, et les coordonnées sur la base B3 sont nulles. Ainsi, les
coordonnées sur B3 des colonnes correspondantes de T sont nulles. On obtient donc T3,2 = 0 et T3,3 = 0.

5
Ainsi, on a bien la représentation suivante de T :
 
0 T1,2 T1,3
MatB (t) = T = 0 T2,2 T2,3  .
 

0 0 0

De plus, t est niloptente, d’indice inférieur à r, donc tr = 0, soit T r = 0. Or, les règles de produit des matrices
triangulaires nous assurent, comme dans la partie III, que
 
0 ∗ ∗
T r = 0 T2,2r
∗ .
 

0 0 0

L’égalité T r assure donc T2,2


r
= 0. On en déduit que T2,2 est nilpotente d’indice au plus r.
5. (a) • Pour commencer, puisque A est non vide, A2,2 est non vide, et de façon évidente, A2,2 ⊂ E2 .
• Soit s1 et s2 dans A2,2 , et λ ∈ K. Il existe t1 et t2 dans A tels que les matrices T1 et T2 aient une
représentation par blocs tels que (T1 )2,2 soit la matrice de s1 dans la base B2 et (T2 )2,2 soit la matrice de
s2 dans la base B2 . Alors T1 + λT2 est la matrice de t1 + λt2 ∈ A et son bloc central est (T1 )2,2 + λ(T2 )2,2 ,
représentant dans la base B2 l’endomorphisme s1 + λs2 . Ainsi, s1 + λs2 ∈ A2,2 . On en déduit que A2,2
est un sous-espace vectoriel de E2 .
• Le même argument montre que si s1 est « associé » à t1 (par la construction ci-dessus) et s2 associé à
t2 , alors s1 ◦ s2 est associé à t1 ◦ t2 ∈ A (puisque A est une algèbre). Donc s1 ◦ s2 ∈ A2,2 .
Ainsi, A2,2 est une sous-algèbre de L(E2 ) .
Soit r l’ordre de nilpotence de A, et s1 , . . . , sr des éléments de A2,2 associés à des éléments t1 , . . . , tr de A.
Par itération de l’argument précédent montrant la stabilité de A2,2 par produit, le produit s1 ◦ · · · ◦ sr est
associé à t1 ◦· · ·◦tr . Or cette dernière composée est nulle (car A est nilpotente d’ordre r), donc s1 ◦· · ·◦sr = 0.
On en déduit que A2,2 est nilpotente.
(b) Si A2,2 = {0}, alors pour tout t ∈ A, T2,2 = 0, donc T = MatB (t) est strictement triangulaire supérieure par
blocs. Comme il s’agit d’une description par blocs de type (3, 3), on en déduit, d’après les règles de produit
des matrices triangulaires, que T 3 = 0, donc t3 = 0. Ainsi, r 6 3. Comme on a supposé r > 3, on a donc
r=3.
(c) Réciproquement, supposons A2,2 6= {0}, et soit s ∈ A2,2 non nul, et t ∈ A associé. Il existe donc x ∈ E2 tel
que s(x) 6= 0, donc t(x) 6∈ E1 . Ainsi, t(x) 6∈ I(A) ∩ K(A). Or, t(x) ∈ I(A), donc t(x) 6∈ K(A). Il existe donc
u ∈ A tel que t 6∈ Ker(u), donc u ◦ t(x) 6= 0.
Par ailleurs, x ∈ E2 ⊂ I(A), par conséquent, il existe v1 , . . . , vk dans A et y1 , . . . , yk dans E tels que
k
X
x= vi (yi ).
i=1

On en déduit que !
k
X k
X
0 6= u ◦ t(x) = u ◦ t vi (yi ) = u ◦ t ◦ vi (yi ).
i=1 i=1

Ceci n’est possible que si l’un des vecteurs u ◦ t ◦ vi (yi ) est non nul, ce qui nécessite u ◦ t ◦ vi 6= 0. Ainsi, il
existe v ∈ A tel que u ◦ t ◦ v 6= 0. On en déduit que r > 3 .
(d) On procède comme dans la partie III, par récurrence sur n, le résultat étant acquis pour n = 1 (trivial) et
n = 2 (partie I). Soit alors n > 3, telle que la propriété soit vraie pour toute algèbre nilpotente non nulle
sur un espace de dimension strictement inférieure à n, et soit A une algèbre nilpotente non nulle d’indice r.
Si r = 1, A = {0} et il n’y a rien à montrer. Si r = 2, E1 = I(A), donc E2 = {0} ! et le bloc T2,2 est vide.
0 ∗
Plus précisément, la matrice T s’écrit alors à l’aide de 4 blocs sous la forme et est donc strictement
0 0
triangulaire supérieure. Si r > 3, on considère la construction de la question IV-4, et l’algèbre A2,2 . Si r = 3,
cette algèbre est nulle, donc pour tout t ∈ A, T2,2 = 0, donc T est strictement triangulaire supérieure. Sinon,

6
on applique l’hypothèse de récurrence à A2,2 , ce qu’on peut faire puisque 1 6 dim E2 < n, d’après 1(b) et
3, et puisque A2,2 est non nulle. On construit alors la nouvelle base comme dans la partie III.
Ainsi, toute algèbre nilpotente non nulle admet une base de trigonalisation stricte commune.
(e) En particulier, puisque pour toute matrice T de Tn++ , T n = 0, on en déduit que r 6 n .
6. L’hypothèse r > 4 nous assure que A2,2 est non nulle.
Soit t1 , . . . , tk des éléments de A, et soit Tℓ la matrice associée à tℓ relativement à la base B trouvée précé-
demment, dont les blocs seront notés Ti,j ℓ
(sans ambiguïté possible sur la notation en exposant de l’indice, car
aucune exponentiation n’est en jeu dans cette question). On a alors
    
k k
0 ∗ ∗ 0 T1,2 T1,3 0 ∗ ∗
1 k−1 k k =  1 k 1 k−1 k 
T1 · · · Tk−1 Tk = 0 T2,2 · · · T2,2 ∗ 0 T2,2 T2,3  0 T2,2 · · · T2,2 T2,2 · · · T2,2 T2,3 
 

0 0 0 0 0 0 0 0 0
De même, en faisant le produit dans l’autre sens :
    
1 1 1 2 k
0 T1,2 T1,3 0 ∗ ∗ 0 T1,2 T2,2 · · · T2,2 ∗
1
T1 T2 · · · Tk = 0 T2,2 1  2 k 1 k
T2,3 0 T 2,2 · · T2,2
· ∗ = 0 T2,2 · · · T2,2 ∗
   

0 0 0 0 0 0 0 0 0
En remettant ensemble ces deux descriptions (au rang k − 1), on peut déterminer le dernier coefficient :
 k−1
 
1 2 k k
0 T1,2 T2,2 · · · T2,2 ∗ 0 T1,2 T1,3
1 k−1 1 k−2 k−1   k k 
T1 · · · Tk−1 Tk = 0 T2,2 · · · T2,2 T2,2 · · · T2,2 T2,3  0 T2,2 T2,3


0 0 0 0 0 0
 k−1 k

1 2 k 1 2
0 T1,2 T2,2 · · · T2,2 T1,2 T2,2 · · · T2,2 T2,3
1 k 1 k−1 k
= 0 T2,2 · · · T2,2 T2,2 · · · T2,2 T2,3  .
 

0 0 0

Soit alors t1 , . . . , tr−1 dans A tels que t1 ◦ · · · ◦ tr−1 6= 0 (ce qui est possible par définition de l’indice de
nilpotence). On a alors T1 · · · Tr−1 6= 0, donc l’un au moins des blocs de la description ci-dessus (avec k = r − 1)
2 r−2
est non nul. Cela impose en particulier que T2,2 · · · T2,2 6= 0 (remarquez que cela a du sens puisque r > 4).
Cela définit donc r − 3 éléments de A2,2 donc le produit est non nul. Ainsi, en notant r′ l’ordre de nilpotence
de A2,2 , on obtient r′ > r − 2 .

Réciproquement, on peut reprendre l’argument de la question 5(c), en remplaçant s par une composition
s1 ◦ · · · ◦ sr′ −1 non nulle. Si t1 , . . . , tr′ −1 sont associés dans A, cet argument s’adapte bien pour montrer qu’il
existe u et v deux éléments de A tels que u ◦ t1 ◦ · · · ◦ tr′ −1 ◦ u soit non nul. Ainsi, r′ + 1 < r, donc r′ 6 r − 2 .
Les deux inégalités amènent r′ = r − 2 .
7. (a) Soit t ∈ A. On note T la matrice de t dans la base B, avec sa description par blocs (Ti,j ). Soit s l’endomor-
phisme de E2 défini par le bloc T2,2 .
Soit y ∈ s(I(A2,3 )), et x ∈ I(A2,3 ) tel que y = s(x). Il existe donc des applications linéaires uℓ ∈ A2,3 ⊂
L(E3 , E2 ), et des éléments xℓ de E3 , pour ℓ ∈ [[1, k]], tels que
k
X
x= uk (xk ).
ℓ=1

Il vient donc :
k
X
y= s ◦ uk (xk ).
ℓ=1
Soit t1 , . . . , tk des éléments de A associés aux u1 , . . . , uk , et Tℓ la matrice associée à tℓ , dont les blocs seront
notés Ti,jℓ
. La matrice de s ◦ uk ∈ L(E3 , E2 ), relativement aux bases B3 et B2 , est alors T2,2 T2,3 k
, qui, d’après
la description de la question 6 des matrices T , correspond à (T Tk )2,3 , donc au bloc en position (2, 3) associé
Xk
à l’application linéaire t ◦ tk de A. Ainsi, par définition, s ◦ uk ∈ A2,3 , et donc s ◦ uk (xk ) ∈ I(A2,3 ).
ℓ=1

On a bien montré que s(I(A2,3 )) ⊂ I(A2,3 ) .

7
(b) Soit u ∈ A2,3 ⊂ L(E3 , E2 ). Alors, par définition Im(u) ⊂ E2 . En sommant ces images, il vient I(A2,3 ) ⊂ E2 .
On note pour k ∈ N∗ , et Z ⊂ E, on note I k (Z) la somme des images des composées u1 ◦ · · · ◦ uk , où les
ui sont des éléments de Z. On va montrer, par récurrence sur k ∈ N, que pour tout x ∈ E2 , et tout k ∈ N,
x ∈ I k (Acal2,2 ) + I(A2,3 )
L’initialisation, pour k = 1, se fait en remarquant que x ∈ I(A). Ainsi, il existe des éléments t1 , . . . , tk de
A et x1 , . . . , xk de E tels que
Xk
x= ti (xi ).
i=1

En décomposant xi = xi,1 + xi,2 + xi,3 dans E1 ⊕ E2 ⊕ E3 , et en remarquant que x est égal à son projeté
sur E2 dans la somme directe E1 ⊕ E2 ⊕ E2 , on obtient donc :
k
X
x= ti2,1 (xi,1 ) + ti2,2 (xi,2 ) + ti2,3 (xi,3 ),
i=1

où ti2,j est l’application de Ej dans E2 définie par t. Par définition de E1 , il vient donc :

k
X
x= ti2,2 (xi,2 ) + ti2,3 (xi,3 ) ∈ I(A2,2 ) + I(A2,3 ).
i=1

Supposons maintenant le résultat acquis pour une valeur k ∈ N (pour tout x ∈ E2 ). On a vu que

x ∈ I(A2,2 ) + I(A2,3 ).

Il suffit donc de montrer que I(A2,2 ) ⊂ I k+1 (A2,2 ) + I(A2,3 ).


Par stabilité par somme, il suffit de vérifier que pour tout s ∈ A2,2 , et tout y ∈ E2 , s(y) ∈ I k+1 (A2,2 ) +
I(A2,3 ). Or, par hypothèse de récurrence, y ∈ I k (A2,2 ) + I(A2,3 ), donc

s(y) ∈ s I k (A2,2 ) + s (I(A2,3 )) ⊂ I k+1 (A2,2 ) + I(A2,2 ),




d’après la question 7(a).


Ainsi, d’après l’axiome de récurrence, pour tout x ∈ E2 , et tout k ∈ N∗ , x ∈ I k (A2,2 ) + I(A2,3 ). Or,
A2,2 étant nilpotente d’indice r − 2, I r−2 (A2,2 ) = 0, donc finalement, en prenant k = r − 2, on obtient
x ∈ I(A2,3 ). Ainsi, E2 ⊂ I(A2,3 ).
La double-inclusion amène I(A2,3 ) = E2 .
8. On suppose A nilpotente. Soit t un élément de A tel que T2,3 = 0. On note T sa matrice.
(a) Pour tout s ∈ A, de matrice S dont les blocs sont (Si,j ), on a ST = T S, soit, par un calcul explicite, en
utilisant l’hypothèse T2,3 = 0,
   
O T1,2 S2,2 T1,2 S2,3 0 S1,2 T2,2 0
 0 T2,2 S2,2 T2,2 S2,3  = 0 S2,2 T2,2 0
   

0 0 0 0 0 0

En particulier, T1,2 S2,3 = 0 et T2,2 S2,3 = 0. On note t1,2 et t2,2 les applications linéaires de L(E2 , E1 ) et de
L(E2 , E2 ) associées à T1,2 et T2,2 . Les inégalités précédentes se traduisent par le fait que pour tout s ∈ A2,3 ,
Im(s) ⊂ Ker(t1,2 ) et Im(s) ⊂ Ker(t2,2 ). Par stabilité par somme, il en découle :

I(A2,3 ) ⊂ Ker(t1,2 ) et I(A2,3 ) ⊂ Ker(t2,2 ).

La question précédente amène alors E2 ⊂ Ker(t1,2 ) et E2 ⊂ Ker(t2,2 ), soit t1,2 = 0 et t2,2 = 0. On a donc
montré que T1,2 = 0 et T2,2 = 0 .
(b) En revanche, T1,3 peut ne pas être nul. On donne l’exemple dans le cadre matriciel, vous transcrirez facilement
par des applications linéaires.
Il suffit de considérer l’algèbre A = {aJ + bJ 2 + cJ 3 , (a, b, c) ∈ K} dans M4 (K), où J est la matrice de
Jordan (nilpotente d’indice 4). Cette algèbre est nilpotente d’indice 4.

8
On vérifie sans peine que K(A) = Vect(e1 ), I(A) = Vect(e1 , e2 , e3 ). Ainsi, on peut prendre E1 = Vect(e1 ),
E2 = Vect(e2 , e3 ) et E3 = Vect(e4 ). La base canonique est donc déjà adaptée.
Considérons maintenant la matrice J 3 , qui vérifie bien T2,3 = 0, ainsi que T2,2 = 0 et T1,2 = 0. En revanche,
T1,3 = (1). Ainsi, on n’a pas toujours T1,3 = 0 .

9
Lycée Louis-Le-Grand, Paris
MPSI 4 – Mathématiques
A. Troesch

Problème no 20 : Algèbre linéaire matricielle

Correction du problème 1 – Co-diagonalisation (Mines 2001)

Partie I –
Le but de cette partie est d’étudier, pour une application semi-linéaire u donnée, les valeurs et vecteurs co-propres.
1. Premières propriétés.

(a) Soit x 6= 0. Si u(x) = µx = µ′ x, puisque x est non nul (donc la famille (x) est libre), on obtient µ = µ′ .
Ainsi il existe au plus un scalaire µ tel que u(x) = µx .
(b) Soit µ une valeur co-propre de u et x un vecteur co-propre associé. On a alors, pour tout θ ∈ R,

u(e− i 2 x) = ei 2 u(x) = ei 2 µx = (ei θ µ) · e− i 2 x.


θ θ θ θ

Ainsi, ei θ µ est valeur co-propre de u un vecteur propre associé en est e− i 2 x 6= 0 .


θ

(c) Soit x ∈ Eµ non nul, et a = rei θ ∈ C. On a alors u(ax) = au(x) = re− i θ µx = e−2 i θ µ(ax).
Ainsi, si µ 6= 0, on peut choisir a tel que e−2 i θ µ 6= µ (il suffit de choisir a non réel). La question 1 amène
alors u(ax) 6= µx, donc ax 6∈ Eµ .
Par conséquent, si µ 6= 0, Eµ n’est pas un C-espace vectoriel .
Si µ = 0, pour tout x, y ∈ Eµ et a ∈ C, on a

u(ax + y) = au(x) + u(y) = 0,

donc ax + y = 0.
Comme de plus, Eµ ⊂ E et 0 ∈ Eµ , on peut conclure que si µ = 0, Eµ est un sous-espace vectoriel sur C de E .
En revanche, quelle que soit la valeur de µ, si x, y sont dans Eµ et a ∈ R, on a :

u(ax + y) = au(x) + u(y) = au(x) + u(y) = aµx + µy = µ(ax + y).

Donc ax+y ∈ Eµ . Comme Eµ ⊂ E et 0 ∈ E, on en déduit que Eµ est un sous-espace vectoriel sur R de E .


(d) Soient x, y ∈ E et a ∈ C. On a :

u ◦ v(ax + y) = u(av(x) + v(y)) = au(v(x)) + u(v(y)) = au ◦ v(x) + u ◦ v(y).

Ainsi, la composée de deux applications semi-linéaires est une application linéaire .

2. Matrice associée à une application semi-linéaire


(a) On décompose x = ni=1 xi ei . On a alors
P

n
X
y = u(x) = xi u(ei ),
i=1

et en passant aux coordonnées dans la base B :


n
X
Y = xi Ci ,
i=1

où Ci est le vecteur colonne des coordonnées de u(ei ) dans la base B. On reconnaît là un produit matriciel :

Y = AX ,

1
où A est la matrice dont les colonnes sont les Ci , c’est-à-dire les matrices colonnes des coordonnées dans la
base B des images par u des vecteurs de cette base.
On peut montrer réciproquement que A vérifiant cette relation est définie de façon unique (il suffit d’évaluer
en ei , ce qui nous dit que la colonne Ci de A est nécessairement égale aux coordonnées de u(ei ) dans la
base B). La question de l’unicité n’était pas explicitement demandée, mais était nécessaire pour répondre
complètement à la question suivante.
Une autre façon d’aborder cette question est de remarquer que si B = (b1 , . . . , bn ) est une base de E sur C,
alors l’application qui à x = x1 b1 + · · · + xn bn associe x = x1 b1 + · · · + xn bn est clairement une application
semi-linéaire. Attention au fait que cette définition de x dépend du choix de la base B !
On pose alors, pour tout x ∈ E, v(x) = u(x). L’application v est alors linéaire (composée de deux applications
semi-linéaires). Si on note A sa matrice relativement à la base B, on a alors

[u(x)]B = [v(x)]B = AX.

L’unicité de A découle de l’unicité de la matrice d’un endomorphisme.


(b) On ne peut pas vraiment utiliser la formule de changeùent de base sur v définie ci-dessus, car la définition de
v dépend du choix de la base B. Soient B et C deux bases, A et B les matrices de u relativement à chacune
de ces deux bases respectivement, et S la matrice de passage de B à C. Soit x ∈ E et y = u(x). En notant
[x]B le vecteur colonne des coordonnées de x dans la base B, on a alors :

S[x]C = [x]B .

On en déduit que
[y]B = A[x]B = AS[x]C .

En appliquant la formule de changement de base pour le vecteur y, il vient alors :

[y]C = S −1 [y]B = (S −1 AS)[x]C .

On utilise la question précédente, et plus précisément le fait que la relation Y = AX caractérise la matrice
de u dans la base considérée (unicité de cette écriture) pour en déduire que la matrice de u relativement à
la base C est S −1 AS. Ainsi
−1
B = S −1 AS .

On remarquera la forte similitude avec la formule de changement de base pour les endomorphismes, la seule
différence étant la conjugaison supplémentaire effectuée sur la matrice S (à droite).
3. Exemples
!
a
(a) Soit µ ∈ C, µ est une vaeur co-propre de A si et seulement s’il existe X = non nul tel que AX = µX,
b
c’est à dire : 
−b = µa
a = µb

On en déduit que b = −|µ|2 b et a = −|µ|2 a. Comme l’un au moins des deux complexes a et b est non nul,
on en déduit que −|µ|2 = 1, ce qui est impossible. Ainsi, A n’admet pas de valeur co-propre.
En jetant un coup d’oeil à la suite du sujet (c’est toujours conseillé !), on se rend compte que c’est en plein
accord avec la question 4(a), puisque la matrice AA est ici égale à −I2 , donc ne possède pas de valeur propre
positive.
(b) Soit A une matrice réelle admettant une valeur propre réelle λ. On a alors au moins un vecteur propre réel.
En effet, la matrice A − λIn est non inversible dans Mn (C), donc aussi dans Mn (R), et son noyau en tant
que matrice de Mn (R) est donc non réduit à 0, ce qui donne l’existence d’un vecteur propre à coordonnées
réelles.
On peut aussi remarquer que si X est un vecteur propre, en conjuguant, puisque λ est réel, X est aussi
vecteur propre associé à λ, donc aussi leur somme X + X si cette somme est non nulle. Le seul cas où cette

2
condition n’est pas satisfaite est le cas où toutes les coordonnées de X sont imaginaires pures. Dans ce cas
i X est encore un vecteur propre, à coordonnées réelles.
Soit donc X un vecteur propre à coordonnées réelles de A, associé à la valeur propre λ. On a donc :

AX = AX = λX,

donc X est aussi vecteur co-propre associé à la valeur co-propre λ .


4. Correspondance entre les valeurs co-propres de la matrice A et les valeurs propres de la ma-
trice AA.
Soit A une matrice carrée complexe d’ordre n.
(a) Soit µ une valeur co-propre de A, et X un vecteur co-propre associé. On a alors

AAX = A(AX) = A(µX) = µAX = µµX = |µ|2 X.

Comme X 6= 0, on déduire de la relation trouvée que X est un vecteur propre de AA associé à la


valeur propre |µ|2 de AA .
(b) Soit λ une valeur propre positive ou nulle de la matrice AA et X un vecteur co-propre associé.
(i) Supposons AX et X liés. Il existe alors µ ∈ C tel que AX = µA. Ainsi, µ est valeur co-propre de
A, un vecteur co-propre associé étant X. On déduit de la question précédente que X est vecteur
propre de AA associé à la valeur propre |µ|2 . Or, X est vecteur propre associé à la valeur λ, d’où

λ = |µ|2 . Par conséquent, il existe θ ∈ R tel que µ = λ · ei θ . On déduit alors de la question 1(b) que

λ est valeur co-propre de A.

(ii) Supposons les vecteurs AX et X indépendants. On a alors Y = AX + λX 6= 0. De plus,
√ √ √
AY = AAX + λAX = λX + λAX = λY.

Ainsi, Y étant non nul, λ est valeur co-propre de A .
(c) Soit µ un réel positif ou nul.
• Si µ est valeur co-propre de A, |µ|2 = µ2 est valeur propre de AA d’après 4(a).
p
• Réciproquement, si µ2 est valeur propre de AA, alors µ = µ2 est valeur co-propre de A d’après 4(b).
Ainsi, µ étant réel positif, µ est valeur co-propre de A ssi µ2 est valeur propre de A .
5. Cas d’une matrice triangulaire supérieure
Dans cette question, la matrice A est une matrice triangulaire supérieure
(a) Soit λ une valeur propre de A. Notons d1 , . . . , dn les coefficients diagonaux de A. La matrice A étant
triangulaire, ses valeurs propres sont ses coefficients diagonaux. Ainsi, λ est l’un des di .
La matrice A est triangulaire supérieure, ses coefficients diagonaux étant d1 , . . . , dn . Le produit AA est
encore une matrice triangulaire supérieure, dont les coefficients diagonaux sont cette fois les di di . En
particulier, l’un des coefficients diagonaux est |λ|2 . La matrice AA étant triangulaire, il en résulte que
|λ|2 est valeur propre de AA. La question 4(b) permet alors d’affirmer que |λ| est valeur co-propre de
A, puis, d’après 1(b), tous les complexes de même module que λ sont valeurs co-propres de A, donc
tous les λei θ sont valeurs co-propres de A .
(b) Réciproquement, supposons que µ est valeur co-propre de A. D’après 4(a), |µ|2 est valeur propre de AA.
Cette matrice étant triangulaire, |µ|2 est l’un des coefficients diagonaux de AA. Or, ces coefficients diagonaux
s’écrivent di di , avec les notations de la question précédente. Par conséquent, il existe un coefficient diagonal
λ = di de A (donc une valeur propre de A, cette matrice étant triangulaire) telle que |µ|2 = |λ|2 . On en
déduit que |λ| = |µ|, donc qu’il existe θ ∈ R tel que λ = ei θ µ.
On a bien montré qu’ il existe θ ∈ R tel que ei θ µ soit valeur propre de A.
(c) La matrice A étant triangulaire, on peut appliquer les résultats précédents. Sa seule valeur propre est i (la
valeur unique de ses coefficients diagonaux). Ainsi, tout les complexes de même module que i sont valeurs
co-propres d’après 5(a) (et ce sont les seules d’après 5(b)). En particulier, 1 est valeur co-propre de A .

3
!
a + ib
On recherche un vecteur X = (a, b, c, d ∈ R) co-propre associé à 1, c’est-à-dire vérifiant
c + id
! ! ! ! !
i 1 a− ib a+ ib (b + c) + i(a − d) a+ ib
AX = X soit: = soit: = .
0 i c− id c+ id ic + d c + id

Ceci équivaut à c = d et a = b + c. Les vecteurs co-propres associés à 1 sont exactement les vecteurs
!
c + (1 + i)b
, b, c ∈ R
c(1 + i)
!
i π4 1
On peut prendre par exemple X = e (vous pouvez vérifier directement que ce vecteur est bien
0
co-propre associé à 1).
6. Une caractérisation des valeurs co-propres
• Supposons que µ est valeur co-propre de A, |µ| l’est également (question 1(b)). Soit X un vecteur co-propre
associé à |µ|. Notons X = X1 + i X2 , où X1 et X2 sont des vecteurs à coordonnées réelles. On a alors

|µ|(X1 + i X2 ) = AX = A(X1 − i X2 ) = BX1 + CX2 + i(−BX2 + CX1 ).

En identifiant les parties réelles et imaginaires, il vient :

|µ|X1 = BX1 + CX2 et |µ|X2 = −BX2 + CX1 .

D’après les règles du produit matriciel par blocs, ces deux égalités sont équivalentes à l’égalité matricielle
! ! !
B C X1 X1
= |µ| .
C −B X2 X2
!
X1
Le vecteur étant non nul (car X 6= 0), on en déduit que |µ| est valeur propre de D .
X2
• Réciproquement,
! si |µ| est valeur propre de D, il existe un vecteur colonne réel Y , qu’on découpe en blocs
X1
Y = , les deux vecteurs colonnes X1 et X2 étant de même taille, tel que
X2

DY = |µ|Y,

c’est-à-dire
|µ|X1 = BX1 + CX2 et |µ|X2 = −BX2 + CX1 .

En reprenant les calculs précédents dans l’autre sens, on en déduit facilement que X1 + i X2 est vecteur
co-propre de A = B + i C, associé à la valeur co-propre |µ|. Ainsi, |µ| est valeur co-propre de A, puis
µ est valeur co-propre de A (toujours 1(b)).

Partie II –

1. Une relation d’équivalence Montrons que ≈ est reflexive, symétrique et transitive. Soient A, B, C dans
Mn (C).
−1
• A = In AIn , donc A ≈ A, d’où la reflexivité.
• Si A ≈ B, il existe S ∈ GLn (C) tel que
−1 −1
B = SAS donc: A = S −1 BS −1 .

Puisque S −1 ∈ GLn (C) on peut conclure que B ≈ A, d’où la symétrie.

4
• Si A ≈ B et B ≈ C, on a l’existence de S et T dans GLn (C) tels que
−1 −1
B = SAS et C = T BT .

On a alors
C = (T S)A(T S)−1 .
Ainsi, A ≈ C, d’où la transitivité.
Ainsi, ≈ est une relation d’équivalence.
2. Indépendance des vecteurs co-propres
• Soit µ1 , . . . , µq des valeurs co-propres de mudules 2 à 2 distincts, et X1 , . . . , Xq des vecteurs co-propres
associés. Une façon rapide de s’en sortir (mais utilisant un résultat que pour l’instant vous n’avez vu qu’en
DM, mais qui sera un résultat du cours l’année prochaine), est de se ramener à des vecteurs propres : les Xi
sont alors des vecteurs propres de AA, associés aux valeurs propres |µ1 |2 , . . . , |µq |2 , deux à deux distinctes
par hypothèse. Les sous-espaces propres étant en somme directe (propriété du cours de Spé, résultant du
lemme des noyaux vu en DM), on en déduit immédiatement que la famille (X1 , . . . , Xq ) est libre .
• On peut aussi procéder directement par récurrence sur q. La propriété est triviale pour q = 1, les vecteurs co-
propres étant non nuls par définition. Si on la suppose vraie pour une valeur de q ∈ N∗ , et qu’on considère
une famille de q + 1 vecteurs co-propres X1 , . . . , Xq+1 associés à des valeurs co-propres µ1 , . . . , µq+1 de
modules 2 à 2 distinctes, étudions la relation :

a1 X1 + · · · + aq+1 Xq+1 = 0ε(1).

Conjuguons cette relation et appliquons-lui A. On obtient :

a1 µ1 X1 + · · · + aq+1 µq+1 Xq+1 = 0 (2).

Si aq+1 = 0, on peut appliquer directement l’hypothèse de récurrence pour conclure que tous les ai sont
nuls, donc la famille est libre. Sinon, on peut faire une combinaison de ces deux lignes en retranchant à (2)
µ aq+1
la relation (1) multipliée par q+1aq+1 . Cela nous donne une relation entre X1 , . . . , Xq , et les coefficients de
cette relation sont donc tous nuls par hypothèse de récurrence, c’est-à-dire
µq+1 aq+1
∀i ∈ [[1, q]], ai µi − ai = 0.
aq+1
Si ai 6= 0, cette expression est une différence de deux complexes de modules distincts, donc ne peut pas être
nulle. Ainsi, ai = 0, pour tout i ∈ [[1, q]]. La relation initiale se réduit à αq+1 Xq+1 = 0, avec Xq+1 6= 0, donc
aq+1 = 0. Ainsi, la famille (X1 , . . . , Xq+1 ) est libre.
Le principe de récurrence permet de conclure que toute famille de vecteurs co-propres associés à des valeurs
propres 2 à 2 de modules ditincts est libre .
• Supposons maintenant que AA possède n valeurs propres λp , p ∈ [[1, n]], positives ou nulles deux à deux
p
distinctes. D’après I-4(b), les λp sont des valeurs co-propres de A, de modules 2 à 2 distincts. Une famille
X1 , . . . , Xn de vecteurs co-propres associés à ces valeurs co-propres est donc libre,et de cardinal n, dans un
espace de dimension n. Ainsi, (X1 , . . . , Xn ) est une base de E.
Considérons u l’application semi-linéaire de Cn dans lui-même associée à A dans la base canonique. Autre-
ment dit, en identifiant les vecteurs de Cn à des vecteurs colonnes,

u(X) = AX.

La matrice B de u dans la base (X1 , . . . , Xn ) est la matrice donc la colonne i est égale au vecteur des

coordonnées de u(Xi ) dans la base Xi . Or, u(Xi ) = λi Xi , donc
√ 
λ1 0 ··· 0
 √ .. .. 
 0 λ2 . . 
B= .
 
 . .. ..

 . . . 0 


0 ··· 0 λn

5
La matrice A et la matrice B représentent la même application semi-linéaire dans deux bases différentes.
D’après la question 2(b), on en déduit que A et B sont co-semblables. La matrice B étant diagonale, on en
déduit que A est co-diagonalisable .
3. Quelques propriétés
−1
(a) On a AA = SS SS −1 = SS −1 = In .
(b) • La matrice S(θ) est inversible si et seulement si e2 i θ A + In est inversible. Soit

P (X) = det(AX + In ).

Le caractère polynomial du déterminant permet d’affirmer que P est un polynôme. Il est non nul car
P (0) = det(In ) = 1. Ainsi, il ne peut admettre qu’un nombre fini de racines. Par conséquent, les e2 i θ ,
pour θ ∈ R, ne peuvent pas être tous racines de P . Il existe donc θ ∈ R tel que det(Ae2 i θ + In ) 6= 0, ce
qui équivaut à l’ inversibilité de S(θ) .
• On a alors
AS(θ) = e− i θ AA + ei θ A = e− i θ In + ei θ A soit: AS(θ) = S(θ) .

−1
• On a alors immédiatement, S(θ) étant inversible : S(θ)S(θ) =A.
4. Une condition nécessaire
Soit A une matrice d’ordre n co-diagonalisable, et S une matrice de passage adaptée. Notons D = S −1 AS la
matrice diagonale associée. On a alors
−1
AA = SDS SDS −1 = SDDS −1 .

Or,
• DD est une matrice diagonale, donc AA est diagonalisable .
• les valeurs propres de AA sont les coefficients diagonaux de DD, c’est-à-dire les di di = |di |2 , où les di sont
les coefficients diagonaux de D. Ainsi, les valeurs propres de AA sont toutes positives ou nulles .
• Le rang de AA est égal au rang de DD, donc au nombre de ses coefficients diagonaux non nuls (rang d’une
matrice échelonnée), donc au nombre de |di |2 (donc aussi de di ) non nuls. Il s’agit donc aussi du nombre de
coefficients diagonaux non nuls de D, donc du rang de D. Or, D et A sont co-semblables, donc en particulier
équivalentes. Elles ont donc même rang. Ainsi,

rg(A) = rg(D) = rg(DD) = rg(AA) .

5. Une condition suffisante


Soit A une matrice carrée complexe d’ordre n qui vérifie les trois propriétés suivantes :
(i) la matrice AA est diagonalisable
(ii) les valeurs propres de la matrice AA sont positives ou nulles
(iii) le rang de la matrice A est égal au rang de la matrice AA.

(a) On a
−1
BB = S −1 ASS AS = S −1 AAS soit: BB = Λ .
On obtient de même :
−1
BB = S AAS = Λ soit: BB = Λ ,

puisque les valeurs propres de AA sont supposées réelles. En particulier, on a BB = BB


On en déduit aussi que
BΛ = B(BB) = (BB)B = ΛB .

(b) Notons  
B1,1 ··· B1,n
 . .. 
B= .
 . . 

Bn,1 · · · Bn,n

6
la décomposition en blocs de B, les tailles des blocs étant les mêmes que dans la matrice Λ. En particulier,
les blocs diagonaux Bi,i sont carrés d’ordre ni . La relation BΛ = ΛB amène alors, d’après les règles du
clacul matriciel par blocs :
   
λ1 B1,1 · · · λn B1,n λ1 B1,1 · · · λ1 B1,n
 . .. 
 .   . .. 
.  =  ..

 . . ,

λ1 Bn,1 · · · λn Bn,n λn Bn,1 · · · λn Bn,n

soit, pour tout (i, j) ∈ [[1, k]]2 , λi Bi,j = λj Bi,j . Comme les λi sont deux à deux distincts, pour tout i 6= j,
il vient Bi,j = 0. Ainsi, la matrice B est diagonale par blocs , les blocs diagonaux Bi = Bi,i étant carrés
d’ordre ni .
(c) Toujours d’après les règles du produit matriciel par blocs, l’identité BB = Λ amène alors :
   
B1 B1 0 ··· 0 λ1 In1 0 ··· 0
 . .. .
..   0
  .. .. 
 0 B2 B2 λ2 In2 . . 
= .
   
 .
 . .. ..   . .. ..

 . . . 0   . . . 0 

0 ··· 0 Bk Bk 0 ··· 0 λk Ink

• Si λk 6= 0, alors, vu le classement des valeurs propres, les λi sont tous non nuls. On peut alors considérer
les matrices Ci = √1λ Bi . Ces matrices vérifient Ci Ci = Ini . D’après la question 3(b), il existe une
i
matrice inversible Pi telle que
−1 p −1
Ci = P Pi donc: Bi = P ( λi Ini )Pi .

Considérons alors la matrice diagonale par blocs


 
P1 0 ··· 0
 .. .. 
0 P2 . . 
P = . ,
 
 . .. ..
 . . . 0

0 ··· 0 Pk

inversible, d’inverse décrit par blocs de la façon suivante :


 −1 
P1 0 ··· 0
 .. .. 
 0 P2−1 . . 
P −1 =  . .
 
 . .. ..
 . . . 0 

0 ··· 0 Pk−1

Les règles du produit matriciel par blocs amènent facilement

−1
B = P ∆P ,

où ∆ est la matrice diagonale, décrite par blocs de la manière suivante :


√ 
λ1 In1 0 ··· 0
 √ .. .. 
 0 λ2 In1 . . 
∆= . .
 
 . .. ..
 . . . 0 


0 ··· 0 λk Ink

• Si λk = 0, alors les λi , i < k, sont non nuls. Comme rg(AA) = rg(Λ) = rg(A), on en déduit que A est de
rang n − nk , donc B, qui lui est équivalente, est également de rang n − nk . Or, la description diagonale
par blocs de B amène le calcul de son rang :

rg(B) = rg(B1 ) + · · · + rg(Bk ).

7
Par ailleurs, pour tout i < k, Bi Bi = λi In1 , donc Bi est inversible, donc de rang ni . On a alorq

n − nk = n1 + · · · + nk−1 + rg(Bk ),

relation dont il découle que rg(Bk ) = 0, donc Bk = 0. On effectue alors la même construction que
précédemment, mais en définissant Pk = Ink . La relation voulue est obtenue du fait que Bk = 0.
Ainsi, avec les hypothèses (i), (ii) et (iii), A est co-semblable à une matrice B elle-même co-semblable à une
matrice diagonale. Ainsi, la relation ≈ étant transitive, A est co-diagonalisable .

6. Exemples
(a) Soit A une matrice symétrique réelle d’ordre n. Le résultat admis (théorème spectral, cours de Spé) donne
la diagonalisabilité de A dans Mn (R). On a alors l’existence d’une matrice inversible P telle que P −1 AP
soit diagonale, à coefficients diagonaux λ1 , . . . , λn réels. Comme cette diagonalisation se fait dans Mn (R),
P ∈ GLn (R), donc P = P . La relation de diagonalisabilité donne alors également une relation de codiago-
nalisabilité. Ainsi, A est codiagonalisable .
On peut remarquer que ce résultat se généralise facilement de la façon suivante : si A ∈ Mn (R) est diago-
nalisable dans Mn (R) (ce qui équivaut à dire qu’elle est diagonalisable, à valeurs propres réelles), alors A
est codiagonalisable.

On peut aussi vérifier ici que la condition nécessaire et suffisante des questions 4 et 5 est bien vérifiée. Avec
les notations ci-dessus, on a :

P −1 AAP = P −1 A2 P = P −1 AP P −1 AP = D2 .

Il s’agit d’une matrice diagonale à coefficients diagonaux égaux aux λ2i , donc positifs ou nuls, et nuls si et
seulement si λi = 0. Ceci implique que D et D2 ont même rang.
Ainsi, AA est diagonalisable, ses valeurs propres sont les coefficients diagonaux de D2 , dont sont positifs ou
nuls, et son rang est celui de D2 , donc égal au rang de D, lui-même égal au rang de A.
(b) • ∗ La matrice A ne possède qu’une valeur propre, et n’est pas une homothétie, donc A n’est pas diagonalisable .
∗ Un calcul rapide montre que AA = In . A est donc co-diagonalisable (par utilisation de la question
5, ou ici, plus simplement, de la question 3(b), montrant que A est co-semblable à l’identité).
• ∗ Les valeurs propres λ de B sont solutions de l’équation polynomiale det(B − λI2 ) = 0 (équivaut à
dire que B − λI2 est non inversible), c’est-à-dire (1 − λ)2 + 1 = 0. Cette équation admet deux racines
complexes non réelles conjuguées. La matrice B est donc diagonalisable (prendre une base formée
d’un vecteur propre!associé à chaque valeur propre).
0 2
∗ On a BB = , dont les valeurs propres sont 2 et −2 (calculer comme précédemment le déter-
2 0
minant det(BB − λI2 )). La condition nécesaire de codiagonalisation n’étant pas satisfaite (question
4), B n’est pas co-diagonalisable .
• ∗ La matrice C n’est pas diagonalisable , car possède une unique valeur propre 0, et n’est pas égale à
0I2 .
∗ CC = C 2 = 0, donc rg(C) 6= rg(CC. La condition nécessaire de la question 4 n’étant pas satisfaite,
C n’est pas codiagonalisable .
• ∗ Par un calcul de déterminant, on trouve l’existence de deux valeurs propres non réelles conjuguées
de D, donc D est diagonalisable dans Mn (C) (même principe que pour B, les deux matrices sont
même semblables en fait)
∗ On a DD = 2I2 . Cette matrice est diagonale, donc diagonalisable, d’unique valeur propre 2 qui
est positive ou nulle, et de rang 2, donc de même rang que A. On peut appliquer la question 5 :
D est co-diagonalisable .

8
Lycée Louis-Le-Grand, Paris
MPSI 4 – Mathématiques
A. Troesch

Problème no 21 : Déterminants

Correction du problème 1 – Déterminant d’une matrice circulante

Question préliminaire
On a, par permutation des colonnes par un cycle de longueur n :

det(C(a1 , . . . , an−1 , a0 )) = (−1)n−1 det(C(a0 , . . . , an−1 )) .

Partie I – Utilisation des déterminants de Vandermonde

1. On a :
i−1
X n
X
bi,k = aj−i+n ω (j−1)(k−1) + aj−i ω (j−1)(k−1)
j=1 j=i
n−1
X n−i
X
= aj ω (j−n+i−1)(k−1) + aj ω (j+i−1)(k−1) .
j=n−i+1 j=0

Comme ω n = 1, on obtient :
n−1
X n−1
X
bi,k = aj ω (j+i−1)(k−1) = ωi−1
k−1
aj ω (k−1)j .
j=0 j=0

k−1
On obtient bien : bi,k = ωi−1 P (ωk−1 ).
2. Ainsi, la matrice C(a0 , . . . , an−1 ) × Ω est obtenue en multipliant les colonnes d’une matrice de Vandermonde
par les coefficients P (ωk−1 ). Par multilinéarité, on obtient donc :
n−1
Y
det(C(a0 , . . . , an−1 ) × Ω) = P (ωk−1 )V (ω0 , ω1 , . . . , ωn−1 ).
i=0

Par ailleurs,

det(C(a0 , . . . , an−1 ) × Ω) = det(C(a0 , . . . , an−1 ) × det(Ω) = det(C(a0 , . . . , an−1 ) × V (ω0 , ω1 , . . . ωn−1 ).

Comme les ωi sont deux à deux distincts, la formule du déterminant de Vandermonde amène la non nullité de ce
déterminant. Ainsi, d’après les deux expressions obtenues ci-dessus, et après simplification par V (ω0 , . . . , ωn−1 ),
il vient :
n−1
Y
det(C(a0 , . . . , an−1 )) = P (ωk−1 ) .
i=0

Partie II – Méthode polynomiale


Soit Q le polynôme défini par :
Q(X) = det(C(X, a1 , . . . , an−1 )).

1
1. Notons C(X, a1 , . . . , an−1 ) = ci,j . Ainsi, ci,j est un coefficient constant si i 6= j et polynomial de degré 1 si
i = j. L’expression de Q est alors : X Y
ci,σ(i) .
σ∈Sn i∈[[1,n]]

En tant que somme de produits de polynômes, Q est un polynôme .


Y
De plus, chaque terme ci,σ(i) est produit de n polynômes de degré au plus 1, donc est de degré au plus
i∈[[1,n]]
Y
n. Ainsi, Q est de degré au plus n. Par ailleurs, ci,σ(i) est de degré exactement n si et seulement si pour
i∈[[1,n]]
tout i, ci,σ(i) est de degré 1, donc si pour tout i, i = σ(i). Ainsi, cette situation correspond à un seul terme de
la somme, correspondant à la permutation σ = id.
Q est donc la somme de termes de degré au plus n, un seul d’entre eux étant de degré exactement n. Ainsi,
deg(Q) = n.
n−1
X
2. Considérons a0 = − aj ωij . On a alors :
j=1

i−1
X n−1
X n−1
X n−i
X
an+j−i ωij + aj−i ωij = aj ωij+i + aj ωij+i
j=0 j=i j=n−i j=0
n−1
X
= ωii aj ωij
j=0
 
n−1
X
= ωii a0 + aj ωij  = 0
j=1

Ainsi, les colonnes de C(a0 , . . . , an−1 ) vérifient la relation :


n−1
X
ωij Cj = 0.
j=0

On en déduit que la matrice C(a0 , . . . , an−1 ) n’est pas inversible, donc son déterminant est nul. Ainsi, a0 est
racine de Q, donc X − a0 divise Q. En reprenant l’expression de a0 , on a bien obtenu :
n−1
le polynôme Q est divisible par X + aj ωij .
P
j=1

n−1
3. • Si les quantités aj ωij sont deux à deux distinctes, la question précédente nous donne n racines distinctes
P
j=1
du polynôme Q de degré n. Ainsi, il existe un complexe λ, ne dépendant que de a1 , . . . , an−1 , tel que
 
n−1
Y n−1
X
Q(X) = λ X + aj ωij  .
i=0 j=1

L’argument de la première question montre que le seul facteur de degré n de Q est X n (provenant du terme
σ = id de la somme définissant ce déterminant). Ainsi, le coefficient dominant de Q est 1. On obtient :
 
n−1
Y n−1
X j
Q(X) = X + aj ω i  ,
i=0 j=1

puis, par évaluation en a0 :


n−1
Y
det(C(a0 , . . . , an−1 )) = P (ωi ).
i=0

• Soit maintenant (a0 , a1 , . . . , an ) quelconques, et notons, pour tout i ∈ [[0, n − 1]], et tout h ∈ R,
n−1
X
fi (h) = aj ωij + hωi
j=1

2
Soit m = min ({|fi (0) − fj (0)|, 0 6 i 6= j 6 n − 1} \ {0}) la distance minimale entre les valeurs distinctes
prises par les fi (0). Alors, pour tout h ∈]0, m 2 [, les fi (h) sont deux à deux distincts. En effet, étant donnés
0 6 i 6= j 6 n − 1 :
∗ si fi (0) = fj (0), alors fi (h) − fj (h) = h(ωi − ωj ) 6= 0
∗ si fi (0) 6= fj (0), alors |fi (0) − fj (0)| > m, donc |fi (h) − fj (h)| > m − h|ωi − ωj | > m − 2h > 0.
On est donc dans les conditions d’application du résultat trouvé dans le point précédent, pour le n-uplet
(a0 , a1 + h, a2 , . . . , an ) :
n−1
Y
a0 + (a1 + h)ωi + a2 ωi2 + · · · + an−1 ωin−1

det(C(a0 , a1 + h, a2 , . . . , an )) =
i=0
n−1
Y
= (P (ωi ) + hωi ).
i=0

Par continuité du déterminant par rapport à ces coordonnées, cette expression est continue par rapport à
la variable h, et par conséquent, en faisant tendre h vers 0, on trouve :

n
Y
det(C(a0 , . . . , an−1 ) = P (ωi ) .
i=0

Partie III – Diagonalisation


Soit J = C(0, 1, 0, . . . , 0).
1. La description du produit matriciel par les colonnes donne immédiatement l’effet de la multiplication à droite
par J :    

 C1 ··· Cn−1 Cn  J =  Cn C1 ··· Cn−1 


   

En particulier, C(0, . . . , 0, 1, 0, 0, . . . , 0)J = C(0, . . . , 0, 0, 1, 0, . . . , 0), d’où, par une récurrence immédiate :

∀k ∈ [[0, n − 1]], J k = C(0, . . . , 0, 1, 0, . . . , 0)

le 1 étant sur la k + 1-ième coordonnée. On obtient alors :

n−1
X
C(a0 , . . . , an−1 ) = ak J k .
k=0

2. En développant det(J − XIn ) suivant la première colonne, il vient :



−X 1 0 ··· 0

1

0 0 ··· 0
.

.

.. ..
−X
0 −X 1 1 0 0
.. .. ..

. .

. . . .
n+1
det(J − XIn ) = −X 0 . . + (−1) 0 −X . .

0 0

. .. ..

..

.
··· . . 1 0

. . −X 1



0
0 ··· 0 −X 1
··· 0 0 −X

On obtient donc det(J − XIn ) = (−1)n (X n − 1).


Soit λ ∈ C. La matrice J − λIn est non inversible (ce qui équivaut à la non nullité du noyau) si et seulement si
det(J − λIn ) = 0, donc si et seulement si λ est racine de X n − 1. Ainsi,

{λ ∈ C | Ker(J − λIn ) 6= {0}} = {ωi , i ∈ [[0, n − 1]]} = Un .

3. Quelques connaissances dans la théorie de la diagonalisation permetraient de répondre directement : J, d’ordre


n, admet n valeurs propres deux à deux distinctes donc est diagonalisable, et c’est terminé.

3
On peut contourner ce résultat par un autre résultat de diagonalisabilité, qui provient en fait du lemme des
noyaux : les sous-espaces propres Ker(J − λIn ) (λ valeur propre de J) sont en somme directe. Cela peut
se démontrer par des propriétés arithmétiques sur les polynômes (Bézout), ou alors de façon élémentaire, en
considérant k ∈ [[1, n − 1]] et
k−1
M
x ∈ Ker(J − ωk In ) ∩ Ker(J − ωi In ).
i=0

On a une décomposition associée à cette somme directe :

x = x0 + · · · + xk−1 .

Comme pour tout i xi ∈ Ker(J − ωi In ), en appliquant J, il vient :

ωk x = ω0 x0 + · · · + ωk−1 xk−1 .

Mais d’un autre côté, en multipliant la décomposition initiale par ωk , il vient aussi :

ωk x = ωk x0 + · · · + ωk xk−1 .

Par unicité de la décomposition dans une somme directe, on a alors, pour tout i ∈ [[0, k − 1]], ωk xi = ωi xi , et
comme les ωi sont deux à deux distincts, xi = 0, puis x = 0.
n−1
M
Cela prouve bien que la somme Ker(J − ωi In ) est directe. Remarquez que ce raisonnement est valable pour
i=0
toute matrice (ou tout endomorphisme) : les sous-espaces propres forment toujours une somme directe. Cet
argument sera du cours l’année prochaine.
En prenant un vecteur non nul bi ∈ Ker(J −ωi In ) (possible car cet espace n’est pas nul), la somme directe montre
que B = (b0 , . . . , bn−1 ) est une famille libre, donc une base, par cardinalité. Or, si on note f l’endomorphisme
canoniquement associé à J, on a
 
ω0 0 · · · 0
 .. .. 
0 ω
1 . . 
MatB (f ) =  .  = D.
 
 . .. ..
 . . . 0 

0 ··· 0 ωn−1

La formule de changement de base donne l’existence d’une matrice inversible P telle que J = P DP −1 .

Une autre façon de faire, plus élémentaire, consiste à expliciter un vecteur de Ker(J − ωi In ), on obtient sans
peine :
 
1
 ω 
 i 
 2 
bi =  ω 
 i  ∈ Ker(J − ωi In ).
 .. 
 . 
ωin−1
Or, la famille (b0 , . . . , bn−1 ) est une base, car la matrice associée est une matrice de Vandermonde :

detbc (b0 , . . . , bn−1 ) = V (ω0 , . . . , ωn−1 ) 6= 0.

Dans cette base, la matrice de l’endomorphisme canoniquement associé est D, est on termine comme avant.
4. On a P −1 JP = D, donc pour tout k ∈ N :

P −1 J n P = P −1 JP P −1 JP · · · P −1 JP = Dn .

4
Ainsi,
n−1 
ak ω0k
P
0 ··· 0
k=0 
n−1 .. ..
 
ak ω1k . .
n−1 n−1
 P 
X X  0 
−1 −1 k k
P C(a0 , . . . , an−1 )P = ak P J P = ak D = 
 k=0

.. .. ..

. .
 
k=0 k=0 
 . 0 

 n−1 
k
P
0 ··· 0 ak ωn−1
k=0

 
P (ω0 ) 0 ··· 0
 .. .. 
−1
 0 P (ω1 ) . . 
d’où P C(a0 , . . . , an−1 )P =  .
 
.. .. ..
. . . 0
 
 
0 ··· 0 P (ωn−1 )
Le déterminant étant un invariant de similitude, il en résulte que

n−1
Y
det(C(a0 , . . . , an−1 )) = P (ωi ) .
i=0

5
Lycée Louis-Le-Grand, Paris
MPSI 4 – Mathématiques
A. Troesch

Problème no 22 : Calculs de probabilité

Correction du problème 1 – (extrait d’ESSEC 2000) – Étude d’un combat à trois.


1. Calcul de probabilités
(a) Il s’agit de restituer une formule du cours, cas très particulier de la formule du crible de Poincaré :

P (U ∪ V ) = P (U ) + P (V ) − P (U ∩ V ) .

On ne vous demande pas la démonstration. La question est uniquement là pour vous mettre sur la bonne
voie pour la question suivante.
(b) Notons U ( resp. V , resp. W ) l’événement : A ( resp. B, resp. C) réussit son tir. Alors l’événement considéré
est l’événement U ∩ (V ∪ W ). Les trois tirs étant indépendants,
1 1 1 2
P (V ∪ W ) = P (V ) + P (W ) − P (V ∩ W ) = P (V ) + P (W ) − P (V )P (W ) = + − = ,
2 3 6 3
1 2 2
d’où : P (U ∩ (V ∪ W )) = P (U )P (V ∩ W ) = · = .
3 3 9
(c) Il s’agit cette fois de l’événement U ∩(V ∪W ). De même qu’avant, les tirs de chaque joueur étant mutuellement
indépendants :
2 2 4
P (U ∩ (V ∪ V )) = P (U )P (V ∩ W ) = · = .
3 3 9
2. Détermination de probabilités conditionnelles
(a) AB0 est l’événement impossible. De plus, tant que A et B ne sont pas éliminés, personne ne vise C, puisque
A vise B (son plus dangereux adversaire) et B vise A. Donc, tant que A et B ne sont pas éliminés, C ne
peut pas être éliminé. Ainsi, pour tout n ∈ N, l’événement ABn est impossible .
Dans la suite, on ne considérera donc que les événements ABCn , BCn , CAn , An , Bn , Cn , ∅n .
(b) Si ABCn est vérifié, alors les trois joueurs s’affrontent lors de la n + 1-ième manche, et pour que ABCn+1
ait lieu, ils doivent tous les trois rater leur cible. Avec les notations précédentes (U , V et W étant ici des
événements associés à la n+ 1-ième manche), et les événements U , V et W étant mutuellement indépendants
(donc leurs événements contraires aussi) :

1 1 2 1
P (ABCn+1 | ABCn ) = P (U ∩ V ∩ W ) = P (U )P (V )P (W ) = · · = .
3 2 3 9

(c) De même, pour que BCn+1 soit réalisé si ABCn l’est, il faut et il suffit que soit B soit C réussisse son tir
(ils visent tous deux A), et que A rate son tir. Ainsi :

2
P (BCn+1 | ABCn ) = P (U ∩ (V ∪ W )) = d’après 1b.
9

De même, pour que ACn+1 soit réalisé si ABCn l’est, A ne doit pas être éliminé, donc A et C ratent leurs
tirs, et B doit être éliminé, donc A réussit son tir. Ainsi :

2
P (ACn+1 | ABCn ) = P (U ∩ V ∩ W ) = P (U )P (V )P (W ) = ,
9

(on a encore utilisé l’indépendance de U , V et W ; on ne le reprécisera plus dans les raisonnements similaires
suivants).

1
(d) Pour que An+1 ne peut pas être réalisé si ABCn l’est, car au n-ième tournoi dans lequel les trois joueurs
s’affronte, personne ne vise C, qui ne peut donc pas être éliminé. De même, Bn+1 ne peut être réalisé si
ABCn l’est. Ainsi :
P (An+1 | ABCn ) = P (Bn+1 | ABCn ) = 0 .
Enfin, si ABCn est réalisé, Cn+1 est réalisé si et seulement si A est éliminé (soit par B soit par C) et B est
éliminé (par A), donc si et seulement si A réussit son tir, et B ou C réussit son tir. Ainsi :
4
P (Cn+1 | ABCn ) = P (U ∩ (V ∪ W )) = d’après 1c.
9
(e) Si ACn est réalisé, seuls A et C participent à la n + 1-ième manche. Bien entendu, C vise A et A vise C.
Ainsi, An+1 est réalisé si et seulement si A réussit son tir, et C rate le sien. Ainsi :
2 2 4
P (An+1 | ACn ) = P (U ∩ W ) = P (U )P (W ) = · = .
3 3 9
De même :
1 2 1
P (Bn+1 | BCn ) = P (V ∩ W ) = P (V )P (W ) = · = ;
2 3 3
1 1 1
P (Cn+1 | ACn ) = P (W ∩ U ) = P (W )P (U ) = · = ;
3 3 9
1 1 1
P (Cn+1 | BCn ) = P (W ∩ V ) = P (W )P (V ) = · = ;
3 2 6
(f) Enfin, si ABCn est réalisé, ∅n+1 ne peut l’être car personne ne vise C lors de la n + 1-ième manche, donc
P (∅n+1 | ABCn ) = 0.
Si ACn est réalisé, pour que ∅n+1 le soit, il faut et il suffit que A et C, les deux seuls joueurs s’affrontant
lors de la manche n + 1, réussissent tous deux leurs tirs au cours de cette manche :
2 1 2
P (∅n+1 | ACn ) = P (U ∩ W ) = P (U )P (W ) = · = .
3 3 9
1 1 1
De même : P (∅n+1 | BCn ) = P (V ∩ W ) = P (V )P (W ) = · = .
2 3 6
3. Nombre moyen d’épreuves à l’issue desquelles le combat s’achève
On note T la variable aléatoire indiquant le nombre d’épreuves à l’issue duquel cesse la combat, c’est-à-dire au
delà duquel il ne reste qu’un tireur au plus.
(a) [T = 1] est réalisé si et seulement si A1 , B1 , C1 ou ∅1 est réalisé. Comme ABC0 est l’événement certain, et
que les événements 1 , B1 , C1 et ∅1 sont deux à deux incompatibles, on obtient :

P (T = 1) = P (A1 ∪ B1 ∪ C1 ∪ ∅1) = P (A1 ) + P (B1 ) + P (C1 ) + P (∅1 )


= P (A1 | ABC0 ) + P (B1 | ABC0 ) + P (C1 | ABC0 ) + P (∅1 | ABC0 ).

En utilisant les probabilités conditionnelles calculées dans la question précédente,


4 4
P (T = 1) = 0 + 0 + +0= .
9 9
(En effet, C ne peut pas être éliminé au premier tour, puisque personne ne le vise, alors l’événement [T = 1]
est en fait égal à l’événement C1 ).
(b) Soit n > 2. Calculons la probabilité que les trois joueurs soient encore présents après le n-ième tour :

P (ABC1 ∩ ABC2 ∩ · · · ∩ ABCn ) = P (ABC0 ∩ ABC2 ∩ · · · ∩ ABCn )


n
Y
= P (ABC0 ) · P (ABCk | ABC1 ∩ · · · ∩ ABCk−1 )
k=1

(formule des probabilités composées)


n
Y
= P (ABCk | ABC1 ∩ · · · ∩ ABCk−1 )
k=1

2
Or, la suite (ABCn )n∈N∗ est une suite décroissante d’événements, donc pour tout k ∈ [[1, n]], ABC1 ∩ · · · ∩
ABCk−1 = ABCk−1 . Ainsi :
n  n
Y 1
P (ABCn ) = P (ABC1 ∩ ABC2 ∩ · · · ∩ ABCn ) = P (ABCk | ABCk−1 ) = ,
9
k=1

d’après la question 2b.


(c) Soit n > 2 et k ∈ [[0, n − 1]]. Commençons par calculer la probabilité de Rk , c’est-à-dire de l’événement : « à
l’issue du n-ième tour, seul B a été éliminé, et il a été éliminé lors du k + 1-ième tour » :

P (Rk ) = P (ABC1 ∩ · · · ∩ ABCk ∩ ACk+1 ∩ · · · ACn )


= P (ABC0 ∩ ABC1 ∩ · · · ∩ ABCk ∩ ACk+1 ∩ · · · ACn )
k
!
Y
= P (ABC0 ) · P (ABCi | ABC0 ∩ · · · ∩ ABCi−1 ) · P (ACk+1 | ABC0 ∩ · · · ∩ ABCk )·
i=1
n
!
Y
· P (ACi | ABC0 ∩ · · · ∩ ABCk ∩ ACk+1 ∩ · · · ∩ ACi−1 )
i=k+2

(formule des probabilités composées)

Or le résultat à un tour ne dépend que des joueurs présents au début de ce tour, c’est-à-dire des joueurs
présents à l’issue du tour précédent. Ainsi :
k
! n
!
Y Y
P (Rk ) = P (ABCi | ABCi−1 ) · P (ACk+1 | ABCk ) · P (ACi | ACi−1 )
i=1 i=k+2
 k  k  n−k−1
1 2 n−k−1 1 2 2 2n−k
= · · P (U ∩ W ) = · · = .
9 9 9 9 9 9n
(L’énoncé semble avoir oublié de nous faire calculer cette probabilité conditionnelle P (ACk+1 | ABCk ) dans
la question précédente...)
Les événements Rk , k ∈ [[0, n − 1]] sont deux à deux incompatibles, donc, par additivité :
n−1
! n−1 n−1 n  n  n 
[ X 1 X n−k 1 X k 2 2 1
P Rk = P (Rk ) = n 2 = n 2 = n (2n − 1) = 2 − .
9 9 9 9 9
k=0 k=0 k=0 k=1

Ceci représente la probabilité qu’après n épreuves, B et seul B ait été éliminé lors d’un tour précédent (c’est
l’événement ACn ). Ainsi :
 n  n 
2 1
P (ACn ) = 2 − .
9 9

(d) Soit n > 2 et k ∈ [[0, n − 1]]. À nouveau, Sk désigne l’événement consistant à dire que A et seul A est éliminé
lors des n premières épreuves, et ceci à la k + 1-ième épreuve. Ainsi, l’union des Sk est l’événement : « A,
et seul A, a été éliminé au cours des n premières épreuves ».
Calculons pour commencer P (Sk ) ; on procède de la même manière que pour P (Rk ). Nous avons donc besoin
comme précédemment d’une probabilité conditionnelle qui n’a pas été calculée dans la question 2 :
1
∀i ∈ N, P (BCi+1 | BCi ) = P (V ∩ W ) = P (V )P (W ) = .
3
Ainsi, le même raisonnement que plus haut amène :
k
! n
!
Y Y
P (Sk ) = P (ABCi | ABCi−1 ) · P (BCk+1 | ABCk ) · P (BCi | BCi−1 )
i=1 i=k+2
 k  n−k−1
1 2 1 2
= · · = n+k+1 .
9 9 3 3
n−1
! n−1 n−1  
[ X 2 2 X 1 1 1 1 1
Alors : P (BCn ) = P Sk = = = 1 − = n− n .
3n+k+1 3n+1 3k 3n 3n 3 9
k=0 k=0 k=0

3
(e) Soit n > 2. L’événement [T > n] est réalisé si et seulement s’il reste au moins deux joueurs à l’issue du
n-ième tour. Comme ABn est impossible, on en déduit que [T > n] = ABCn ∪ ACn ∪ BCn . Ces événements
étant deux à deux incompatibles, on obtient :
 n  n  n 
1 2 1 1 1
P (T > n) = P (ABCn ) + P (ACn ) + P (BCn ) = +2 − + n− n
9 9 9 3 9
 n  n  n
1 2 1
= −2 · +2· +
9 9 3

4 5
Remarquez que P (T > 1) = P (T = 1) = 1 − = , donc la formule ci-dessus est encore valable pour n = 1,
9 9
comme on s’en assure rapidement.
De plus, [T > 0] est l’événement certain, donc P (T > 0) = 1, et la formule ci-dessus est encore valide pour
n = 0.
Soit n ∈ N∗ . Alors [T > n] ⊂ [T > n − 1], et [T = n] = [T > n − 1] \ [T > n]. Ainsi :

P (T = n) = P (T > n − 1) − P (T > n)
 n−1  n−1  n−1  n  n  n
1 2 1 1 2 1
= −2 · +2· + +2· −2· −
9 9 3 9 9 3
 n  n  n
1 2 1
= −16 · +7· +2·
9 9 3

D’après l’argument concernant P (T > 1) et P (T > 0), ceci redonne bien la valeur P (T = 1) trouvée
précédemment.
(f) Un petit calcul de sommes géométriques :
+∞ +∞   n  n  n 
X X 1 2 1
P (T = n) = −16 · +7· +2·
n=1 n=1
9 9 3
16 1 14 1 2 1
=− 1 + 2 +
9 1− 9 9 1− 9 3 1 − 13
16 14
=− + + 1 = −2 + 2 + 1 = 1 .
8 7
(g) D’après la formule du binôme négatif, les sommes suivantes (à termes positifs) convergent, et leur somme
vaut :  
+∞ n−1
X 1 1 81
• n =  = ,
9 1 2 64
n=1 1− 9
+∞  n−1
X 2 1 81
• n =  = ,
9 2 2 49
n=1 1− 9
+∞  n−1
X 1 1 9
• n =  = ;
1 2
n=1
3 1− 3 4
(on pourra s’assurer de la convergence de ces séries avec la règle de d’Alembert, ou avec la règle nα un )
Or, la série +∞
n=1 nP (T = n) est une combinaison linéaire de ces trois séries, donc elle converge également.
P

Comme pour tout n ∈ N∗ , nP (T = n) > 0, elle est à termes positifs, donc elle converge absolument. Ainsi,
T admet une espérance, et :

16 81 14 81 2 9 9 18 3 51
E(T ) = − · + · + · =− + + = .
9 64 9 49 3 4 4 7 2 28
4. Probabilités pour que A, B et C respectivement remportent le combat
(a) Notons GAn l’événement : « A gagne le combat à la n-ième épreuve ».
Si n = 1, A ne peut pas gagner le combat, car il reste au moins C à l’issue de la première manche :
P (GA1 ) = 0.
Si n > 1, chaque événement Uk entraîne GAn . Réciproquement, si GAn est satisfait, ABCn−1 n’est pas

4
satisfait (sinon personne ne vise C qui ne peut pas être éliminé au n-ième tour). Puisque ABn−1 est im-
possible, l’événement ACn−1 est vérifié (il reste forcément un autre joueur, sinon A aurait gagné avant le
n-ième tour). Ainsi, C est éliminé au tour n, et B est éliminé auparavant, c’est à dire lors d’une épreuve ℓ,
ℓ ∈ [[1, n − 1]] ; pour une telle valeur de ℓ, ABCℓ−1 est satisfait, mais seulement ACℓ . En posant k = ℓ − 1,
k ∈ [[0, n − 2]], on en déduit que Uk est satisfait.
n−2
[
Par conséquent, d’après le principe de la double-inclusion, GAn = Uk .
k=0

(b) Soit k ∈ [[0, n−2]]. On calcule d’abord la probabilité de Uk , à l’aide de la formule des probabilités composées :

2n−1−k 2n−1−k 4 2n−k+1


P (Uk ) = P (Rn−1,k ∩An ) = P (Rn−1,k )P (An | Rn−1,k ) = ·P (An | ACn−1 ) = · = .
9n−1 9n−1 9 9n

Ici, on a rajouté un indice n à Rk pour indiquer la dépendance par rapport à n. Les événements Uk ,
k ∈ [[0, n − 2]] étant deux à deux incompatibles,
n−2  n n−2  n  n−1 !  n  n
X 2 X 1 2 1 2 1
P (GAn ) = P (Uk ) = 2 · k
= 4 · 1 − = 4 · − 8 .
9 2 9 2 9 9
k=0 k=0

Remarquez qu’on obtient cette égalité beaucoup plus rapidement si on ne suit pas la piste suggérée par
l’énoncé (comme quoi, les énoncés sont parfois mal faits ; pour information, à part certaines notations, et
l’ajout des questions finales, je n’ai pas modifié le sujet)
En effet, on peut se servir des calculs précédents. On se sert du système complet formé de toutes les
possibilités à l’issue du n − 1-ième tour : (∅n−1 , An−1 , Bn−1 , Cn−1 , ABn−1 , ACn−1 , BCn−1 , ABCn−1 ). Or
GAn est impossible si un des événements suivants a lieu : ∅n−1 , An−1 (dans ce cas, il a déjà gagné avant),
Bn−1 , Cn−1 , BCn−1 et ABCn−1 (car C ne peut pas être éliminé), et comme ABn−1 est impossible, la
formule des probabilités totales se résume à :
 n−1  n−1 !
8 2 1
P (GAn ) = P (GAn | ACn−1 )P (ACn−1 ) = P (An | ACn−1 )P (ACn−1 ) = − .
9 9 9

On obtient bien la même expression, sans avoir à refaire de calculs de somme.


+∞
[
(c) Soit GA l’événement : « A gagne ». Alors GA = GAn , ces événements étant deux à deux incompatibles.
n=2
Ainsi, par σ-additivité de P :
+∞ +∞  n  n
X X 2 1 16 1 8 1 16 1 9 1
P (GA) = P (GAn ) = 4· −8 = 2 − 1 = − = = .
n=2 n=2
9 9 81 1 − 9
81 1 − 9
63 9 63 7

(d) On note pour tout n ∈ N∗ , GBn l’événement : « B gagne au n-ième tour », et GB l’événement : « B gagne ».
B ne peut pas être vainqueur des le premier tour (C n’est pas éliminé à ce moment), donc GB1 est impossible.
Soit n > 2. On peut bien sûr copier la démonstration précédente, telle que suggérée dans l’énoncé, en
introduisant des événements Vk adéquats. Je vais plutôt utiliser la deuxième méthode que j’ai proposée, en
utilisant le même système complet. Maintenant, les seuls événements au rang n − 1 pouvant amener GBn
sont : ABn−1 et BCn−1 , et ABn−1 est impossible. Donc, la formule des probabilités totales se résume à :
   n  n
1 1 1 1 1
P (GBn ) = P (GBn | BCn−1 )P (BCn−1 ) = − = −3 .
3 3n−1 9n−1 3 9

En sommant ces probabilités, on obtient :


+∞  n  n
X 1 1 1 3 3 9 1 1 1
P (GB) = −3 = · − · = − = .
3 9 9 2 81 8 6 24 8
k=2

5
(e) On note de même GCn et GC. On a déjà eu l’occasion de calculer P (GC1 ) = 49 .
Soit n > 2. On procède de même que pour GBn . Les événements au rang n − 1 pouvant amener GCn sont
cette fois ABCn−1 , ACn−1 et BCn−1 . Ainsi, la formule des probabilités totales se résume à :

P (GCn ) = P (GCn | ABCn−1 )P (ABCn−1 ) + P (GCn | ACn−1 )P (ACn−1 ) + P (GCn | BCn−1 )P (BCn−1 )
= P (Cn | ABCn−1 )P (ABCn−1 ) + P (Cn | ACn−1 )P (ACn−1 ) + P (Cn | BCn−1 )P (BCn−1 )
 n−1  n−1  n−1 !  
4 1 2 2 1 1 1 1
= + · − + − n−1
9 9 9 9 9 6 3n−1 9
 n  n  n
1 1 1 1 2
= + + .
2 9 2 3 9

On pourrait bien sûr retrouver ce résultat en définissant des événements du type des Uk , mais ce sont des
prises de tête assurées.
Ainsi, en sommant ces probabilités pour tout n ∈ N∗ :
+∞  n  n  n
4 X1 1 1 1 2 4 1 9 1 3 4 9 603 67
P (GC) = + + + = + · + · + · = =
9 n=2 2 9 2 3 9 9 162 8 18 2 81 7 1008 112

(f) C a plus d’une chance sur 2 de gagner, donc beaucoup plus que les deux autres. Il vaut donc mieux ne pas
savoir tirer (donc ne pas attirer la foudre des autres).
\
(g) L’événement « le combat ne s’arrête pas » est l’événement suivant : [T > n].
n∈N∗
Ces événements forment une suite décroissante, donc, d’après le théorème de la limite monotone,
!
\
P [T > n] = lim P (T > n) = 0 .
n→+∞
n∈N∗

Remarquez que cette question est un peu redondante avec la question 3f.
(h) Soit G∅ l’événement : « le combat s’arrête sans vainqueur ». D’après la question précédente, GA, GB, GC,
G∅ forment un système quasi-complet, donc :

1 1 67 15
P (G∅) = 1 − P (GA) − P (GB) − P (GC) = 1 − − − = .
7 8 112 112

6
Lycée Louis-Le-Grand, Paris
MPSI 4 – Mathématiques
A. Troesch

Problème no 23 : Variables aléatoires

Correction du problème 1 – (d’après ESCP 2007)

Partie I –

1. (a) Soit i ∈ [[1, n]]. On a Xi (Ω) = {0, 1}. Ainsi, Xi suit une loi de Bernoulli dont le paramètre est P (Xi = 1).
Calculons P (Xi = 1). Soit Yi le nombre de boules dans l’urne i à l’issue de l’expérience. Il s’agit du nombre
de succès lors d’une répétition de m expériences de Bernoulli indépendantes, consistant à mettre ou non une
boule donnée dans l’urne i. La probabilité de succès est de n1 . Ainsi, Yi suit une loi binomiale de paramètres
(m, n1 ), et
   0  m
m 1 1
P (Xi = 1) = P (Yi = 0) = 1− .
0 n n
 m
1
Ainsi, P (Xi = 1) = 1 − , et par conséquent,
n
 m 
1
Xi ֒→ B 1− .
n

(b) Soit i et j distincts dans [[1, n]]. L’événement [Xi = 1] ∩ [Xj = 1] est réalisé si et seulement si chaque boule
est placée dans l’une des n − 2 autres boules. En raisonnant comme plus haut, et en notant Zi,j la variable
aléatoire égale au nombre totale de boules dans les urnes i et j, Zi,j compte le nombre de succès dans une
répétition de m expériences de Bernoulli indépendante, un succès (mettre la boule dans l’urne i ou dans
l’urne j se produisant avec une probabilité de N2 . Ainsi, Zi,j ֒→ B m, n2 , et


   0  m
m 2 2
P ([Xi = 1] ∩ [Xj = 1]) = P (Zi,j = 0) = 1− ,
0 n n
donc :
 m
2
P ([Xi = 1] ∩ [Xj = 1]) = 1 − .
n

Les variables Xi et Xj admettent des variances en tant que variables de Bernoulli, donc le couple (Xi , Xj )
admet une covariance.
La variable aléatoire Xi Xj , produit de deux variables de Bernoulli, prend ses valeurs dans {0, 1}, donc suit
aussi une loi de Bernoulli, dont le paramètre est P (Xi Xj = 1). Or, Xi et Xj étant égaux à 0 ou à 1, leur
produit vaut 1 si et seulement si chacune est égale à 1. Ainsi
 m
2
P (Xi Xj = 1) = P ([Xi = 1] ∩ [Xj = 1]) = 1− .
n
 m   m
2 2
Ainsi, Xi Xj ֒→ B 1− , donc E(Xi Xj ) = 1 − .
n n
On a donc
 m  2m
2 1
cov(Xi , Xj ) = E(Xi Xj ) − E(Xi )E(Xj ) = 1 − − 1− .
n n

On a  2m  2 !m  m
1 1 2 1
1− = 1− = 1− + 2 .
n n n n

1
Or, puisque n > 3,
2 2 1
0<1− < 1 − + 2,
n n n
et donc, puisque m > 4 > 0,
 m  m  2m
2 2 1 1
0< 1− < 1− + 2 = 1− .
n n n n

On en déduit que cov(Xi , Xj ) < 0, donc en particulier cov(Xi , Xj ) 6= 0. Il en résulte que les variables
aléatoires Xi et Xj ne sont pas indépendantes .
2. (a) Par linéarité de l’espérance, on a :
n n  m
X X 1
E(Wn ) = E(Wk ) = 1− .
n
k=1 k=1

 m
1
Ainsi, E(Wn ) = n 1 −
n
(b) On a :
n
X X
V (Wn ) = V (Xk ) + 2 cov(Xi , Xj )
k=1 16i<j6n
n   m   m  m  2m !
X 1 1 X 2 1
= 1− 1− 1− +2 1− − 1−
n n n n
k=1 16i<j6n
 m  2m  m  2m
1 1 2 1
=n 1− −n 1− + n(n − 1) 1 − − n(n − 1) 1 − ,
n n n n

puisque le nombredecouple (i, j) ∈ [[1, n]] tel que i < j est égal au nombre de sous-ensemble à 2 élements
n n(n − 1)
de [[1, n]], à savoir = .
2 2
Ainsi,
 m  m  2m
1 2 1
V (Wn ) = n 1 − + n(n − 1) 1 − − n2 1 −
n n n

(c) Des résultats précédents on obtient


 m  m  m  2m
1 1 2 2 1
E(Wn ) − V (Wn ) = n 1 − −n 1− − n(n − 1) 1 − +n 1− ,
n n n n

donc
 2m  m
12 2
E(Wn ) − V (Wn ) = n 1 − − n(n − 1) 1 − .
n n

En utilisant l’inégalité obtenue lorsque nous avons déterminé le signe de cov(Xi , Xj ), nous obtenons :
 m  m  m
2 2 2
E(Wn ) − V (Wn ) > n2 1 − − n(n − 1) 1 − =n 1− > 0.
n n n

Ainsi E(Wn ) − V (Wn ) > 0 (l’inégalité est même stricte)


3. (a) On a ici, pour tout n > 3,
 ⌊n ln n+θn⌋   
1 1
E(Wn ) = n 1 − = exp ln n + ⌊n ln n + θn⌋ ln 1 − .
n n

Il existe une suite (un ) bornée (à valeurs dans [−1, 0])

⌊n ln n + θn⌋ = n ln n + θn + un .

2
Un développement limité donne alors :
    
1 1 1 1
ln n + ⌊n ln n + θn⌋ ln 1 − = ln n + (n ln n + θn + un ) − + 2 + o
n n 2n n2
 
ln n θ un un ln n
= ln n − ln n + −θ+ − + 2 +o = −θ + o(1),
2n 2n n 2n n
tous les autres termes étant de limite
 nulle.
1
Ainsi, lim ln n + ⌊n ln n + θn⌋ ln 1 − = −θ, d’où, par continuité de l’exponentielle,
n→+∞ n

lim E(Wn ) = e−θ .


n→+∞

(b) On a, pour tout n ∈ N,


 2m  2m
2 1 1
n 1− = E(Wn )2 , donc: 2
lim n 1 − = e−2θ .
n n→+∞ n
Par ailleurs, en adaptant un peu le calcul précédent,
  m    
2 2 2 2 1
ln n 1 − = 2 ln n + (n ln n + θn + un ) − + 2 + o ,
n n n n2
et de même que plus haut,   m 
2
ln n2 1 − = −2θ + o(1).
n
Par continuité de l’exponentielle, et du fait de l’équivalence n2 ∼ n(n − 1), il vient :
 m
2
lim n(n − 1) 1 − = e−2θ .
n→+∞ n

On déduit alors de l’expression trouvée pour E(Vn ) − W (Vn ), que

lim (E(Wn ) − V (Wn )) = 0.


n→+∞

(c) On admet que pour tout k de N, on a :


 
1
|P (Wn = k) − P (Tn = k)| 6 min 1, × (µn − V (Wn )).
µn
 
Alors, puisque min 1, µ1n est majoré et que (µn − V (Wn )) tend vers 0 d’après la question précédente, on
obtient l’existence et la valeur des limites suivantes, d’après le théorème d’encadrement :

∀k ∈ N, lim |P (Wn = k) − P (Tn = k)| = 0.

Par ailleurs, étant donné k ∈ N,

µkn µk
P (Tn = k) = e−µn −→ e−µ = P (T = k)
k! n→+∞ k!
Ainsi
lim |P (Tn = k) − P (T = k)| = 0.
n→+∞

Puisque par ailleurs, d’après l’inégalité triangulaire,

|P (Wn = k) − P (T = k)| 6 |P (Wn = k) − P (Tn = k)| + |P (Tn = k) − P (T = k)|,

une nouvelle application du théorème d’encadrement nous donne

∀k ∈ N, lim P (Wn = k) = P (T = k) .
n→+∞

Ainsi, la suite (Wn ) converge en loi vers une variable aléatoire suivant une loi de Poisson de paramètre e−θ .

3
Partie II –

1. (a) • Soit A = ∅. Alors par convention [M ∈ A] = ∅, donc pour tout k ∈ N, [M ∈ A] ∩ [M 6 k] = ∅. On a


donc
P ([M ∈ A]) = 0 et P ([M ∈ A] ∩ [M 6 k]) = 0

Ainsi, pour tout k de N, f∅ (k + 1) = 0 .


• Soit A = N. Alors [M ∈ A] = Ω, donc, pour tout k ∈ N,

k! λ k!
fN (k + 1) = e (P (Ω ∩ [M 6 k]) − P (Ω)P ([M 6 k])) = k+1 eλ (P ([M 6 k]) − 1 · P ([M 6 k])) ,
λk+1 λ

et finalement, pour tout k ∈ N, fN (k + 1) = 0.


(b) • Soit A ⊂ N tel que 0 ∈ A. Alors si [M 6 0] est réalisé, [M ∈ A] est réalisé. On a donc une inclusion
[M 6 0] ⊂ [M ∈ A]. Par conséquent

P ([M ∈ A] ∩ [M 6 0]) = P (M ∈ A).

On en déduit que

0! λ eλ
fA (1) = e (P (M 6 0) − P (M 6 0)P (M ∈ A)) = P (M 6 0)(1 − P (M ∈ A)).
λ1 λ
Puisque M est à valeurs dans N,

P (M 6 0) = P (M = 0) = e−λ ,

donc
1 1
fA (1) = (1 − P (M ∈ A)) = P (M ∈ A) .
λ λ
• Soit A ⊂ N tel que 0 6∈ A, c’est-à-dire 0 ∈ A. Alors, si [M 6 0] est réalisé, [M ∈ A] ne peut pas être
réalisé, donc [M ∈ A] ∩ [M 6 0] = ∅. On en déduit cette fois que


fA (1) = (0 − P (M ∈ A)e−λ ),
λ
et donc
1
fA (1) = − P (M ∈ A) .
λ
• Soit A ⊂ N tel que {0, 1} ⊂ N. Alors, de même que ci-dessus, [M 6 1] ⊂ [M ∈ A]. Par conséquent,

eλ eλ
fA (2) = 2
(P (M 6 2) − P (M ∈ A)P (M 6 2)) = P (M 6 2) 2 P (M ∈ A).
λ λ
Ainsi,
1+λ
fA (2) = P (M ∈ A) .
λ2
2. Soit A et B deux parties de N disjointes.
(a) On a :
[M ∈ A ∪ B] = [M ∈ A] ∪ [M ∈ B].

On a aussi :

[M ∈ A ∪ B] ∩ [M 6 k] = ([M ∈ A] ∪ [M ∈ B]) ∩ [M 6 k] = ([M ∈ A] ∩ [M 6 k]) ∪ ([M ∈ B] ∩ [M 6 k]).

4
Comme A et B son disjoints, les événements [M ∈ A] et [M ∈ B] sont incompatibles, sont aussi les
événements [M ∈ A] ∩ [M ∈ k] et [M ∈ B] ∩ [M 6 k]. Il vient alors, pour tout k ∈ N
k! −λ
fA∪B (k + 1) = e (P (([M ∈ A] ∩ [M 6 k]) ∪ ([M ∈ B] ∩ [M 6 k])
λk+1
− P ([M ∈ A] ∪ [M ∈ B])P (M 6 k))
k!
= e−λ (P ([M ∈ A] ∩ [M 6 k]) + P ([M ∈ B] ∩ [M 6 k])
λk+1
− (P (M ∈ A) + P (M ∈ B))P (M 6 k))
k! −λ
= e (P ([M ∈ A] ∩ [M 6 k]) − P (M ∈ A)(M 6 k))
λk+1
k!
+ k+1 e−λ (P ([M ∈ B] ∩ [M 6 k]) − P (M ∈ B)(M 6 k))
λ
= fA (k + 1) + fB (k + 1).

On a bien obtenu, lorsque A et B sont disjoints, fA∪B = fA + fB (l’égalité fA∪B (0) = fA (0) + fB (0) étant
également trivialement vraie)
(b) En particulier, A et A étant disjoints, et vérifiant l’égalité A ∪ A = N, on obtient :

fA + fA = fA∪A = fN = 0 donc: fA = −fA .

3. (a) Soit A ⊂ N, et soit k ∈ N


• Supposons que k 6= 0. Alors
k!eλ
λfA (k + 1) − kfA (k) = (P ([M ∈ A] ∩ [M 6 k]) − P (M ∈ A)P (M 6 k)
λk
− P ([M ∈ A] ∩ [M 6 k − 1]) + P (M ∈ A)P (M 6 k − 1))
k!eλ
= (P ([M ∈ A] ∩ [M = k]) − P (M ∈ A)P (M = k)),
λk
car [M 6 k − 1] ⊂ [M 6 k], et [M 6 k] \ [M 6 k − 1] = [M = k], et de même avec l’intersection
avec [M ∈ A].
∗ Supposons que k ∈ A, alors [M = k] ⊂ [M ∈ A], donc
k!eλ k!eλ λk −λ
λfA (k + 1) − kfA (k) = P (M = k)(1 − P (M ∈ A)) = · e P (M ∈ A),
λk λk k!
puisque M suit une loi de Poisson. Ainsi

λfA (k + 1) − kfA (k) = P (M ∈ A).

∗ Supposons que k ∈ A. On applique le résultat qu’on vient d’établir à fA :

λfA (k + 1) − kfA (k) = P (M ∈ A) = P (M ∈ A).

Ainsi, puisque fA = −fA , on obtient bien :

λfA (k + 1) − kfA (k) = −P (M ∈ A).

Ainsi, pour tout k ∈ N∗ ,



P ([M ∈ A]) si k ∈ A
λfA (k + 1) − kfA (k) =
−P ([M ∈ A]) si k ∈ A.

• Il reste donc à voir la propriété pour k = 0, ce qui découle de manière immédiate de la question II-1(b).
(b) Si A est non vide et distinct de N, les probabilités P ([M ∈ A]) et P ([M ∈ A]) ne sont pas nulles (sommes
non vides de termes strictement positifs). Ainsi, pour tout k ∈ N

λfA (k + 1) − kfA (k) 6= 0,

ce qui ne serait pas possible si fA était identiquement nulle. Donc f n’est pas identiquement nulle .

5
4. (a) • Soit k ∈ N∗ tel que k > j . Alors

[M ∈ {j}] ⊂ [M 6 k] donc: [M ∈ {j}] ∩ [M 6 k] = [M ∈ {j}] = [M = j].

On obtient donc :
k! k!
fj (k + 1) = eλ (P (M = j) − P (M = j)(M 6 k)) = eλ P (M = j)(1 − P (M 6 k)).
λk+1 λk+1
λj −l
Ainsi, puisque P (M = j) = e , et d’après la formule du complémentaire,
j!

k!
fj (k + 1) = P (M > k + 1) ,
j!λk−j+1

puisque [M 6 k] = [M > k] = [M > k + 1].


• Soit k ∈ N∗ tel que k < j . Alors l’événement [M ∈ {j}] ∩ [M 6 k] est impossible, donc

k! λ k!
fj (k + 1) = e (0 − P (M = j)(M 6 k)) donc: fj (k + 1) = − P (M 6 k)
λk+1 j!λk−j+1

(b) On a alors

j! (j − 1)! 1 1
fj (j + 1) − fj (j) = P (M > j + 1) + P (M 6 j − 1) = P (M > j + 1) + P (M 6 j − 1) > 0
j!λ j! λ j

(c) • Soit k ∈ [[1, j − 1]]. Alors


k! (k − 1)!
fj (k + 1) − fj (k) = − P (M 6 k) + P (M 6 k − 1)
j!λk−j+1 j!λk−1−j+1
 
k! λ
= P (M 6 k − 1) − P (M 6 k)
j!λk−j+1 k
Or,
k−1 k−1
λ Xλ λi X λi+1
P (M 6 k − 1) = e−λ = e−λ .
k i=0
k i! i=0
ki!
Or, pour toute les valeurs possibles de l’indice i, on a k > i + 1, et tous les termes sont positifs. Ainsi :
k−1 +∞ +∞
λ X λi+1 X λi X λi
P (M 6 k − 1) 6 e−λ = e−λ < e−λ = P (M 6 k).
k i=0
(i + 1)! i=1
i! i=0
i!

On obtient donc :
 
k! λ
fj (k + 1) − fj (k) = P (M 6 k − 1) − P (M 6 k) < 0.
j!λk−j+1 k

• Soit k ∈ [[j + 1, +∞[[. On a alors :


k! (k − 1)!
fj (k + 1) − fj (k) = P (M > k + 1) − P (M > k)
j!λk−j+1 j!λk−1−j+1
 
k! λ
= P (M > k + 1) − P (M > k) .
j!λk−j+1 k
Or,
+∞ +∞ +∞
λ X λ · λi X λi+1 X λℓ
P (M > k) = e−λ > e−λ = e−λ = P (M > k + 1).
k k · i! (i + 1) · i! ℓ!
i=k i=k ℓ=k+1
 
k! λ
Ainsi, on obtient : fj (k + 1) − fj (k) = P (M > k + 1) − P (M > k) < 0 .
j!λk−j+1 k
Ainsi, la seule valeur de k pour laquelle fj (k + 1) − fj (k) est positive est celle trouvée dans la question
précédente, à savoir k = j.

6
(d) On a alors :
1 1
fj (j + 1) − fj (j) = P (M > j + 1) + P (M 6 j − 1)
λ j
1 1
= (1 − P (M 6 j)) + P (M 6 j − 1)
λ j
j j−1
!
1 X λi 1 X −λ λi
= 1− e−λ + e
λ i=0
i! j i=0 i!
j j−1
1 − e−λ X −λ λi−1 1 X −λ λi
= − e + e
λ i=1
i! j i=0 i!
j−1 j−1
1 − e−λ X −λ λi 1 X −λ λi
= − e +