Vous êtes sur la page 1sur 196

C O L L E C T I O N

PRÉCIS CONCOURS

Concours 2007

SUJETS ET CORRIGÉS DE
MATHÉMATIQUES
Voie scientifique

Jean-Louis Roque

Tous les sujets des concours


des prépas économiques et commerciales
HEC – ESSEC – E.M.Lyon – EDHEC – ECRICOME

Institut d'enseignement supérieur privé


Précis C oncours C ollection

Concours 2007
sujets et corrigés
de mathématiques
voie scientifique

par Jean-Louis Roque


Ancien élève de l’École Normale Supérieure
Professeur de chaire supérieure au Lycée Pasteur à Neuilly
Professeur à Intégrale
3

Avertissement de l’auteur

à Emmanuel Crimail
Ce manuel contient les corrigés détaillés de la totalité des épreuves de mathéma-
tiques de l’option scientifique des concours des classes préparatoires économiques et
commerciales de l’année 2007. Les épreuves du cru 2007, à l’instar de celles de l’an
dernier, étaient plutôt exigeantes et difficiles. Tout en restant très longues.
Comme d’habitude, nous recommandons aux futurs candidats de suivre les
quelques conseils suivants :
1. Prendre quelques minutes au début de l’épreuve pour lire, en totalité, l’énoncé.
Entendons-nous bien, il ne s’agit pas d’en faire une fiche de lecture mais de le par-
courir en vue de :
– découvrir tout d’abord les thèmes abordés ;
– repérer, c’est toujours bon pour le moral, certaines questions et parfois même
certaines parties que l’on a déjà traitées pendant sa préparation. Il n’est pas
interdit d’avoir vécu !
– faire la part des questions faciles, des questions plus fines et enfin des questions
« technologiques », c’est-à-dire nécessitant de gros calculs. Il faut savoir jauger
l’ennemi !
Il est également important de ne pas oublier qu’un énoncé bien lu – il faut parfois
savoir lire entre les lignes – donne de nombreuses réponses aux questions posées.
2. Ne pas s’obstiner à vouloir traiter dans l’ordre toutes les questions. Ne pas perdre
trop de temps à « sécher » sur une question. Le passage aux questions suivantes
donne souvent des pistes à propos des questions précédentes. Il est fondamental de
fabriquer rapidement des points et d’avoir, à la mi-temps, un confortable magot.
3. Ne pas bouder les questions de calcul et les questions algorithmiques de Turbo-
Pascal plus fréquentes en 2007 qu’auparavant. Le rapport qualité prix est beau-
coup plus intéressant qu’on ne le pense.
4. Avoir une rigueur intellectuelle et mathématique à toute épreuve. Il faut être le
premier convaincu par ce que l’on écrit. Il ne faut pas oublier les cas, les discus-
sions, les plans. Il y a souvent des « facettes » dans nos travaux. Il faut également
bannir les fautes grossières – divisions par zéro, manipulations diaboliques des iné-
galités, atrocités avec les variables muettes – grandes spécialités des gougnafiers.
L’arrêt de lecture existe ! Attention également au bluff qui est fortement sanc-
tionné.
4
5. Éviter les abréviations. Il faut écrire en français dans sa copie.
6. Ajoutons que certains correcteurs – fort heureusement pas tous – n’apprécient ni
l’humour ni les expressions imagées dans un texte mathématique. Bannir par exem-
ple le fameux « théorème des gendarmes ». L’auteur de ces lignes plaide coupable
sur la nature de ses propres corrigés. Reste donc à recourir au vieil adage: « faites
ce que je dis, ne faites pas ce que je fais! » Ceci dit, un peu plus de souplesse de la
part des correcteurs ne serait pas forcément mal venue.
7. Compte tenu de ce qui précède, il faut que les futurs candidats adoptent le style le
plus impersonnel possible, mais il est important qu’ils aient un style. Une copie de
mathématiques doit être agréable à lire, c’est-à-dire non seulement bien présentée
– beaucoup trop de copies ressemblent à des brouillons – mais aussi écrite dans un
langage clair, concis, sans redondance et sans fautes d’orthographe, où français et
symbolique mathématique cohabitent dans une grande harmonie.
8. Enfin, comme le disait le génial mathématicien Niels Enrik Abel (1802-1829),
« pour progresser en mathématiques, il faut avant tout écouter ses maîtres ».
Nous vous souhaitons un bon et agréable travail.

Margauchamfont, 15 mars 2008.


Jean-Louis Roque

* Qu’il me soit permis d’avoir ici une pensée émue pour mon ami et col-
lègue Emmanuel Crimail, récemment disparu, qui a enseigné la littérature
avec enthousiasme et passion durant de nombreuses années à Intégrale.
5
SOMMAIRE

HEC, première épreuve ......................................................... 7


Inégalité de Le Cam. Méthode de Steele.
Exponentielles de matrices.
Corrigé.................................................................................... 13

HEC, deuxième épreuve ........................................................ 49


Inégalité de Le Cam. Méthode de Chen-Stein.
Barbour and Eagleson.
Corrigé.................................................................................... 55

ESSEC, première épreuve ..................................................... 77


Étude d’une « Pick function ». L’ordre de Karl Löwner.
Stricte monononie matricielle.
Corrigé.................................................................................... 84

EM Lyon, première épreuve ................................................... 113


La série de Mercator. Une fonction de deux variables.
Polynômes orthogonaux.
Corrigé.................................................................................... 118

EDHEC, première épreuve .................................................... 139


Équivalent d’intégrale. Les quarternions d’Hamilton.
Limite centrée et équivalence. Tirages ésotériques.
Corrigé.................................................................................... 145

ECRICOME, première épreuve.............................................. 165


Suites, séries, alternance de Leibniz. Une norme d’algèbre.
Loi exponentielle translatée. Likelihood de Fisher.
Corrigé.................................................................................... 171
Hec première

Inégalité de Le Cam
Méthode de Steele
Exponentielles de matrices

Année Difficulté
2 ¶¶¶

Pour tout entier n supérieur ou égal à 2, on note Mn (R) l’espace vectoriel des matrices
carrées d’ordre n à coefcients réels, I la matrice identité, et Mn,1 (R) l’espace vectoriel
des matrices à n lignes et 1 colonne. On confond Mn,1 (R) et Rn .

Préliminaires

Soit E un espace vectoriel réel. On appelle norme sur E, toute application ν de E dans
R+ vériant :
i. ν(x) = 0 si, et seulement si, x = 0 ;
ii. pour tout λ réel, pour tout x de E :

ν(λx) = |λ|ν(x)

iii. pour tout couple (x, y) de E 2 :

ν(x + y)  ν(x) + ν(y)

Montrer que l’application  ∞ de Rn à valeurs dans R+ dénie pour toute colonne :


⎡ ⎤
x1
⎢ .. ⎥
X = ⎣ . ⎦ ∈ Rn
xn
8 Concours 2007 voie scientifique

par :
X∞ = max |xi |
1in

est une norme sur Rn .

Partie 1

A. Une norme sur Mn (R)

1. Montrer que l’application qui, à toute matrice A = (ai,j ) de Mn (R), associe le réel :


n
max |ai,j |
1in
j=1

dénit une norme sur Mn (R). La norme de A sera notée ||A||.


2.a. Établir pour tout X de Rn , l’inégalité :

||AX||∞  ||A|| × ||X||∞

b. Montrer qu’il existe un vecteur X0 de Rn , non nul, tel que :

||AX0 ||∞ = ||A|| × ||X0 ||∞

En déduire que :
||AX||∞
||A|| = sup
X∈Rn ,X=0 ||X||∞


c. Établir alors que pour tout couple (A, B) de Mn (R)2 , on a :

||AB||  ||A|| × ||B||

On dit qu’une suite (Am )m0 de matrices de Mn (R) converge vers une matrice
A de Mn (R) si :
lim ||Am − A|| = 0
m→+∞


On pose Am = ai,j (m) 1i,jn
et A = (ai,j )1i,jn .

3.a. Montrer que (Am )m0 converge vers A si, et seulement si, pour tout (i, j) de [[1, n]]2 :

lim ai,j (m) = ai,j


m→+∞

b. Montrer que si (Am )m0 converge vers A et (Bm )m0 converge vers B, alors la
suite (Am Bm )m0 converge vers AB.
4. Soit A un élément de Mn (R) tel que ||A|| < 1.
Hec première 9

a. Déterminer lim Am .
m→+∞

b. Montrer que si λ est une valeur propre réelle de A, alors |λ| < 1. En déduire que les
matrices I − A et I + A sont inversibles.
c. Montrer que la suite :

m
Ak
k=0 m

converge, et exprimer sa limite en fonction de la matrice A.


Soit (Am )m0 une suite de matrices de Mn (R). On dit que la série de terme
général Am , que l’on notera : 
Am
m0

converge, si la suite :

p
Am
m=0 p

converge. Dans ce cas, sa limite est notée


+∞

Am
m=0

5. On considère dans cette question, une matrice non nulle N de Mn (R) qui vérie la
propriété suivante : il existe un entier p supérieur ou égal à 2 tel que :

N p = 0 et N p−1 = 0

a. Montrer que la série :


 1
Nk
k!
k0

converge. On note :
+∞
 1 k
M= N
k!
k=0

b. Montrer que :
   
X ∈ Rn | (M − I)X = 0 = X ∈ Rn | N X = 0

6.a. Soit D une matrice diagonale de Mn (R). Montrer que la série


 1
Dk
k!
k0

converge.
10 Concours 2007 voie scientifique

b. Soit A une matrice de Mn (R) diagonalisable, D une matrice diagonale et P une


matrice inversible telles que A = P DP −1 . Montrer que la série :
 1
Ak
k!
k0

converge, et exprimer sa somme :


+∞
 1 k
A
k!
k=0

en fonction de P et de :
+∞
 1 k
D
k!
k=0

On admet jusqu’à la n du problème que pour toute matrice A de Mn (R), la


série :  1
Ak
k!
k0

converge, et on note :
+∞
 1 k
exp(A) = A
k!
k=0

7. Soit A un élément de Mn (R). On pose, pour tout m de N∗ :


 1 m
Am = I + A
m

a. Établir l’inégalité :
m 
  m(m − 1) · · · (m − k + 1) ||A||k
m
1 k
|| A − Am ||  1−
k! mk k!
k=0 k=0

b. En déduire que la suite (Am )m converge vers exp(A).

Propriétés de l’exponentielle de matrice

On admet que si A et B sont éléments de Mn (R) tels que AB = BA, alors :

exp(A + B) = exp(A) exp(B)

1. Montrer que pour toute matrice A de Mn (R), la matrice exp(A) est inversible et
déterminer son inverse.
2.a. Soit A une matrice de Mn (R). Montrer qu’il existe une matrice SA telle que :

exp(A) − I = A(I + SA )
Hec première 11

b. Étudier la fonction dénie sur R+ par :

x −→ ex − 1 − 2x

c. En déduire que si ||A|| < 1, alors ||SA || < 1.


d. On suppose que ||A|| < 1 et que exp(A) = I. Montrer que A est la matrice nulle.
3. On note Sn l’espace vectoriel des matrices symétriques réelles d’ordre n, et S++
n
l’ensemble des matrices symétriques réelles d’ordre n dont les valeurs propres sont
strictement positives.
a. Montrer que si A est un élément de Sn , alors exp(A) est un élément de S++
n .

b. Montrer que l’application exp restreinte à Sn est une surjection de Sn sur S++
n .

4. Soit A et B deux matrices de Sn telles que exp(A) = exp(B). On note u (resp. v)


l’endomorphisme de Rn canoniquement associé à A (resp. B), et exp(u) (resp. exp(v))
l’endomorphisme de Rn canoniquement associé à exp(A) (resp. exp(B)).
a. Montrer que A et B ont les mêmes valeurs propres.
b. Montrer que :
A × exp(B) = exp(B) × A

c. Soit F un sous-espace propre de v.


i. Montrer que F est également un sous-espace propre de exp(v).
ii. Montrer que la restriction de u à F induit un endomorphisme de F diagonalisable.
d. En se plaçant dans une base de diagonalisation de v, montrer alors que u et v ont les
mêmes vecteurs propres. En déduire que :

A=B

Partie 2

1. On considère Rn muni de sa base canonique B = (e1 , e2 , . . . , en ). Soit f


l’endomorphisme de Rn déni par f (e1 ) = 0, et pour tout i de [[2, n]], f (ei ) = ei−1 .
On note N la matrice associée à f relativement à la base B. Déterminer, pour tout k de
N, la matrice N k .
2. Soit p un réel de ]0, 1[. On dénit les matrices Rp et Qp par :

Rp = (1 − p)I + pN = I + Qp

a. Établir l’égalité :

n−1
pj j
exp(Qp ) = e−p N
j=0
j!
12 Concours 2007 voie scientifique

b. Calculer ||Rp || et ||Qp ||. Montrer que || exp(Qp )||  1.


3.a. Soit m un entier supérieur ou égal à 1, et p1 , p2 , . . . , pm des réels de l’intervalle ]0, 1[.
On pose pour tout i de [[1, m]] :

Ri = Rpi et Qi = Qpi

Montrer les égalités suivantes :


m 
m  
m 
exp(Qk ) = exp Qk = exp − pk (I − N )
k=1 k=1 k=1

b. Établir la relation suivante :



m 
m
Rk − exp(Qk ) = [R1 − exp(Q1 )](R2 · · · Rm )
k=1 k=1  
− exp(Q1 ) exp(Q2 ) · · · exp(Qm ) − R2 · · · Rm

c. En déduire la majoration suivante :


m 
m 
m
|| Rk − exp(Qk )||  ||Rk − exp(Qk )||
k=1 k=1 k=1

4.a. Montrer l’égalité :


n−1
pk1
−p1 −p1 −p1
|| exp(Q1 ) − R1 || = |e − 1 + p1 | + p1 |e − 1| + e
k!
k=2

b. En déduire successivement les deux inégalités :


m 
m 
m
|| exp(Q1 ) − R1 ||  2p21 et || Rk − exp(Qk )||  2 p2k
k=1 k=1 k=1

Partie 3

Les notations sont celles de la partie 2.


On considère m pièces de monnaie (1  m < n), telles que pour tout i de [[1, m]], la ième
pièce donne Pile avec la probabilité pi , et Face avec la probabilité 1 − pi . On pose :


m
λ= pi
i=1

Un joueur lance successivement la première pièce, la deuxième pièce, etc.jusqu’à la mème


pièce, cette expérience étant modélisée par un espace probabilisé (Ω, A, p). Pour tout k
Hec première 13

de [[1, m]], on note Sk la variable aléatoire égale au nombre de Pile obtenus à l’issue des
k premiers lancers.
1.a. Montrer que pour tout k de [[1, m]], les k + 1 premiers éléments de la première ligne
du produit matriciel R1 × R2 × . . . × Rk représentent la loi de Sk .
b. Montrer la relation suivante :

m 
m 
n−1
 λk 
|| Ri − exp(Qi )|| = p( Sm = k ) − e−λ 
i=1 i=1
k!
k=0

c. En déduire l’inégalité suivante :


+∞ 
 λk  m

p( Sm = k ) − e−λ   2 p2i
k! i=1
k=0

2. Dans un programme Pascal sont faites les déclarations suivantes :


const m = · · · ;
Type tab = array [1..m] of real ;
Var prob : tab

On suppose que prob contient les probabilités p1 , p2 , . . . , pm (ainsi prob[1] contient p1


etc.)
Écrire une fonction Pascal dont l’en-tête est Sm ( prob : tab) : integer qui simule la variable
aléatoire Sm .

Solution
Préliminaires

1. C’est parti pour une petite planication.




– Soit X = (x1 , . . . , xn ) un vecteur de Rn . La liste |x1 |, . . . , |xn | , puisqu’elle
est nie possède, à coup sûr, un plus grand élément et ce dernier est ouvertement positif
ou nul. Il en résulte que || ||∞ applique bien Rn dans R+ .
– Soit à nouveau X = (x1 , . . . , xn ) un vecteur de Rn . Au vu et au su du « si, et
seulement si », nous sous-planions :
– Si X = 0, il est clair que ||X||∞ = 0.
– Supposons, réciproquement, que ||X||∞ = 0. Soit alors i ∈ [[1, n]]. Maximum
et valeurs absolues obligent, nous avons certainement :

0  |xi |  ||X||∞ = 0

Il s’ensuit — c’est le fameux théorème du mur et de l’afche ! — que |xi | = 0 et autant


dire que :
x1 = · · · = xn = 0 i.e. X = 0
14 Concours 2007 voie scientifique

– Soit λ ∈ R et X = (x1 , . . . , xn ) un vecteur de Rn . Nous avons :





||λX||∞ = max |λx1 |, . . . , |λxn | = max |λ| |x1 |, . . . , |λ| |xn |

la dernière égalité reposant sur une légendaire propriété de la valeur absolue. Oui mais,
comme |λ| est positif ou nul, il ne fait aucun doute que :



max |λ| |x1 |, . . . , |λ| |xn | = |λ| max |x1 |, . . . , |xn |

et en conséquence :
||λX||∞ = |λ|||X||∞

– Soit X = (x1 , . . . , xn ) et Y = (y1 , . . . , yn ) deux vecteurs de Rn . Nous avons


cette fois :

||X + Y ||∞ = max |x1 + y1 |, . . . , |xn + yn |
Soit i ∈ [[1, n]]. D’après l’inégalité triangulaire dans R, il ne fait pas l’ombre d’un doute
que :
|xi + yi |  |xi | + |yi |  ||X||∞ + ||Y ||∞
la dernière majoration ne méritant rien de plus qu’un « maximum oblige ». Ainsi tous les
réels |xi + yi | sont inférieurs ou égaux à ||X||∞ + ||Y ||∞ . Il en est donc de même de leur
maximum, puisque ce dernier fait partie de la bande. Nous avons donc bien :

||X + Y ||∞  ||X||∞ + ||Y ||∞

Partie 1

A. Une norme sur Mn (R)

Avant de commencer nous signalons que nous sommes — et pour cause ! — de fervents
adeptes du comportement matriciel(*) que voici :
Lorsqu’une matrice s’appelle « machin » — ou « truc » — nous notons (machin)ij —
ou (truc)ij — l’élément situé en place (i, j), c’est-à-dire à la croisée de la ième ligne et
de la j ème colonne de cette dernière. C’est donc tout naturellement que nous noterons Aij
ou Ai,j — et non ai,j — l’ élément situé en place (i, j) de la matrice A. Nous ferons
également de même pour toutes les matrices qui viendront à notre rencontre.
1. Nous repartons comme en fourteen !
– On démontre exactement comme au préliminaire que || || applique parfaitement
Mn (R) dans R+ .
– Soit A ∈ Mn (R).
– Si A = 0, il est manifeste que ||A|| = 0.

(*) C’est une règle de conduite excessivement pratique qui a l’énorme avantage d’économiser les lettres utilisées et qui, en outre,
permet d’éviter de grosses erreurs. Nous invitons vivement notre vénéré lecteur à s’y plier sur-le-champ !
Hec première 15

– Supposons, réciproquement, que ||A|| = 0. Il s’ensuit comme au préliminaire


que déjà :

n
∀i ∈ [[1, n]] |Aij | = 0
j=1

Lorsqu’une somme de réels positifs ou nuls est nulle tous ses termes sont obligatoirement
nuls et il en résulte immédiatement que :

∀i ∈ [[1, n]] ∀j ∈ [[1, n]] |Aij | = 0

et autant dire que A est la matrice nulle.


– Soit λ ∈ R et A ∈ Mn (R). Nous avons :
 n 
n
||λA|| = max |λAij | = max |λ| |Aij |
1in 1in
j=1 j=1

la dernière égalité se passant pratiquement de tout commentaire. Comme au préliminaire


le positif |λ| peut sortir du max à telle enseigne que :

||λA|| = |λ|||A||

– Soit A et B deux matrices de Mn (R). nous avons :


 n
||A + B|| = max |Aij + Bij |
1in
j=1

Soit alors i et j appartenant à [[1, n]]. Selon l’inégalité triangulaire dans R il s’avère que :

|Aij + Bij |  |Aij | + |Bij |

La sommation membre à membre de ces inégalités, l’entier j gambadant de 1 à n, conduit


en douceur à :

n 
n 
n
|Aij + Bij |  |Aij | + |Bij |  ||A|| + ||B||
j=1 j=1 j=1

la dernière majoration étant, derechef, maximum obligée. Il en résulte comme supra que :
 n
max |Aij + Bij |  ||A|| + ||B||
1in
j=1

ce qui permet de passer à la question suivante.


2.a. Soit X = (x1 , . . . , xn ) un vecteur de Rn et A une matrice de Mn (R). Pour chaque
i ∈ [[1, n]], nous noterons yi la ième entrée de la colonne AX. Soit alors i ∈ [[1, n]]. La
formule du produit matriciel stipule que :

n
yi = Aij xj
j=1
16 Concours 2007 voie scientifique

Grâce à l’inégalité triangulaire il semble déjà se dessiner que :


n
|yi |  |Aij ||xj |
j=1

Soit alors j ∈ [[1, n]]. Nous avons déjà eu l’occasion de signaler(*) que :

|xj |  ||X||∞

La multiplication par le positif |Aij | et la sommation membre à membre, l’entier j se


dandinant de 1 à n, conduisent tranquillement à :


n 
n
|Aij ||xj |  |Aij | ||X||∞
j=1 j=1

Nous avons également rencontré(*) l’inégalité :


n
|Aij |  ||A||
j=1

La multiplication par le positif ||X||∞ et une gentille transitivité amènent alors à :

|yi |  ||A||||X||∞

Les réels |yi | sont tous inférieurs ou égaux à ||A||||X||∞ et il en est encore une fois de
même de leur maximum. En bref, nous avons effectivement :

||AX||∞  ||A||||X||∞

b. La question est assez brutale et un peu sévère. Nous allons faire une analyse-synthèse.
Analyse :
Supposons que X0 = (x1 , . . . , xn ) soit un vecteur de Rn convenable. Les entrées
respectives de la colonne AX0 sont, comme supra, encore notées y1 , . . . , yn . Appelons
alors i0 l’un des indices — maximum oblige — pour lesquels :

||AX0 || = |yi0 |

La reprise, à la queue leu leu, de tous les enchaînements du a montre que :


   
 n  n n

||AX0 || = |yi0 | =  
Ai0 j xj   |Ai0 j ||xj |  |Ai0 j | ||X0 ||∞  ||A||||X0 ||∞
j=1 j=1 j=1

(*) Maximum oblige !


Hec première 17

Comme la colonne X0 est convenable, les deux extrêmes ||AX0 || et ||A||||X0 ||∞ sont
égaux à telle enseigne qu’in ne, l’on se doit d’avoir les égalités :
  
 n   n n

||AX0 || = |yi0 | =  Ai0 j xj  = |Ai0 j ||xj | = |Ai0 j | ||X0 ||∞ = ||A||||X0 ||∞
j=1 j=1 j=1

C’est maintenant que nous allons apprendre des choses passionnantes.


– First, puisque :
 n 
  n
 A x = |Ai0 j ||xj |
 i 0 j j 
j=1 j=1

nous avons un cas avéré d’égalité triangulaire, ce qui — c’est du grand classique —
impose que tous les réels Ai0 j xj aient le même signe.
– Second, l’égalité :


n 
n
|Ai0 j ||xj | = |Ai0 j | ||X0 ||∞
j=1 j=1

se ramène quasi mentalement à :


n


|Ai0 j | ||X0 || − |xj | = 0
j=1

Il s’agit — maximum oblige ! — d’une somme nulle de réels positifs ou nuls et nous
espérons ne froisser personne en assénant que :


∀j ∈ [[1, n]] |Ai0 j | ||X0 || − |xj | = 0

Ce second point sera particulièrement vérié si les xj ont la même valeur absolue
puisqu’alors :
|x1 | = · · · = |xn | = ||X0 ||∞

– Third, l’égalité :

n
|Ai0 j | ||X0 ||∞ = ||A||||X0 ||∞
j=1

impose quant à elle que :



n
|Ai0 j | = ||A||
j=1

vu que, X0 étant convenable, il n’est pas nul et sa norme ne l’est pas plus ! L’entier i0 est
donc également un point d’atteinte du maximum :

n
||A|| = max |Aij |
1in
j=1
18 Concours 2007 voie scientifique

Nous pensons alors en savoir assez pour tenter de faire une :


Synthèse :
Notons i0 un point d’atteinte du maximum :

n
||A|| = max |Aij |
1in
j=1

et proposons pour X0 le vecteur :

(x1 , . . . , xn )

déni de la façon suivante :



⎨1 si Ai0 j  0
∀j ∈ [[1, n]] xj =

−1 si Ai0 j < 0

Le lecteur constatera que nous avons choisi des xj ayant la même valeur absolue — cf.
Second ! — quant au « 1 » si Ai0 j  0 et au « −1 » si Ai0 j < 0 il est dicté — cf. First —
par la nécessité de lisser le signe des Ai0 j xj .
Il nous faut à présent vérier que cette proposition est convenable.
– Le vecteur X0 que nous proposons est assurément non nul et en outre :

||X0 ||∞ = 1

Il nous reste donc à montrer que :

||AX0 ||∞ = ||A||

Here we go !
– Conformément au a, nous avons déjà :

||AX0 ||∞  ||A||||X0 ||∞ = ||A||

Conservant les notations y1 , . . . , yn pour les entrées respectives de AX0 , nous avons
donc :
∀i ∈ [[1, n]] |yi |  ||A|| (1)

– Nous avons également :


n 
n
yi0 = Ai0 j xj = |Ai0 j |
j=1 j=1

la dernière égalité provenant de l’explication suivante. Soit bien sûr j ∈ [[1, n]]. Vu notre
choix des xj nous clamons que :
Hec première 19

– Si Ai0 j  0, l’on a :

Ai0 j xj = Ai0 j = |Ai0 j |

– Si Ai0 j < 0, l’on a :

Ai0 j xj = − Ai0 j = |Ai0 j |

Finalement, et c’est le fameux effet « lissage » supra, l’on a quoi qu’il arrive :

∀j ∈ [[1, n]] Ai0 j xj = |Ai0 j |

Comme désormais yi0 est positif ou nul, il semble que nous ayons donc :


n
|yi0 | = |Ai0 j | = ||A|| (2)
j=1

la deuxième égalité reposant sur le choix opéré pour i0 . Tout cela montre inéluctablement
que :
||AX0 ||∞ = max |yi | = |yi0 | = ||A||
1in

Sacré début de question ! Poursuivons.


Soit X un vecteur non nul de Rn . Sa norme est ouvertement strictement positive et si l’on
en croit le récent a, il ne fait aucun doute que :

||AX||∞
 ||A||
||X||∞

Le réel ||A|| est donc déjà un majorant de l’ensemble :


 
||AX||∞
| X ∈ Rn \ {0}
||X||∞

D’autre part, le récent b afrme, quant à lui, l’existence d’un vecteur X0 ∈ Rn \ {0} tel
que :
||AX0 ||∞
= ||A||
||X0 ||∞
Notre majorant est donc atteint en X0 et tout le monde sait qu’un majorant atteint s’appelle
un maximum. Nous avons donc carrément :

||AX||∞
||A|| = max
X∈Rn \{0} ||X||∞

 Encore cette désopilante manie de mettre un « sup » quand, en réalité, il s’agit d’un
« max », mais bon, ce n’est pas encore aujourd’hui que l’on changera le monde…
20 Concours 2007 voie scientifique

c. Soit A et B deux matrices carrées réelles d’ordre n et soit X un vecteur non nul de
Rn . Grâce à deux applications successives du récent a et comme nous sommes en odeur
de positivité, nous avons :

||ABX||∞  ||A||||BX||∞  ||A||||B||||X||∞

puis :
||ABX||∞
 ||A||||B||
||X||∞
via une division par le strictement positif ||X||∞ . Les réels de la forme :

||ABX||∞
où X ∈ Rn \ {0}
||X||∞

sont tous inférieurs ou égaux à ||A||||B||. Il en est donc de même de leur maximum qui, si
l’on encroit la n du b, n’est autre que ||AB||.
 Le but des deux questions précédentes était, précisément, d’établir que :

∀A ∈ Mn (R) ∀B ∈ Mn (R) ||AB||  ||A||||B||

ce qui vaut à notre norme l’important statut dit de norme d’algèbre. Le texte a curieusement
opté pour le passage par l’égalité(*) :

||AX||∞
||A|| = max
n R \{0} ||X||∞

d’où la question délicate 2.b alors que l’on pouvait, facilement, s’en tirer directement.
Soit, en effet, A et B deux matrices de Mn (R) et soit i, j deux éléments de [[1, n]]. Grâce
à la formule du produit matriciel d’Arthur Cayley, nous avons :


n
(AB)ij = Aik Bkj
k=1

Il s’ensuit, via cette fois l’inégalité triangulaire, que :

   n
  
(AB)ij   Aik Bkj 
k=1

à telle enseigne que :


n
   n 
n
    n
 n
 
(AB)ij   Aik Bkj  = Aik  Bkj 
j=1 j=1 k=1 k=1 j=1

(*) On dit que la norme || || est subordonnée à la norme || ||∞ .


Hec première 21

l’égalité nale protant tout bêtement d’une bénigne inversion de sommation et d’une
légère réorganisation des participants. Oui mais voilà, vu la dénition de ||B||, nous avons
sans équivoque :
n
 
Bkj   ||B||
j=1

d’où ressort immédiatement :


n
  n
 
(AB)ij   Aik  ||B||
j=1 k=1

C’est maintenant à la dénition de ||A|| qu’il appartient de prendre le relais puisqu’elle


stipule, toujours sans la moindre ambiguïté, que :


n
 
Aik   ||A||
k=1

Finalement :

n
 
∀i ∈ [[1, n]] (AB)ij   ||A||||B||
j=1

ce qui aurait dû satisfaire tout le monde.


3.a. As usual, nous planions ce « si, et seulement si ».
– Supposons que la suite (Am ) converge vers A. Soit alors (i, j) ∈ [[1, n]]2 et m ∈ N.
Nous avons eu maintes fois l’occasion de signaler que :
 
0  (Am )ij − Aij   ||Am − A||

Comme par hypothèse :


||Am − A|| −−−−→ 0
m→+∞

il s’ensuit par squeeze que :


 
(Am )ij − Aij  −−−−→ 0 i.e. (Am )ij −−−−→ Aij
m→+∞ m→+∞

– Supposons réciproquement que, pour tout couple (i, j) ∈ [[1, n]]2 , l’on ait :

(Am )ij −−−−→ Aij


m→+∞

Il doit s’ensuivre tranquillement que :


n
 
∀i ∈ [[1, n]] (Am )ij − Aij  −−−−→ 0
m→+∞
j=1
22 Concours 2007 voie scientifique

puisqu’il ne s’agit que de la somme d’un nombre ni xé de suites de limite nulle. Il reste
alors à en déduire que :

n
 
max (Am )ij − Aij  −−−−→ 0
1in m→+∞
j=1

Cela va résulter du petit lemme que voici.


Lemme : Limite et maximum :
i. Soit (um ) et (vm ) deux suites positives réelles de limite nulle. La suite (Mm ) dénie
par :
∀m ∈ N Mm = max(um , vm )
est également de limite nulle.
ii. Ce qui vient de se passer au i pour deux suites positives, vaut également pour un
nombre ni xé de suites positives.
Preuve du lemme :
i. Le maximum de deux réels est assurément l’un d’entre-eux. Positivité des deux suites
oblige il doit s’ensuivre que :

∀m ∈ N 0  max(um , vm )  um + vm

La conclusion se fait alors par squeeze.


ii. La preuve est exactement la même vu que le maximum is squeezed again entre 0 et la
somme.
Retournons alors à nos ovins.
Étant établi que :

n
 
∀i ∈ [[1, n]] (Am )ij − Aij  −−−−→ 0
m→+∞
j=1

notre gentil lemme montre, comme nous l’attendions, que l’on a :



n
 
max (Am )ij − Aij  −−−−→ 0 i.e. ||Am − A|| −−−−→ 0
1in m→+∞ m→+∞
j=1

Nous pouvons changer de question.


 Notre lemme vaut encore pour des suites non nécessairement positives. Nous conseillons
à notre dévoué lecteur d’essayer d’en donner la preuve.
b. Nous allons utiliser la question précédente. Soit donc (i, j) ∈ [[1, n]]2 et m ∈ N.
D’après la formule du produit matriciel d’Arthur Cayley, nous avons :


n
(Am Bm )ij = (Am )ik (Bm )kj
k=1
Hec première 23

Or, par hypothèse via la directe du a, il s’avère que :

∀k ∈ [[1, n]] (Am )ik −−−−→ Aik et (Bm )kj −−−−→ Bkj
m→+∞ m→+∞

Les théorèmes généraux sont alors catégoriques. Il ne fait aucun doute que :


n 
n
(Am )ik (Bm )kj −−−−→ Aik Bkj
m→+∞
k=1 k=1

Mais, formule de Cayley oblige à nouveau, l’on a :


n
Aik Bkj = (AB)ij
k=1

à telle enseigne que, nalmente :

(Am Bm )ij −−−−→ (AB)ij


m→+∞

La réciproque du a se charge alors de la conclusion.


 Tant que nous y sommes et vu que :

∀λ ∈ R ∀m ∈ N (Am + λBm )ij = (Am )ij + λ(Bm )ij

il semble indéniable — et pas vraiment surprenant ! — que :

Am + λBm −−−−→ A + λB
m→+∞

4.a. Il y a ici un petit problème technique. Pour dénir la limite d’une suite matricielle,
encore eut-il fallu que le texte donne la dénition précise de la convergence tout court
des suites matricielles et qu’il fasse établir le théorème d’unicité de la limite pour ces
nouvelles suites convergentes. Nous ferons donc comme si nous n’avions rien vu en
signalant nonobstant à notre ami lecteur que les manquements du texte ne sont pas difciles
à combler ! Cela étant, la propriété établie au 2.c et une récurrence bénigne conduisent
tranquillement à :
∀m ∈ N 0  ||Am ||  ||A||m
Comme ||A|| < 1, c’est depuis la classe de première que nous savons que :

||A||m −−−−→ 0
m→+∞

Il en résulte par squeeze que :


||Am || −−−−→ 0
m→+∞

ce qui est exactement la dénition de :

Am −−−−→ 0
m→+∞
24 Concours 2007 voie scientifique

Nous écrirons donc :


lim Am = 0
m→+∞

b. Soit λ une valeur propre réelle de A. Il existe un vecteur non nul X ∈ Rn tel que :

AX = λX

Le passage en norme « inni » donne alors :

|λ|||X||∞ = ||AX||∞  ||A||||X||∞

l’inégalité provenant de la délicieuse question 2.a. Comme X = 0, sa norme est


strictement positive à telle enseigne, qu’après simplication, l’on tombe sur :

|λ|  ||A||

Et comme ||A|| < 1… Poursuivons.


Dans ces conditions, les réels 1 et −1 ne peuvent pas être valeur propre de A ce qui, nous
le savons bien, impose que A − I et A + I soient inversibles.
c. Soit m ∈ N. Assez naturellement nous notons :


m
Sm = Ak
k=0

Comme cela avait bien fonctionné pour les séries géométriques réelles, nous avons l’idée
de de nous intéresser à la matrice Sm − ASm . Nous avons alors les égalités tranquilles :


m 
m 
m
(I − A)Sm = Sm − ASm = Ak − Ak+1 = (Ak − Ak+1 ) = I − Am+1
k=0 k=0 k=0

la toute dernière, procédant d’un très sympathique télescopage. Oui mais voilà, nous
venons d’apprendre à l’instant que I − A est inversible, ce qui permet déjà de récupérer :

Sm = (I − A)−1 (I − Am+1 )

égalité ayant un bon pesant d’arachide. La question 4.a, légèrement décalée, stipule à son
tour que :
Am+1 −−−−→ 0
m→+∞

D’après la remarque que nous sommes — à juste titre ! — permise à la n du 3.b, il s’avère
que :
I − Am+1 −−−−→ I
m→+∞

et d’après le théorème du produit du même 3.b voilà enn que :

(I − A)−1 (I − Am+1 ) −−−−→ (I − A)−1


m→+∞
Hec première 25

 Si l’on en croit ce que raconte le texte en italique qui suit, il semblerait que nous ayons
démontré que la série matricielle : 
Am
m0

converge et que :
+∞

Am = (1 − A)−1
m=0

L’analogie — on rappelle qu’ici ||A|| < 1 — avec les séries géométriques réelles est plus
que frappante.
5. Les habitués auront reconnu en N une matrice nilpotente d’indice p.
a. Soit m ∈ N et notons :

m
1 k
Tm = N
k!
k=0

Vu les hypothèses, dès que k dépasse p, N k = 0 et il ne fait alors aucun doute que :


p−1
1 k
∀m  p − 1 Tm = N = Tp−1
k!
k=0
p−1
la somme k=0 ayant un sens(*) vu que p  1. Cela entraîne dans la foulée :

∀m  p − 1 ||Tm − Tp−1 || = 0

On en déduit immédiatement que :

||Tm − Tp−1 || −−−−→ 0


m→+∞

ce qui, par dénition, montre que la suite (Tm ) converge vers Tp−1 . La série :
 1
Nk
k!
k0

est effectivement convergente et :


+∞
 1 k  1 k
p−1
M= N = N
k! k!
k=0 k=0

b. Lorsque p = 2, l’on a carrément M − I = N et il n’ y a rien à démontrer. Nous


pouvons donc, dans la suite, supposer p  3. Dans ces conditions, nous pouvons écrire :
1 2 1

M −I =N + N + ··· + N p−1 = N + f (N )N 2 = I + f (N )N N
2! (p − 1)!
s
(*) Quand on écrit une somme de type
k=r
il est important que les entiers r et s vérient rs. Cependant, si l’on n’a pas peur
du vide, on peut accepter s=r−1, mais pas plus !
26 Concours 2007 voie scientifique

où, à la surprise générale, nous avons désigné par f le polynôme :

1 T T p−3
+ + ··· +
2! 3! (p − 1)!

assurément genuine vu que p  3. Nous procédons alors par double inclusion.


– Soit X un vecteur de Rn vériant N X = 0. Nous avons :


(M − I)X = I + f (N )N N X = 0

et tout le monde est ravi.


– La réciproque est un petit peu plus sévère. Soit X un vecteur de Rn vériant cette
fois :

(M − I)X = 0 i.e. I + f (N )N N X = 0

Il y a alors deux choses importantes à noter.


– First, la matrice f (N )N est également nilpotente. En effet, comme N et
f (N ) commutent, l’on a

p
p
f (N )N = f (N ) N p = 0

– Second, nous rappelons un gentil :


Lemme :
Soit U une matrice nilpotente (n, n). La matrice In + U est fatalement inversible.
preuve du lemme :
Il existe par hypothèse un entier s ∈ N∗ tel que :

Us = 0

Dans ces conditions le polynôme (T − 1)s est annulateur de la matrice In + U et zéro ne


fait pas partie de ses racines. Tout individu normalement constitué se doit d’en déduire
alors que :
0 ∈ Spec(In + U )

chronique d’une inversibilité annoncée.


Revenons alors à nos chères brebis. Nous avons :


I + f (N )N N X = 0

et, lemme dixit, la matrice I + f (N )N est inversible. Il en résulte immédiatement que :

NX = 0

et tout le monde est ravi.


Hec première 27

6.a. Il existe des réels d1 , . . . , dn tels que :


⎡ ⎤
d1 ··· 0
. .. ⎦
D = ⎣ .. ..
. .
0 · · · dn

Nous espérons que notre lecteur, féru de culture diagonale, n’a pas l’intention d’ignorer
que, dans ces conditions, l’on a :
⎡ k ⎤
d1 · · · 0
⎢ .. ⎥
∀k ∈ N Dk = ⎣ ... . . . . ⎦
0 · · · dkn

Soit alors p ∈ N. Il en résulte diagonalement que :


⎡ ⎤
s1 ··· 0
p
1 k ⎣ . .
. .. ⎦
D = .. ..
k!
k=0 0 · · · sn

où, l’on s’en sera douté, pour chaque i ∈ [[1, n]], nous avons noté :


p
dk i
si =
k!
k=0

Une authentique référence aux importantes séries exponentielles permet alors d’envisager
que :
∀i ∈ [[1, n]] si −−−−→ edi
p→+∞

à telle enseigne que, si l’on en croit la convergence termes à termes de la récente question
3.a, il ne semble pas impossible d’afrmer que :
⎡ d1 ⎤
p e ··· 0
1 k . .. .. ⎦
D −−−−→ ⎣ .. . .
k! p→+∞
k=0 0 · · · edn

Nous pouvons donc passer à la suite.


b. Soit p ∈ N. Tout élève ayant fréquenté assidument la classe de première année se fait
fort de clamer que :
 p 
p
1 k  1
p  1
A = P Dk P −1 = P Dk P −1
k! k! k!
k=0 k=0 k=0

la dernière égalité procédant d’une pré-factorisation de P et d’une post-factorisation de


P −1 . La question précédente stipule que la suite matricielle :
 p 
 1
k
D
k!
k=0 p∈N
28 Concours 2007 voie scientifique

converge. Comme l’on accepte volontiers que les suites matricielles constantes convergent
vers leurs propres pommes, la précédente question 3.b révèle, dans le calme, que la suite :
 p 
 1
k
A
k!
k=0 p∈N

converge et que : +∞ 


+∞
  1
1 k
A =P Dk P −1
k! k!
k=0 k=0

 Nous venons de démontrer que, lorsque A est diagonalisable, la série matricielle :


 1
Ak
k!
k0

est convergente. Le texte, dans son côté petit bras, admet que cela subsiste lorsque A est
quelconque ce qui ne présente pourtant pas de réelle difculté. Soit en effet A une matrice
quelconque et i, j deux éléments de [[1, n]]. Soit également k ∈ N. Vu la dénition de
notre norme || ||, il est totalement évident que :
 k 
(A )ij   ||Ak ||  ||A||k

la dernière inégalité ayant déjà été mentionnée lors de la question 4.a. Dans ces conditions,
il ne fait aucun doute que :  k 
(A )ij  ||A||k
0 
k! k!
La série exponentielle de première année :

 ||A||k
k!
k0

est connue pour sa convergence et par comparaison en signe positif, la série :


 
 (Ak )ij 
k!
k0

est absolument convergente donc convergente…


 Voici une autre remarque qui trouvera son utilité un peu plus loin. Nous venons de
constater que lorsque A est une matrice diagonalisable écrite sous la forme :

A = P diag(d1 , . . . , dn )P −1

l’on a :
exp(A) = P diag(ed1 , . . . , edn )P −1
Ces belles similitudes matricielles montrent alors magistralement que :
Hec première 29


– Si λ ∈ Spec A, alors eλ ∈ Spec exp(A) .


– Si µ ∈ Spec exp(A) , alors ln µ ∈ Spec A.
Affaire à suivre…
7.a. Soit m ∈ N. Les deux matrices I et A/m nous faisant l’honneur de commuter, la
formule du binôme d’Isaac, assure que :
m m

A m 1 Ak
I+ = ·
m k mk k!
k=0

Il en résulte quasi instantanément que :


m m
 m

Ak m 1 Ak m(m − 1) · · · (m − k + 1) Ak
− · = 1−
k! k mk k! mk k!
k=0 k=0 k=0

puisque les combinards affûtés n’ignorent point que :



m m(m − 1) · · · (m − k + 1)
∀k ∈ N =
k k!

Voilà donc déjà que :


m m

Ak m(m − 1) · · · (m − k + 1) Ak
− Am = 1−
k! mk k!
k=0 k=0

Mais, à la surprise générale, l’on a :

m(m − 1) · · · (m − k + 1)
∀k ∈ [[0, m]] 1− 0 (1)
mk
et la propriété iii(*) — légèrement inductée — puis la propriété ii de la dénition d’une
norme assurent de concert que :
    m
 m Ak  m(m − 1) · · · (m − k + 1) Ak 
 − A   1 −
 k!
m 
mk k!
k=0 k=0

Signalons alors pour la troisième fois que :

∀k ∈ N Ak   Ak

pour que l’affaire semble — cf. (1) supra — positivement et dénitivement dans le sac.
b. Il faut retravailler le côté droit de l’inégalité précédente. Compte tenu de ce que nous
avons raconté plus haut, il s’écrit manifestement :


m m
 
m m
||A||k m ||A||k ||A||k ||A||
− = − 1+
k! k mk k! m
k=0 k=0 k=0

(*) Elle s’appelle « inégalité triangulaire » pour la norme.


30 Concours 2007 voie scientifique

la dernière égalité provenant, cette fois, de la formule de Newton dans R. Il s’avère ainsi
nalement que l’inégalité du 7.a se métamorphose en l’encadrement :
 m k  m
 A   m
||A||k ||A||
0
 − A 
m   − 1 + (∗)
k! k! m
k=0 k=0

vu que la positivité ajoutée à gauche…Il reste alors à faire valoir deux choses.
– First, tout lecteur serialexpo se doit de ne pas avoir oublié que :


m
||A||k
−−−−→ e||A||
k! m→+∞
k=0

– Second, tout lecteur normalement cultivé a, au moins une fois dans sa vie, rencontré
la limite :  a m
∀a ∈ R 1+ −−−−→ ea
m m→+∞

Pour ceux — ou celles — qui l’auraient oublié, en voici la preuve. Soit a ∈ R. Comme :
a
1+ −−−−→ 1
m m→+∞

nous pouvons afrmer qu’il existe un rang m0 tel que :


a
∀m  m0 1+ >0
m
Dans ces conditions, pour m  m0 , nous sommes autorisés à écrire :
 a m  a
ln 1 + = m ln 1 +
m m
Mais, selon l’équivalence standard :

ln(1 + u) ∼ u
u→0

il apparaît que :  a a
ln 1 + ∼
m m→+∞ m
à telle enseigne que l’on a immédiatement :
 a
m ln 1 + −−−−→ a
m m→+∞

La continuité en a de la fonction exp permet d’exponentier cette limite(*), ce qui donne


exactement :  a m
1+ −−−−→ ea
m m→+∞

(*) On rappelle en revanche qu’exponentier une équivalence peut coûter très très cher…
Hec première 31

Revenons alors à nos ovins. Il semble désormais se dessiner que :


m
||A||
1+ −−−−→ e||A||
m m→+∞

et compte tenu de nos deux révélations voilà bien que :



m m
||A||k ||A||
− 1+ −−−−→ e||A|| − e||A|| = 0
k! m m→+∞
k=0

Il y a donc un superbe sqeeze dans l’encadrement (∗) supra qui, si l’on en croit la dénition
de la convergence des suites matricielles, stipule que :

m
Ak
Am − −−−−→ 0
k! m→+∞
k=0

L’écriture :

m
Ak 
m
Ak
Am = Am − +
k! k!
k=0 k=0

et la pertinente remarque faite à la n du 3.b assurent de concert que :

Am −−−−→ exp(A)
m→+∞

vu que :

m
Ak 
m
Ak
Am − −−−−→ 0 et −−−−→ exp(A)
k! m→+∞ k! m→+∞
k=0 k=0

 Le résultat est assez mignon. La limite numérique :


 a m
∀a ∈ R 1+ −−−−→ exp a
m m→+∞

se propage également aux limites matricielles vu que désormais :


m
A
∀A ∈ Mn (R) I+ −−−−→ exp(A)
m m→+∞

B. Propriétés de l’exponentielle de matrice

1. Soit A ∈ Mn (R). Les matrices A et −A ayant la bonne idée de commuter, la délicieuse


— mais sérieuse ! — propriété admise à l’instant révèle que :

exp(A) exp(−A) = I et exp(−A) exp(A) = I

vu qu’à la surprise générale, l’exponentielle de la matrice nulle est inopinément la matrice


I. En bref, nous avons :

exp(A) exp(−A) = exp(−A) exp(A) = I


32 Concours 2007 voie scientifique

Cela montre par dénition que la matrice exp(A) est effectivement inversible et que :

−1
exp(A) = exp(−A)

2.a. Attention, le texte présente ici une petite faiblesse. Pour mener à bien cette question
nous allons avoir à nouveau à admettre(*) une chose, en l’occurrence la convergence —
que rien a priori ne justie — de la série matricielle :

 Ak−1
k!
k2

Forts de cette nouvelle information, nous pouvons annoncer un entier m  2 et écrire


sans autre explication :


m 
m 
m 
m
Ak Ak Ak−1 Ak−1
=I+ =I +A =I +A I + (∗∗)
k! k! k! k!
k=0 k=1 k=1 k=2

Vu ce que nous avons accepté d’admettre à l’instant, nous pouvons proposer :

+∞
 Ak−1
SA =
k!
k=2

L’importante remarque additionnelle faite à la n du 3.b de la partie A permet de passer


à la limite dans (∗∗) lorsque m tend vers +∞. This exactly yields :

exp(A) = I + A(I + SA )

et permet donc d’envisager la suite.


 Attention, il n’y a pas unicité de cette matrice SA . Par exemple, si A = 0, toute matrice
de Mn (R) convient. Le lecteur intéressé pourra cependant constater que, lorsque A est
inversible, il y a unicité de la matrice SA .
b. Notons u la fonction en question. Elle est indiscutablement dérivable sur R+ et :

∀x ∈ R+ u (x) = ex − 2

Il en résulte le tableau de variations :

x 0 ln 2 +∞

u − 0 +

u
1 − 2 ln 2

(*) Nonobstant la preuve que nous avons donnée plus haut devrait, sans problème, s’appliquer à cette nouvelle série matricielle.
Hec première 33

c. Warning, cette question est fausse. Nous avons en effet déjà attiré l’attention du
lecteur à propos de la non-unicité, en général, de la fameuse SA et lorsque ||A|| < 1, il
n’y a aucune raison que toutes les SA convenables aient une norme strictement inférieure
à 1. Nous en voulons pour preuve le contre-exemple implacable A = 0 pour lequel toutes
les matrices de la création conviennent. En revanche, pour la matrice SA proposée supra,
en l’occurrence :
+∞
 Ak−1
SA =
k!
k=2

les choses devraient rentrer rapidement dans l’ordre. Soit en effet A ∈ Mn (R) vériant
||A|| < 1 et m un entier supérieur ou égal à 3. Notons prudemment :


m
Ak−1
SA,m =
k!
k=2

D’après l’inégalité triangulaire pour la norme, il ne fait aucun doute que :



m
||Ak−1 || 
m
||A||k−1
||SA,m ||  
k! k!
k=2 k=2

la dernière inégalité résultant encore une fois de la délicieuse 2.c de la partie A. Comme
la norme de A est inférieure à un, nous pouvons même aller un peu plus loin. Nous avons
carrément :

m
1
||SA,m ||  (i)
k!
k=2

Il est alors très tentant d’envisager le passage à la limite quand m tend vers plus l’inni
mais attention, si nous savons ce que fait SA,m — il tend matriciellement vers SA par
dénition — nous ignorons ce que fait sa norme puisque la continuité des normes n’est
pas ofciellement au programme. Nous allons nous en sortir grâce à la pirouette que voici.
Nous partons de :
SA = SA − SA,m + SA,m
L’inégalité triangulaire permet d’en déduire que :

||SA ||  ||SA − SA,m || + ||SA,m ||

de sorte que :
||SA || − ||SA − SA,m ||  ||SA,m ||
L’inégalité (i) écrite un peu plus haut couplée à un brin de transitivité nous amène alors
gentiment à :

m
1
||SA || − ||SA − SA,m ||  (ii)
k!
k=2

Nous observons alors deux choses.


– Primo, vu que SA,m tend matriciellement vers SA , il s’avère que :

||SA − SA,m || −−−−→ 0


m→+∞
34 Concours 2007 voie scientifique

– Secundo, les initiés de la série exponentielle, certes légèrement tronquée,


s’accordent à clamer tous en chœur que :


m
1
−−−−→ e − 2
k! m→+∞
k=2

Le passage à la limite quand m tend vers plus l’inni est désormais possible dans (ii). It
yields :
||SA ||  e − 2
Oui mais, comme le nombre de Neper est ouvertement inférieur strict à 3, il semble que :

e−2<1

ce qui, transitivement, achève cette question.


 Le lecteur perspicace aura noté que l’étude de fonction du récent b ne sert strictement à
rien, si ce n’est qu’à compliquer les choses…
 Nous voudrions revenir un instant sur la fameuse continuité de la norme. Il est assez
facile — la preuve est la même que celle donnée pour la valeur absolue — d’établir la
minoration triangulaire que voici :
 
∀A ∈ Mn (R) ∀B ∈ Mn (R) ||A|| − ||B||  ||A − B||

Soit alors (Un )n∈N une suite de matrices convergeant vers une certaine matrice U . Vu
que :  
∀n ∈ N 0  ||Un || − ||U ||  ||Un − U ||
et que, par dénition de la convergence matricielle :

||Un − U || −−−−→ 0
m→+∞

il résulte par squeeze que :  


||Un || − ||U || −−−−→ 0
m→+∞

ce qui, ni plus ni moins, signie que :

||Un || −−−−→ ||U ||


m→+∞

Nous avons donc le joli suivi :

Un −−−−→ U =⇒ ||Un || −−−−→ ||U ||


m→+∞ m→+∞

qui, pour le lecteur séquentiellement averti, s’appelle continuité de la norme || ||. Cela
aurait pu pemettre d’éviter la pirouette supra.
d. Nous commencons par remarquer que, selon le récent 2.a, l’on a déjà :

A(I + SA ) = 0
Hec première 35

Comme depuis peu ||SA || < 1, l’excellent 4.b de la partie A stipule que I + SA est
inversible ce qui — multiplication à droite par (I + SA )−1 — oblige implacablement :

A=0

3.a. Soit A ∈ Sn . Comme n  1, le théorème spectral signale que A est ortho-


diagonalisable, ce qui signie qu’il existe une matrice orthogonale P ∈ On (R) et une
matrice diagonale réelle :
D = diag(λ1 , . . . , λn )
telles que, au choix, l’on ait :

A = P DP −1 = P DP T

Si l’on en croit les tribulations du 6.b de la partie A il semblerait que :

exp(A) = P exp(D)P −1 = P exp(D)P T

où, à la surprise générale :

exp(D) = diag(eλ1 , . . . , eλn )

Nous nous appuyons alors sur deux choses.


– First, puisque :
exp(A) = P exp(D)P T
le succulent dressing undressing principle assure que :
 T  T
exp(A) = P exp(D) P T = P exp(D)P T = exp(A)

l’avant-dernière égalité protant de l’éternelle symétrie des matrices diagonale. Il s’ensuit


déjà que :
exp(A) ∈ Sn
vu que la réalité de exp(A) n’a pu échapper qu’aux œdipiens fortement complexés !
– Second, à la vue de :

exp(A) = P exp(D)P −1

les matrices exp(A) et exp(D) sont semblables, à telle enseigne que :




 
Spec exp(A) = Spec exp(D) = eλ1 , . . . , eλn

Exponentielle réelle oblige, les valeurs propres de exp(A) sont donc strictement positives
et par conséquent :
exp(A) ∈ Sn++

b. Nous venons déjà d’apprendre que exp applique Sn dans Sn++ . Reste à contrôler
sa surjectivité. Soit donc B ∈ Sn++ . Le théorème spectral — encore lui ! — garantit
36 Concours 2007 voie scientifique

l’existence d’une matrice orthogonale P ∈ On (R) et d’une matrice diagonale à diagonaux


strictement positifs :
∆ = diag(µ1 , . . . , µn )
telles que :
B = P ∆P −1 = P ∆P T
Rappelons que µ1 , . . . , µn sont strictement positifs et que exp est une bijection de R sur
R∗+ . Dans ces conditions, pour chaque i ∈ [[1, n]], il existe un réel λi tel que :

µi = eλi

et par conséquent :

B = P diag(eλ1 , . . . , eλn )P −1 = P diag(eλ1 , . . . , eλn )P T

La première égalité, via la question 6.b de la partie A, montre que :

B = exp A

où, sans aucune hésitation, nous proposons :

A = P diag(λ1 , . . . , λn )P −1

Remarquons pour nir que, vu l’orthogonalité de P , l’on a également :

A = P diag(λ1 , . . . , λn )P T

Le délicieux dressing undressing principle assure alors que :


 T
AT = P diag(λ1 , . . . , λn ) P T = A

la dernière égalité protant, a donf, de l’éternelle symétrie des matrices diagonales. Nous
sommes nalement partis de B ∈ Sn++ et nous lui avons trouvé un antécédent par exp
situé dans Sn , en l’occurrence la fameuse A supra. Que demande le peuple ?
4.a. Les matrices A et B étant symétriques réelles d’ordre supérieur ou égal à un sont,
encore une fois, spectralement condamnées à la diagonalisation et c’est déjà une excellente
chose vu la seconde remarque faite à la suite de la question 6.b de la partie A. Nous allons
procéder par double inclusion.
– Soit λ ∈ Spec A. La dite remarque signale que :


eλ ∈ Spec exp(A)

et comme exp(A) = exp(B), l’on a également :




eλ ∈ Spec exp(B)

La même remarque stipule alors que :

ln eλ ∈ Spec B i.e. λ ∈ Spec B


Hec première 37

– On démontre mutatis mutandis l’autre inclusion à telle enseigne que l’on a bien :

Spec A = Spec B

b. Comme exp(B) = exp(A), il s’agit en réalité de montrer que A commute à sa propre


exponentielle.
Soit m ∈ N. Nous avons sans sourciller :
m  m 
m 
m
Ak Ak+1 Ak Ak+1
A = et aussi : A=
k! k! k! k!
k=0 k=0 k=0 k=0

Compte tenu de l’important théorème du produit — question 3.a de la partie A — et de


ce que :
m
Ak
−−−−→ exp(A)
k! m→+∞
k=0

nous pouvons, grâce aux deux égalités supra, afrmer que la série matricielle :
 Ak+1
k!
k0

converge et que sa somme vaut à la fois A exp(A) et exp(A)A. Nous pouvons donc
passer à la suite.
c.i. Réexion faite, il semble nalement plus facile de travailler avec la matrice B.
Notons λ la valeur propre de B attachée à l’espace propre F et notons ν la dimension de
ce dernier.
Diagonalisation oblige, on peut tranquillement trouver une matrice inversible P et des
réels λν+1 , . . . , λn , tous différents de λ, tels que :

B = P diag(λ, . . . , λ, λν+1 , . . . , λn )P −1
 ! "
ν fois

Nul ne peut alors se permettre d’ignorer que :

F = Eλ (B) = Vect(C1 , . . . , Cν )

où C1 , . . . , Cν sont les ν premières colonnes de la matrice P .


Nous avons maintes fois signalé que, dans ces conditions, l’on a :

exp(B) = P diag(eλ , . . . , eλ , eλν+1 , . . . , eλn )P −1


 ! "
ν fois

Oui mais voilà, comme la fonction exponentielle est injective, les réels eλν+1 , . . . , eλn
sont tous différents de eλ à telle enseigne que :

F = Vect(C1 , . . . , Cν ) = Eeλ (exp(B))


38 Concours 2007 voie scientifique

Notre F est donc l’espace propre de exp(B) attaché à la valeur propre eλ .


ii. Cette question ne sert rigoureusement à rien.
Nonobstant, pour ceux que cela intéresse, le principe eut pu être le suivant.
– Comme u commute à exp(v) — question b —, c’est un exercice classique — et
facile ! — que d’établir que les espaces propres de exp(v) sont stables par u. Ainsi déjà,
u stabilise F .
– La restriction d’un endomorphisme diagonalisable à un sous-espace stable est
encore diagonalisable, mais cela est beaucoup plus cher…
d. À bien y regarder, nous venons de démontrer que lorsqu’une matrice réelle M est
diagonalisable alors :

∀λ ∈ Spec M Eλ (M ) = Eeλ (exp(M ))

Soit alors λ ∈ Spec A. D’après la question a supra, λ appartient également à Spec B et


par conséquent :

Eλ (A) = Eeλ (exp(A)) et Eλ (B) = Eeλ (exp(B))

puisque A et B sont depuis longtemps diagonalisables. Comme par hypothèse :

exp(A) = exp(B)

il semble bien que :


Eλ (A) = Eλ (B)
Si nous revenons aux deux endomorphismes u et v, ils ont exactement les mêmes éléments
propres, en ce sens que :
Spec u = Spec v
et :
∀λ ∈ Spec u = Spec v Eλ (u) = Eλ (v)
Cela pose une excellente question ! Deux endomorphismes ayant les mêmes éléments
propres sont-ils fatalement égaux ? La réponse est malheureusement non en général, mais
dans le cas de deux endomorphismes diagonalisables — ce qui advient de u et v — la
réponse est oui comme le montre le petit raisonnement suivant.
As usual, nous notons a1 , . . . , ar les différentes valeurs propres de u, de sorte que :
 
Spec u = Spec v = a1 , . . . , ar

Diagonalisation oblige, les espaces propres de u sont supplémentaires dans Rn , ce qui


s’écrit :
#r
Rn = Eai (u)
i=1

Soit alors x ∈ R . Il existe une liste :


n

(x1 , . . . , xr ) ∈ Ea1 (u) × · · · × Ear (u)


Hec première 39

telle que :
x = x1 + · · · + xr
Dans ces conditions, à la lueur de la linéarité de u et de v, il advient que :

r 
r
u(x) = u(xi ) et v(x) = v(xi )
i=1 i=1

Oui mais voilà, pour chaque i ∈ [[1, r]], xi appartient à Eai (u) = Eai (v) à telle enseigne
que :
u(xi ) = v(xi ) = ai xi
En bref, l’on a :
u(x) = v(x)
et comme cela vaut pour tous les x ∈ Rn , l’on a carrément :

u=v

De là à en déduire que A = B…
 Nous avions déjà établi au récent 3.b que la restriction de exp à Sn était une surjection
de ce dernier sur Sn++ . Il semble qu’à l’instant, nous venions d’établir son injectivité.
Finalement, l’application exp réalise une bijection de Sn sur Sn++ .
 Dans le cas non diagonalisable, la coïncidence des éléments propres ne suft plus à
assurer l’égalité comme le montre le contre-exemple suivant. Les deux matrices :
$ % $ %
0 1 0 2
A= et B =
0 0 0 0

ont les mêmes éléments propres vu que, quasi mentalement :


$ %
1
Spec A = Spec B = {0} et E0 (A) = E0 (B) = Vect
0

mais pourtant…

Partie 2

1. Nul doute que :


⎡ ⎤
0 1 0 ··· 0 0
⎢0 0 1 ··· 0 0⎥ ⎡ ⎤
⎢ ⎥
⎢0 0 0 ··· 0 0⎥ O In−1
N =⎢ . . . . . ⎥ ⎣
⎢ .. .. .. . . . .. .. ⎥ =

⎢ ⎥ O O
⎣0 0 0 ··· 0 1⎦
0 0 0 ··· 0 0
C’est alors la classique histoire de la diagonale(*) qui monte.

(*) Et non de la bébette !


40 Concours 2007 voie scientifique

– Lorsque 0  k < n, grâce à l’endomorphisme f , on trouve inductivement :


⎡ ⎤
O In−k
Nk = ⎣ ⎦
O O

– Lorsque k  n, l’on a :
Nk = 0

2.a. On trouve immédiatement Qp = pN − pI. Comme les matrices pN et pI ont le bon


vouloir de commuter, la propriété admise en tête de gondole stipule déjà que :

exp(Qp ) = exp(−pI) exp(pN )

Comme p n’est pas nul, la matrice pN est — cf. question 1 — nilpotente d’indice n à
l’instar de N et la question 5.a de la partie A se charge de nous convaincre de ce que :


n−1
pk k
exp(pN ) = N
j=0
k!

Quant à exp(−pI), le calcul est élémentaire et laissé à la charge du dévoué lecteur. Il


trouvera :
exp(−pI) = e−p I
Nous pouvons passer à la suite.
b. Nous avons :
⎡ ⎤
1−p p 0 ··· 0 0
⎢ 0 1−p p ··· 0 0 ⎥
⎢ ⎥
⎢ 0 0 1 − p ··· 0 0 ⎥
Rp = ⎢
⎢ .. .. .. .. .. .. ⎥

⎢ . . . . . . ⎥
⎣ ⎦
0 0 0 ··· 1 − p p
0 0 0 ··· 0 1−p

Vu que 0 < p < 1, la somme des valeurs absolues des éléments des n − 1 premières
lignes de Rp vaut 1. En revanche, en ce qui concerne la dernière ligne, cette somme est
légèrement plus petite. Comme n  2, nous pouvons afrmer que :

||Rp || = 1

 Attention, rigueur, rigueur, dans l’éventualité — heureusement écartée ici – d’un entier
n égal à un, l’on aurait eu ||Rp || = 1 − p…
Gràce au même genre de raisonnement on trouve :

||Qp || = 2p
Hec première 41

puisque :
⎡ ⎤
−p p 0 ··· 0 0
⎢ 0 −p p ··· 0 0 ⎥
⎢ ⎥
⎢ 0 0 −p · · · 0 0 ⎥
Qp = ⎢
⎢ .. .. .. .. .. .. ⎥

⎢ . . . . . . ⎥
⎣ ⎦
0 0 0 ··· −p p
0 0 0 ··· 0 −p

Enn, l’inégalité triangulaire et la toujours bienvenue 2.c.A assurent que :


n−1
pj
|| exp(Qp )||  e−p ||N ||j
j=0
j!

Comme la norme de la matrice N est mentalement égale à un, il s’ensuit que :



n−1
pj
|| exp(Qp )||  e−p
j=0
j!

Le lecteur perspicace aura reconnu à droite la probabilité qu’une variable de Poisson de


paramètre p soit inférieure ou égale à n − 1. Probabilité oblige, l’on a donc bien :

|| exp(Qp )||  1

3.a. Pour chaque k ∈ [[1, m]], nous avons :

Qk = pk (N − I)

Les matrices Qk sont donc des polynômes matriciels par rapport à N — autrement dit des
éléments de R[N ] — et à ce titre, elles se doivent de commuter deux à deux. La propriété
admise au début du B et une récurrence bénigne conduisent alors de concert à :
m  m
exp(Qk ) = exp Qk
k=1 k=1

Or, il ne fait aucun doute que :


m $  m % $ m %
Qk = pk (N − I) = − pk (I − N )
k=1 k=1 k=1

So…
b. Il suft de développer.
c. L’égalité précédente, l’inégalité triangulaire et l’incontournable 2.c.A assurent, dans
un premier temps, que :
m 
 m 
 
 Rk − exp(Qk )  ||R1 − exp(Q1 )|| · ||R2 || · · · ||Rm ||
  m 
k=1 k=1
  m 
 
+ || exp(Q1 )|| ·  Rk − exp(Qk )
 
k=2 k=2
42 Concours 2007 voie scientifique

Comme les normes des Rk sont égales à un et comme || exp(Q1 )||  1, il en résulte quasi
instantanément que :
  m 
m 
m   m 
   
 Rk − exp(Qk )  ||R1 − exp(Q1 )|| +  Rk − exp(Qk )
   
k=1 k=1 k=2 k=2

Exactement de la même façon — mais avec un facteur de moins ! — il advient que :


  m 
m 
m   
m 
   
 Rk − exp(Qk )  ||R2 − exp(Q2 )|| +  Rk − exp(Qk )
   
k=2 k=2 k=3 k=3

Une récurrence aisée — laissée, as usual,… — devrait alors nous tirer d’affaire.
4.a. Depuis la récente question 2.a, nous avons :


n−1
pj1 j
exp(Q1 ) = e−p1 N
j=0
j!

et grâce au calcul des N j — la bébette qui monte ! — de la question 1, cela se détaille


en :
⎡ e−p1 pn−1
1 ⎤
e−p1 p1 e−p1 ··· ··· ···
⎢ (n − 1)! ⎥
⎢ .. .. .. ⎥
⎢ 0 e −p1
p1 e −p1 . . . ⎥
⎢ ⎥
⎢ .. .. .. ⎥
⎢ 0 e−p1 . . . ⎥
⎢ 0 ⎥
exp(Q1 ) = ⎢ . ⎥
⎢ . .. .. .. .. .. ⎥
⎢ . . . . . . ⎥
⎢ ⎥
⎢ ⎥
⎢ 0 0 0 · · · e−p1 p1 e−p1 ⎥
⎣ ⎦
0 0 0 ··· 0 e−p1
Vu que :
⎡ ⎤
1 − p1 p1 0 ··· 0 0
⎢ 0 1 − p1 p1 ··· 0 0 ⎥
⎢ ⎥
⎢ 0 0 1 − p1 ··· 0 0 ⎥
R1 = ⎢
⎢ .. .. .. .. .. .. ⎥

⎢ . . . . . . ⎥
⎣ ⎦
0 0 0 · · · 1 − p1 p1
0 0 0 ··· 0 1 − p1
on imagine assez bien la tête de la différence exp(Q1 ) − R1 et il suft d’ouvrir grand
ses mirettes pour constater que, dans cette matrice, la ligne ayant la plus haute somme de
valeurs absolues est ouvertement la première. Il s’ensuit alors effectivement que :


n−1
pk1
|| exp(Q1 ) − R1 || = |e−p1 − 1 + p1 | + p1 |e−p1 − 1| + e−p1
k!
k=2

Il faut maintenant faire quelques observations.


Hec première 43

– First, une très classique inégalité de convexité, stipule que :

∀u ∈ R eu  1 + u

Il s’ensuit que :
e−p1 − 1 + p1  0
ce qui va permettre une première disparition de valeur absolue.
– Second, à la vue de p1 positif, la quantité e−p1 − 1 est négative, ce qui conduit à
une seconde suppression.
– Third, la somme partielle d’une série à termes positifs est — lorsque cette dernière
converge s’entend ! — toujours inférieure à sa somme, ce qui conduit tous les serial expos
à clamer sans autre explication que :


n−1  pk +∞
pk1 1
e−p1  e−p1 = e−p1 (ep1 − 1 − p1 )
k! k!
k=2 k=2

vu que la somme ne part pas de zéro mais de deux.


Il semble résulter de tout cela que :

|| exp(Q1 ) − R1 ||  e−p1 − 1 + p1 + p1 − p1 e−p1 + 1 − e−p1 − p1 e−p1 = 2p1 (1 − e−p1 )

l’égalité nale protant de quelques agréables simplications. Nous avons déjà signalé
supra que :
1 − e−p1  p1
Il devrait positivement — et transitivement — s’ensuivre ce que nous attendons tous, à
savoir :
|| exp(Q1 ) − R1 ||  2p21
La destination est proche ! Ce que nous venons de faire pour p1 vaut assurément pour tous
les pk à telle enseigne que :

∀k ∈ [[1, m]] || exp(Qk ) − Rk ||  2p2k

La conclusion appartient désormais à la récente question 3.c.

Partie 3

1. Pour chaque entier i ∈ [[1, m]], il va être pratique d’appeler Xi la variable de Bernoulli
qui prend la valeur 1 lorsque la ième pièce amène « pile » ce qui, très classiquement,
entraîne :
∀k ∈ [[1, m]] Sk = X1 + · · · + Xk
Il faut en outre — le texte omet cet état des choses — supposer l’indépendance(*) des
variables Xk , ce que nous faisons sur-le-champ.

(*) Dans la plus pure des réalités il n’en est rien ! Chaque lancer de pièce brasse évidemment les molécules de l’air environnant, ce
qui a fatalement une inuence sur le lancer suivant, à moins que les lancers ne soient effectués dans le vide…
44 Concours 2007 voie scientifique

Signalons également que l’importante hypothèse m < n assure, pour chaque k ∈ [[1, m]],
l’inégalité :
k+1n
et il y a donc bien la place pour k + 1 éléments dans la première ligne de la matrice
indiquée.
Signalons enn qu’à la surprise générale, pour chaque k ∈ [[1, m]], nous avons :

Sk (Ω) ⊂ [[0, k]]

a. Nous allons procéder par récurrence nie sur k ∈ [[1, m]].


• Lorsque k = 1, la variable S1 = X1 est de Bernoulli de paramètre p1 et les
deux premiers éléments de la première ligne de R1 sont justement 1 − p1 et p1 . L’affaire
s’engage bien.
• Supposons la propriété établie pour un entier k qui, récurrence nie oblige, vérie :

1k<m

Comme k < m nous sommes autorisés à parler de Sk+1 et l’on a sans surprise :

Sk+1 = Sk + Xk+1

Soit alors j ∈ [[0, k + 1]]. Comme Xk+1 ne prend que les valeurs 0 et 1, la formule des
probabilités totales sur le système complet :
&   '
Xk+1 = 0 , Xk+1 = 1

stipule que :



p( Sk+1 = j ) = p [ Sk+1 = j ] ∩ [ Xk+1 = 0 ] + p [ Sk+1 = j ] ∩ [ Xk+1 = 1 ]

Mais, par double inclusion quasi mentale, il se révèle que :

[ Sk+1 = j ] ∩ [ Xk+1 = 0 ] = [ Sk = j ] ∩ [ Xk+1 = 0 ]

et :
[ Sk+1 = j ] ∩ [ Xk+1 = 1 ] = [ Sk = j − 1 ] ∩ [ Xk+1 = 1 ]
De plus, puisque nous avons supposé indépendantes les variables :

X1 , . . . , Xk , Xk+1

le lemme des coalitions assure qu’il en est de même de :

Sk = X1 + · · · + Xk et Xk+1

à telle enseigne, qu’in ne, la formule des probabilités totales supra se métamorphose en :

p( Sk+1 = j ) = p( Sk = j )p( Xk+1 = 0 ) + p( Sk = j − 1 )p( Xk+1 = 1 )


Hec première 45

Vu que Sk ne prend ni valeur négative, ni valeur supérieur à k la prudence nous


recommande de planier.
– Lorsque j = 0, force est de constater que :

p( Sk+1 = 0 ) = p( Sk = 0 )p( Xk+1 = 0 ) = p( Sk = 0 )(1 − pk+1 )

– Lorsque j = k + 1, la même force amène à :

p( Sk+1 = k + 1 ) = p( Sk = k )p( Xk+1 = 1 ) = p( Sk = k ) pk+1

– En revanche, lorsque 1  j  k + 1, il n’y a pas vraiment de surprise et l’on a :

p( Sk+1 = j ) = p( Sk = j )(1 − pk+1 ) + p( Sk = j − 1 ) pk+1

Si l’on en croit l’hypothèse de récurrence, la loi de Sk montre sa frimousse en première


ligne à gauche de la matrice R1 × · · · × Rk ce qui — beware à l’indexation ! — s’écrit :


∀j ∈ [[1, k]] p( Sk = j ) = R1 × · · · × Rk 1,j+1

D’autre part, un examen minutieux de la matrice Rk+1 révèle que :

∀j ∈ [[1, n]] (Rk+1 )j,j = (1−pk+1 ) et ∀j ∈ [[1, n−1]] (Rk+1 )j,j+1 = pk+1 (1)

Mezalor :
– Lorsque j = 0, l’on a :




p( Sk+1 = 0 ) = R1 × · · · × Rk 1,1 (1 − pk+1 ) = R1 × · · · × Rk 1,1 Rk+1 1,1

la dernière relation provenant des récentes relations (1).


– Lorsque j = k + 1, l’on a de même :



p( Sk+1 = k + 1 ) = R1 × · · · × Rk 1,k+1 Rk+1 k+1,k+2

– Enn, lorsque 1  j  k, nul doute que :







p( Sk+1 = j ) = R1 ×· · ·×Rk 1,j+1 Rk+1 j+1,j+1 + R1 ×· · ·×Rk 1,j Rk+1 j,j+1

Les éléments de Rk+1 autres que ceux cités en (1) sont nuls. La formule du produit
matriciel — avec ses ts caractéristiques — et un fabuleux recollement des trois cas nous
amènent alors à :


∀j ∈ [[0, k + 1]] p( Sk+1 = j ) = R1 × · · · × Rk × Rk+1 1,j+1

Autant dire que la loi de Sk+1 occupe les k + 2 premières places de la première ligne de
la matrice R1 × · · · × Rk × Rk+1 ce qui ne peut que nous séduire.
46 Concours 2007 voie scientifique

b. Le même raisonnement inductif — il est donc gentiment laissé à la charge de notre


valeureux lecteur — que celui que nous venons de développer à l’instant montre que,
pour tout k ∈ [[1, m]], les n − k − 1 derniers éléments de la première ligne de la matrice
R1 × · · · × Rk sont nuls. La variable Sk étant à valeurs dans [[0, k]], il s’ensuit que la
première ligne du produit R1 × · · · × Rk est carrément :

[ p( Sk = 0 ) p( Sk = 1 ) · · · · · · p( Sk = n − 1 ) ]

Celle de R1 × · · · × Rm est donc :

[ p( Sm = 0 ) p( Sm = 1 ) · · · · · · p( Sm = n − 1 ) ]

Gardons cela au chaud quelques instants le temps de se rappeler que, quelques lignes plus
haut, nous avons aperçu la matrice exp(Q1 ). Or, si l’on en croit la question 3.a de la
partie précédente, cette dernière ressemble étrangement à la matrice :

m
exp(Qi )
i=1

puisque :



m


exp(Q1 ) = exp −p1 (I − N ) et exp(Qi ) = exp −λ(I − N )
i=1

La première ligne du produit des exp(Qi ) est donc :


$ %
−λ −λ e−λ λn−1
e λe ··· ···
(n − 1)!
Finalement la première ligne de la matrice :

m 
m
Ri − exp(Qi )
i=1 i=1

n’est ni plus ni moins que :


[ a0 a1 · · · an−1 ]
où :
λk
∀k ∈ [[0, n − 1]] ak = p( Sm = k ) − e−λ
k!
La somme des valeurs absolues des éléments de cette ligne est donc :


n−1  λk 

p( Sm = k ) − e−λ 
k!
k=0

et maximum oblige il s’avère déjà que :


m 

n−1  k  m 
 −λ λ   
p( Sm = k ) − e    Ri − exp(Qi )
k!  
k=0 i=1 i=1
Hec première 47

Le texte, un peu maladroitement, demande en réalité une égalité qui ne sert pas vraiment
à grand chose. Comme il commence à se faire tard, nous en resterons là…
c. Ce n’est qu’une transitive conséquence de l’inégalité précédente et de celle de la very
n de la seconde partie.
 Cette inégalité est dûe à Lucien Le Cam et date de 1960. Elle éclaire en particulier les
liens classiques entre la loi binomiale et la loi de Poisson.
2. Nous commençons par rappeler la classique — et presque ofcielle — simulation
d’une variable binomiale B(m, p) c’est-à-dire d’une somme de m variables de Bernoulli
indépendantes de même paramètre p.
La loi binomiale :

function binomiale (n : integer ; p : real ) : integer ;


var
i, S : integer ;
begin
S := 0 ;
for i := 1 to m do
if random <= p then S := S + 1 ;
binomiale := S ;
end ;

Il suft alors de s’adapter à notre nouveau contexte. Here you are !

function Sm ( prob : tab) : integer ;


var
i, S : integer ;
begin
S := 0 ;
for i := 1 to m do
if random <= prob[ i ] then S := S + 1 ;
Sm := S ;
end ;
Hec deuxième 49

Hec deuxième

Inégalité de Le Cam
Méthode de Chen-Stein
Barbour and Eagleson

Année Difficulté
2 ¶¶

Pour toute variable aléatoire réelle Y dénie sur un espace probabilisé (Ω, A, p) et
possédant une espérance mathématique, on note E(Y ) cette espérance pour la probabilité
p. Pour tout événement C de A tel que p( C ) > 0, on note, sous réserve d’existence,
E(Y /C) l’espérance de Y pour la probabilité conditionnelle pC ( espérance conditionnelle
de Y sachant C ).

Partie 1

Cette partie constitue une application particulière des résultats généraux étudiés
dans la suite du problème.
On possède n urnes (n  3) numérotées de 1 à n, dans lesquelles on répartit au hasard
et de façon indépendante, m boules indiscernables (m  4), de sorte que, pour tout i de
[[1, n]], la probabilité pour chaque boule d’être placée dans l’urne numéro i soit égale à
1/n.
On suppose que cette expérience est modélisée par un espace probabilisé
(Ω, A, p). À l’issue de cette expérience, on pose pour tout i de [[1, n]] :


⎨1 si l’urne no i est vide
Xi =

0 sinon
50 Concours 2007 voie scientifique

On pose :

n
Wn = Xi
i=1

1.a. Déterminer pour tout i de [[1, n]], la loi de la variable aléatoire Xi .


b. Pour tout couple (i, j) d’entiers de [[1, n]] distincts, calculer :

p( [Xi = 1] ∩ [Xj = 1] )

ainsi que la covariance de Xi et Xj . Les variables aléatoires Xi et Xj sont-elles


indépendantes ?
2.a. Exprimer l’espérance E(Wn ) de Wn en fonction de n et m.
b. On note V (Wn ) la variance de Wn . Calculer V (Wn ) en fonction de n et m.
c. Vérier l’égalité :
 1 2m  2 m
E(Wn ) − V (Wn ) = n2 1 − − n(n − 1) 1 −
n n
En déduire que :
E(Wn ) − V (Wn )  0

3. Dans cette question, l’entier m vérie m = n ln n + θn, où θ est une constante réelle
positive et x désigne la partie entière de x.
a. Calculer :
lim E(Wn )
n→+∞

b. Montrer que :

lim E(Wn ) − V (Wn ) = 0
n→+∞

c. Soit Tn une variable aléatoire qui suit une loi de Poisson de paramètre µn = E(Wn ).
On admet que pour tout k de N, on a :
  

p( Wn = k ) − p( Tn = k )  min 1, 1 × µn − V (Wn )
µn

Quelle est la limite en loi de la suite de variables aléatoires (Wn )n3 ?


4. On pose µ = e−θ , et on suppose que le paramètre µ est inconnu. Dans cette question,
on veut estimer µ.
Pour p entier de N∗ , on considère un p-échantillon indépendant, identiquement distribué
(T1 , T2 , . . . , Tp ) de la loi de Poisson de paramètre µ. On pose :

1
p
√ Tp − µ
Tp = Ti et Up = p √
p i=1 µ
Hec deuxième 51

a. Montrer que T p est un estimateur sans biais et convergent du paramètre µ.


b. Quelle est la limite en loi de la suite de variables aléatoires (Up )p1 ?
c. On veut construire, pour p assez grand, un intervalle de conance du paramètre µ au
risque α donné. Soit u le réel strictement positif tel que p( U  u ) = α/2 où U est une
variable aléatoire qui suit la loi normale centrée réduite.
Justier que pour p assez grand, on peut écrire :

p( |Up |  u ) = 1 − α

et déterminer alors un intervalle de conance [Ip , Jp ] pour µ au risque α.

Partie 2

Dans cette partie, λ désigne un réel strictement positif.


Soit M une variable aléatoire dénie sur un espace probabilisé (Ω, A, p) qui suit une loi
de Poisson de paramètre λ.
Soit A une partie quelconque de N et A son complémentaire dans N. On rappelle que si
A est non vide, alors :
 λi
p( M ∈ A ) = e−λ
i!
i∈A
 
et on pose par convention M ∈ ∅ = ∅.
On considère la fonction fA dénie sur N par fA (0) = 0, et pour tout k de N :

k!

fA (k + 1) = eλ p( [ M ∈ A ] ∩ [ M  k ] ) − p( M ∈ A ) × p( M  k )
λk+1

1.a. Déterminer la fonction fA dans les cas particuliers A = ∅ et A = N.


b. Donner l’expression de fA (1) en fonction de λ et de p( M ∈ A ) dans les deux cas
suivants : 0 ∈ A et 0 ∈ A.
Exprimer fA (2) en fonction de λ et de P ([M ∈ A]) dans le cas où 0 et 1 appartiennent à
A.
2. Soit A et B deux parties de N disjointes.
a. Montrer que :
fA∪B = fA + fB

b. En déduire que :
fA = −fA

3.a Montrer que pour tout k de N, la fonction fA vérie la relation suivante :



⎨ p( M ∈ A ) si k∈A
λfA (k + 1) − kfA (k) =

−p( M ∈ A ) si k ∈ A
52 Concours 2007 voie scientifique

b. En déduire que si A est non vide et distincte de N, la fonction fA n’est pas


identiquement nulle.
4. Dans cette question, j est un entier naturel non nul, et A est le singleton {j}.
On pose f{j} = fj .
a. Pour tout k de N∗ , montrer l’égalité suivante :

⎪ k!

⎪ p( M  k + 1 ) si k  j

⎨ j!λ k−j+1

fj (k + 1) =



⎪ k!
⎩ − k−j+1 p( M  k ) si k < j
j!λ

b. Calculer fj (j + 1) − fj (j), et déterminer son signe.


c. Calculer pour tout k de N∗ , différent de j, fj (k + 1) − fj (k) en distinguant les deux
cas : k > j et k < j. En déduire que la différence fj (k + 1) − fj (k) est positive si, et
seulement si, k = j.
d. Établir les inégalités suivantes :

1 − e−λ
1
fj (j + 1) − fj (j)   min 1,
λ λ

5. On considère le singleton {0} et on pose f{0} = f0 . Montrer, pour tout k de N∗ ,


l’inégalité suivante :
f0 (k + 1) − f0 (k)  0

6.a. Établir pour tout k de N, l’inégalité suivante :

fA (k + 1) − fA (k)  fk (k + 1) − fk (k)

(on distinguera les deux cas : k ∈ A et k ∈ A) b. En déduire, pour toute partie A de N,


l’inégalité suivante :
   1
supfA (k + 1) − fA (k)  min 1,
k0 λ

Partie 3

Soit n un entier supérieur ou égal à 2. On considère n variables aléatoires discrètes


indépendantes X1 , X2 , . . . , Xn dénies sur un même espace probabilisé (Ω, A, p), telles
que pour tout i de [[1, n]], la variable aléatoire Xi suit une loi de Bernoulli de paramètre
pi strictement positif.
On pose :

n 
n
λn = pi ; Wn = Xi
i=1 i=1
Hec deuxième 53

et, pour tout i de [[1, n]], Ri = Wn − Xi .


On note Mn une variable aléatoire qui suit une loi de Poisson de paramètre λn . Soit A
une partie quelconque de N, et fA la fonction dénie dans la partie 2, dans l’expression
de laquelle on remplace M par Mn et λ par λn . On pose f = fA .
1.a. Établir pour tout i de [[1, n]], l’égalité des deux variables aléatoires Xi f (Wn ) et
Xi f (1 + Ri ).
b. En déduire pour tout i de [[1, n]], l’égalité :



E Xi f (Wn ) = pi E f (1 + Ri )

2. Pour tout i de [[1, n]], on pose :

Yi = f (1 + Wn ) − f (1 + Ri )

Établir la relation suivante :


n
E λn f (1 + Wn ) − Wn f (Wn ) = pi E(Yi )
i=1

3.a. Établir pour tout i de [[1, n]], la formule suivante :




E(Yi /[Xi = 1]) = E f (2 + Ri ) − f (1 + Ri )

b. Calculer pour tout i de [[1, n]], E(Yi /[Xi = 0]).


c. Déduire des questions précédentes l’égalité suivante :


n


E λn f (1 + Wn ) − Wn f (Wn ) = p2i E f (2 + Ri ) − f (1 + Ri )
i=1

4. Établir l’inégalité suivante :



n
E λn f (1 + Wn ) − Wn f (Wn )   min 1, 1 × p2i
λn i=1

5. À l’aide de la question 2.3.a, montrer, pour toute partie A de N, l’égalité suivante :




E λn f (1 + Wn ) − Wn f (Wn ) = p( Wn ∈ A ) − p( Mn ∈ A )

En déduire, pour toute partie A de N, la majoration suivante :

 
n
p( Wn ∈ A ) − p( Mn ∈ A )  min 1, 1 × p2i
λn i=1
54 Concours 2007 voie scientifique

6. Dans cette question uniquement, on suppose que pour tout i de [[1, n]], Xi suit la loi de
Bernoulli de paramètre :
1
pi =
n+i

a. Déterminer lim λn . Montrer que :


n→+∞


n
lim p2i = 0
n→+∞
i=1

b. Déterminer la limite en loi de la suite (Wn )n2 .

Partie 4

Les notations sont identiques à celles de la partie 3, mais les variables aléatoires
X1 , X2 , . . . , Xn dénies sur (Ω, A, p), ne sont pas nécessairement indépendantes.
1.a. Montrer que pour tout i de [[1, n]], on a :



E Xi f (Wn ) = pi E f (1 + Ri )/[Xi = 1]

b. En déduire l’égalité suivante :


n



p( Wn ∈ A ) − p( Mn ∈ A ) = pi E f (1 + Wn ) − E f (1 + Ri )/[Xi = 1]
i=1

2. On suppose que pour tout i de [[1, n]], il existe une variable aléatoire Zi dénie sur
(Ω, A, p), à valeurs dans N, telle que la loi de Zi soit identique à la loi conditionnelle de
Ri sachant [Xi = 1].
a. Justier, pour tout couple ( , j) d’entiers naturels, l’inégalité :

  
f ( ) − f (j)  | − j| × min 1, 1
λn

et en déduire la majoration suivante :

   n


p( Wn ∈ A ) − p( Mn ∈ A )  min 1, 1 × pi E |Wn − Zi |
λn i=1

b. On suppose de plus que pour tout ω de Ω, pour tout i de [[1, n]], on a Wn (ω)  Zi (ω).
Établir l’égalité :
n


pi E |Wn − Zi | = λn − V (Wn )
i=1

où V (Wn ) désigne la variance de Wn .


Hec deuxième 55

En déduire, pour toute partie A de N, l’inégalité suivante :

  

p( Wn ∈ A ) − p( Mn ∈ A )  min 1, 1 × λn − V (Wn )
λn

Solution
Partie 1

1.a. Soit i ∈ [[1, n]]. Comme n  1 et au vu du protocole, la probabilité de placer une


boule en dehors de l’urne n°i est :
1
1−
n
L’hypothèse d’indépendance des placements fait alors que :
 1 m
p( Xi = 1 ) = 1 −
n

La variable Xi suit donc la loi de Bernoulli :



1 m
B 1, 1−
n

b. Soit (i, j) un couple d’entiers distincts de [[1, n]]. Comme n  2, la probabilité de


placer une boule en dehors des urnes de numéro i et j est à l’évidence :

2
1−
n

et la même hypothèse d’indépendance fait cette fois que :


 2 m
p( [ Xi = 1 ] ∩ [ Xj = 1 ] ) = 1 −
n

Il est important de savoir que le produit Xi Xj est encore une variable de Bernoulli dont
le paramètre n’est autre que p( [ Xi = 1 ] ∩ [ Xj = 1 ] ). La variable Xi Xj possède donc
une espérance et :
 2 m
E(Xi Xj ) = 1 −
n
Comme les variables Xi et Xj en possède une également, le couple (Xi , Xj ) possède
une covariance et :
 2 m  1 2m
cov(Xi , Xj ) = E(Xi Xj ) − E(Xi )E(Xj ) = 1 − − 1−
n n
56 Concours 2007 voie scientifique

Nous allons alors démontrer par l’absurde que cette covariance n’est jamais nulle. Si tel
était le cas, nous aurions :
 2 m  1 2m  2 1 m
1− = 1− = 1− + 2
n n n n
la dernière égalité reposant sur le développement d’un carré de la classe de quatrième. Vu
que m n’est pas nul, cela ne paraît pas très raisonnable. Qui dit covariance non nulle dit
dépendance pour ne pas dire addiction…
2.a. Comme les Xi possèdent une espérance il en est de même de la somme Wn et par
linéarité :  1 m
E(Wn ) = n 1 −
n

b. Les Xi possédant cette fois une variance, la variable Wn en possède une aussi et
comme la variance est une forme quadratique, nul ne peut ignorer que :


n 
V (Wn ) = V (Xi ) + 2 cov(Xi , Xj )
i=1 1i<jn



Comme la somme située tout à fait à droite est bien connue pour avoir n2 termes, il
advient assez sereinement que :
 
1 m  1 m 2 m  1 2m
V (Wn ) = n 1 − 1− 1− + n(n − 1) 1 − − 1−
n n n n

On peut arranger cela un tout petit peu puisqu’en réalité :


 1 m  1 2m  2 m
V (Wn ) = n 1 − − n2 1 − + n(n − 1) 1 −
n n n

c. Vu ce qui vient d’arriver, le début de la question n’est qu’une pure formalité. Nous
avons en effet :
 1 m  1 m  1 2m  2 m
E(Wn ) − V (Wn ) = n 1 − −n 1− + n2 1 − − n(n − 1) 1 −
n n n n
et une gentille simplication termine l’affaire. Quant à la suite, comme il a déjà été
remarqué que :
 1 2 2
1− 1− 0
n n
et que m est positif, il semble inéluctable que :
 1 2m  2 m
1−  1− 0
n n

À côté de cela, comme à l’évidence :

n2  n(n − 1)  0
Hec deuxième 57

et que nous sommes dans une cruciale odeur de positivité, une gentille multiplication
membre à membre conduit tranquillement à :
 1 2m  2 m
n2 1 −  n(n − 1) 1 −
n n
ce qui ne peut que nous ravir.
3.a. Comme n est supérieur ou égal à deux, l’espérance de Wn est strictement positive et
nous pouvons alors nous intéresser fortement à la quantité :
 1
ln E(Wn ) = ln n + n ln n + θn ln 1 −
n
L’inégalité standard de la partie entière stipule que :

n ln n + θn − 1  n ln n + θn  n ln n + θn

La multiplication par le nettement négatif ln(1 − 1/n) puis l’addition de ln n nous


apportent alors sur un plateau :
 1
A(n)  ln E(Wn )  A(n) − ln 1 − (1)
n
où, pour alléger un poquit´n, nous nous sommes permis de noter :
 1
A(n) = ln n + (n ln n + θn) ln 1 −
n
Le développement limité à l’ordre deux du logarithme ici présent, en l’occurrence :
 1 1 1 n
ln 1 − = − − 2+ 2
n n 2n n
où ( n ) est une suite de limite nulle, permet de transformer aisément A(n) en :

1 ln n θ ln n n
A(n) = − θ − · − + n · +θ·
2 n 2n n n
Une très classique prépondérance signale que :

ln n
−−−−→ 0
n n→+∞
qui, à n’en pas douter, est la raison essentielle à :

A(n) −−−−→ − θ
n→+∞

Voilà qui est un bon début. D’autre part, vu que sans surprise :
 1
ln 1 − −−−−→ 0
n n→+∞
58 Concours 2007 voie scientifique

il y a un sacré squeeze dans l’encadrement (1) supra duquel résulte :

ln E(Wn ) −−−−→ − θ
n→+∞

La fonction exponentielle étant débonnairement continue, il s’ensuit que :

E(Wn ) −−−−→ e−θ


n→+∞

b. Nous avons déjà réussi à montrer que :


 1 m
n 1− −−−−→ e−θ
n n→+∞

Il en résulte déjà carrément que :


 1 2m
n2 1 − −−−−→ e−2θ
n n→+∞

Concernant l’autre morceau on remarque tout d’abord que :


 2 m  2 m
n(n − 1) 1 − ∼ n2 1 − (eq)
n n→+∞ n
et comme n  3 on peut allègrement s’intéresser cette fois à :
  2 m   2
ln n2 1 − = 2 ln n + n ln n + θn ln 1 −
n n
L’encadrement :

n ln n + θn − 1  n ln n + θn  n ln n + θn

est toujours d’actualité et ln(1 − 2/n) est tout aussi négatif que le cousin du précédent
a. Il en résulte alors mutatis mutandis que :
  2 m   2
B(n)  ln n2 1 −  B(n) − ln 1 − (2)
n n
où, cette fois, nous avons allégé la situation with :
 2
B(n) = 2 ln n + (n ln n + θn) ln 1 −
n
Nous sortons alors le développement limité à l’ordre deux :
 2 2 2 ηn
ln 1 − = − − 2+ 2
n n n n
où (ηn ) est une suite de limite nulle, qui permet de transformer aisément B(n) en :

2 ln n 2θ ln n ηn
B(n) = − 2θ − − + ηn · +θ·
n n n n
Hec deuxième 59

Il ne fait maintenant aucun doute que :

B(n) −−−−→ − 2θ
n→+∞

de sorte que, par squeeze dans (2), apparaîsse :


  2 m 
ln n2 1 − −−−−→ − 2θ
n n→+∞

C’est alors dans un délicieuse continuité exponentielle que :


 2 m
n2 1 − −−−−→ e−2θ
n n→+∞

d’où, grâce à la non moins délicieuse (eq) supra, surgit :


 2 m
n(n − 1) 1 − −−−−→ e−2θ
n n→+∞

Compte tenu de la toute proche question 2.c, il s’ensuit ainsi effectivement que :

E(Wn ) − V (Wn ) −−−−→ 0


n→+∞

c. Soit k ∈ N. Le min ne servant pas ici à grand chose, la propriété que nous admettons
induit la majoration :
 
p( Wn = k ) − p( Tn = k )  E(Wn ) − V (Wn )

Si l’on en croit notre dernière conclusion il y a squeeze derechef et voilà donc déjà que :

p( Wn = k ) − p( Tn = k ) −−−−→ 0 (li)
n→+∞

Mais, loi de Denis oblige, nous avons :

µkn
p( Tn = k ) = e−µn
k!
et depuis le tout récent 2.b :
µn −−−−→ e−θ = µ
n→+∞

en devançant légèrement le futur baptême de e−θ . La continuité sur R de la fonction exp


et des fonctions monômes amènent alors sur un plateau :

µk
p( Tn = k ) −−−−→ e−µ
n→+∞ k!

À la lumière de la limite (li) qui mijote un petit peu plus haut, il s’avère que :

µk
p( Wn = k ) −−−−→ e−µ
n→+∞ k!
60 Concours 2007 voie scientifique

Notons alors T une variable de Poisson de paramètre µ. Nous notons deux choses
importantes :
– First, nous avons :

∀n  3 Wn (Ω) ⊂ T (Ω) = N

vu que, pour chaque n  3, Wn prend ouvertement ses valeurs dans [[0, n]].
– Second, nous venons à l’instant d’établir que :

∀k ∈ N p( Wn = k ) −−−−→ p( T = k )
n→+∞

La condition sufsante de convergence en loi pour les suites de variables discrètes stipule
alors exactement que :
L
Wn −−−−→ T
n→+∞

ce que l’on se permet d’écrire aussi parfois :


L
Wn −−−−→ P(µ)
n→+∞

4. Pour les deux questions qui suivent il eut été plus opportun de considérer une suite
innie, (Tp )p∈N∗ , qui soit i.i.d et attachée à la loi de Poisson de paramètre µ, ce que nous
faisons sur-le-champ.
a. La loi de Poisson de paramètre µ, parce que nous le savons bien, possède une variance.
Comme la suite (T p ) est la suite de ses moyennes empiriques de rang p la conclusion est
on ne peut plus ofcielle.
b. Nous avançons les éléments suivants :
– La suite (Tp )p∈N∗ est — i.i.d oblige — formée de variables indépendantes et de
même loi.
– La variable T1 possède une variance strictement positive µ. Comme E(T1 ) vaut
également µ, le théorème de la limite centrée de Liapounov stipule alors exactement que :

Tp − µ L
) −−−−→ N (0, 1)
µ/p n→+∞

c. Il nous faut comprendre que α est un réel de l’ouvert ]0, 1[ et, au cas où on ne l’aurait
pas reconnu, le réel u du texte n’est autre que le très fameux et très ofciel tα . Il vérie
donc :
α
1 − Φ(tα ) = Φ(−tα ) =
2
où, l’on s’en doute bien, Φ désigne la fonction de Gauss, répartition de la loi normale
centrée réduite.
Cela étant, pour « p assez grand » comme ils disent, on va carrément décréter que Up est
normale centrée réduite, ce qui nous amène à :

p( |Up |  tα ) = p( −tα  Up  tα ) = Φ(tα ) − Φ(−tα ) = 1 − α


Hec deuxième 61

Remarquons alors, sans autre forme de procès, que :

     t2 
|Up |  tα = |Up |2 − t2α  0 = (T p − µ)2 − α µ  0
p

ce qui, en développant un poquit´n, devient :

    t2 2

|Up |  tα = µ2 − α + 2T p µ + T p  0
p

Nous devenons d’un coup très intéressés par le trinôme :


 t2 2
τ = X2 − α
+ 2T p X + T p
p

vu que ce qui précède se transforme en :


   
|Up |  tα = τ (µ)  0

Le discriminant ∆ de τ vaut exactement :

t2α t4
∆ = 4T p + α2
p p

et est donc ouvertement strictement positif. Il possède donc deux racines réelles distinctes
que, très opportunément, nous nommons Ip et Jp et comme elles appartiennent à la galerie
des horreurs nous éviterons de les calculer explicitement. Cela dit, tout individu ayant
assidûment suivi les enseignements de la première scientique ne peut ignorer que :
   
τ (µ)  0 = µ ∈ [Ip , Jp ]

et nalement :

p µ ∈ [Ip , Jp ] = 1 − α
Nous pouvons changer de partie.

Partie 2

1.a. On trouve aisément, dans les deux cas, que fA est l’application nulle.
b. Il ne fait aucun doute que :

eλ 



fA (1) = p [M ∈ A] ∩ [M = 0] − p [M ∈ A] · p [M = 0]
λ
C’est là qu’il faut planier un petit peu.
– Si 0 appartient à A, vu que :

[M ∈ A] ∩ [M = 0] = [M = 0]
62 Concours 2007 voie scientifique

on déduit que :
1 − p( [ M ∈ A ] )
fA (1) =
λ
puisque p( M = 0 ) = e−λ
– De la même façon, si 0 n’appartient pas à A, vu que :

[M ∈ A] ∩ [M = 0] = ∅

on trouve :
p( [ M ∈ A ] )
fA (1) = −
λ
Poursuivons. Nous avons à n’en pas douter :

eλ 



fA (2) = p [ M ∈ A ] ∩ [ M  1 ] − p [ M ∈ A ] · p [ M  1 ]
λ2
Comme le texte suppose que 0 et 1 appartiennent à A, il advient tranquillement que :

[M ∈ A] ∩ [M  1] = [M  1]

et vu que p( M  1 ) = e−λ (1 + λ), il semble bien que :

1 + λ

fA (2) = 2
1 − p( [ M ∈ A ] )
λ

2.a. Nous planions un peu.


– L’égalité :
fA∪B (0) = fA (0) + fB (0)
vu qu’elle s’écrit 0 = 0 ne devrait casser aucune patte de col vert !
– Soit maintenant k ∈ N. Nous devons sérieusement nous intéresser à la quantité :




p [M ∈ A ∪ B ] ∩ [M  k] − p [M ∈ A ∪ B ] · p [M  k]

Nous observons à cet effet que :


– Primo, et sans l’ombre d’un doute, l’on a :
     
M ∈A∪B = M ∈A ∪ M ∈B

Comme les ensembles A et B sont disjoints, il en est de même des événements [ M ∈ A ]


et [ M ∈ B ] et par additivité :




p [M ∈ A ∪ B] = p M ∈ A + p M ∈ B

– Secondo, par le même type d’argumentation — au prix néanmoins d’une petite


distributivité — on démontre également que :




p [ M ∈ A∪B ]∩[ M  k ] = p [ M ∈ A ]∩[ M  k ] +p [ M ∈ B ]∩[ M  k ]
Hec deuxième 63

L’égalité :
fA∪B (k + 1) = fA (k + 1) + fB (k + 1)
s’en déduit alors quasi mentalement.
b. Il suft de noter que A etA sont disjointes, que :

A ∪A = N

et de ne pas avoir oublié que, depuis le 1.a, l’on a fN = 0.


3.a. Soit k ∈ N. Nous devons de planier à nouveau.
– Si k = 0, le côté gauche devient λfA (1) et au récent 1.b nous avons trouvé :

⎨ 1 − p( M ∈ A ) si 0 ∈ A
λfA (1) =

− p( M ∈ A ) si 0∈
/A

Si l’on en croit la formule de l’événement contraire, l’affaire semble dans le sac.


– Si k  1, nous avons cette fois :

k! λ 



λfA (k + 1) = e p [ M ∈ A ] ∩ [ M  k ] − p M ∈ A · p M  k
λk
k! 



kfA (k) = k eλ p [ M ∈ A ] ∩ [ M  k − 1 ] − p M ∈ A · p M  k − 1
λ
C’est alors quasi mentalement que, par différence, l’on obtient :

k! λ 



λfA (k + 1) − kfA (k) = e p [ M ∈ A ] ∩ [ M = k ] − p M ∈ A · p M = k
λk
Nous devons alors sous-planier exactement comme au récent 1.b :
– Si k ∈ A, vu que :
     
M ∈A ∩ M =k = M =k

on trouve instantanément et effectivement :


k! λ

λfA (k + 1) − kfA (k) = k
e p( M = k ) 1 − p( M ∈ A ) = p( M ∈ A )
λ
la dernière égalité reposant à la fois sur la formule de l’événement contraire et sur une
connaissance sans faille de la loi de Denis Poisson.
– Si k ∈
/ A, vu que cette fois :
   
M ∈A ∩ M =k =∅

on trouve mutatis mutandis :

λfA (k + 1) − kfA (k) = − p( M ∈ A )


64 Concours 2007 voie scientifique

et tout le monde est ravi.


 On aurait pu également appliquer le cas précédent à A := A et user du récent 2.b mais
cela n’est guère plus rapide.
b. Le « en déduire » est pour le moins étrange vu que nous savons cela depuis le 1.b. En
effet, vu que A n’est ni la partie vide, ni la partie pleine,l’on a les inégalités strictes :

0 < p( M ∈ A ) < 1

et vu ce que nous avons trouvé à l’époque pour fA (1)…


4.a. Soit k ∈ N∗ . Nous avons :
k! 



fA (k + 1) = k+1 eλ p [ M = j ] ∩ [ M  k ] − p M = j · p M  k
λ
et on commence à avoir l’habitude !
– Si k  j, vu que :
     
M =j ∩ M k = M =j

il advient que :
k!
k!
fA (k + 1) = eλ p( M = j ) 1 − p( M  k ) = p( M  k + 1 )
λk+1 j!λk−j+1
la dernière expression étant derechef contrario poissonienne.
– En revanche si k < j, vu que :
   
M =j ∩ M k =∅

on obtient mutatis mutandis :


k!
fA (k + 1) = − p( M  k )
j!λk−j+1

 Nous observons que l’hypothèse k  1 n’a pas vraiment été utile et heureusement pour
la suite…
b. Il résulte de la première facette du a que :
1
fj (j + 1) = p( M  j + 1 )
λ
alors que la seconde révèle que :
1
fj (j) = − p( M  j − 1 )
j
vu que nous n’avons pas oublié le crucial j  1. La différence :
1 1
fj (j + 1) − fj (j) = p( M  j + 1 ) + p( M  j − 1 )
λ j
Hec deuxième 65

est alors ouvertement strictement positive.


 Lorsque j = 1, nous avons utilisé sans vergogne la seconde facette du 4.a lorsque
k = 0. Heureusement que nous avons pris la précaution de signaler supra que cela ne
cause aucun souci…
c. Soit à nouveau k ∈ N et non dans N∗ . On nous demande de planier, obéissons !
– Si k > j, vu que k − 1  j et si l’on en croit les facettes du a, l’on a :
k! (k − 1)!
fj (k + 1) − fj (k) = p( M  k + 1 ) − p( M  k )
j!λk−j+1 j!λk−j
ce que nous préférons écrire :
(k − 1)!  k 
fj (k + 1) − fj (k) = · p( M  k + 1 ) − p( M  k )
j!λk−j λ
Il faut alors observer que :
+∞
 +∞

k k λi −λ i λi −λ
· p( M  k + 1 ) = e < e
λ λ i! λ i!
i=k+1 i=k+1

la majoration stricte de droite protant, essentiellement, de ce que les entiers i supérieurs


ou égaux à k +1 sont strictement supérieurs à k. Après quelques gentilles — mais légales !
— simplications et un petit changement d’indice, il s’avère que :
+∞
 +∞
 +∞
i λi −λ λi−1 −λ  λi −λ
e = e = e = p( M  k )
λ i! (i − 1)! i!
i=k+1 i=k+1 i=k

et l’on a donc nalement :


k
· p( M  k + 1 ) − p( M  k ) < 0
λ
ce qui amène bien à :
fj (k + 1) − fj (k) < 0

– Si maintenant k < j tout se joue mutatis mutandis mais grâce à la seconde facette
du récent 4.a. Nous laissons à notre ami lecteur le soin de s’en convaincre.
 Nous utilisons encore une fois le fait que la seconde facette du 4.a fonctionne lorsque
k = 0.
d. Il a déjà été dit plus haut que :
1 1
fj (j + 1) − fj (j) = p( M  j + 1 ) + p( M  j − 1 )
λ j
Mais grâce aux mêmes idées de majoration que supra, nous notons que :

1  1 λij−1  1 j−1
λi
p( M  j − 1 ) = · e−λ  · e−λ
j i=0
j i! i=0
i + 1 i!
66 Concours 2007 voie scientifique

la raison essentielle étant que :


1 1
∀i ∈ [[0, j − 1]] 
j i+1
Or, sans l’ombre d’une hésitation, nous avons tour à tour :


j−1
1 λi 1  λi+1 −λ
j−1
1  λi −λ
j
· e−λ = e = e = p( 1  M  j )
i=0
i + 1 i! λ i=0 (i + 1)! λ i=1 i!

Autant dire que nous en sommes à :


1  1
fj (j + 1) − fj (j)  p( M  j + 1 ) + p( 1  M  j ) = p( M  1 )
λ λ
l’égalité de droite se passant quasiment de tout commentaire. Comme :

p( M  1 ) = 1 − p( M = 0 ) = 1 − e−λ

nous avons également :


1 − e−λ
fj (j + 1) − fj (j) 
λ
la positivité de λ étant entendue depuis bien longtemps. Poursuivons.

– La majoration :
1 − e−λ 1

λ λ
ne devrait pas être susceptible de faire couler beaucoup d’encre…
– Pour l’autre élément du min nous ressortons la bonne vieille inégalité de
convexité :
e−λ  1 − λ
d’où, vu que λ > 0, découle immédiatement :

1 − e−λ
1
λ
Nous avons donc bien :
1 − e−λ  1
 min 1,
λ λ
 Ces majorations sont dûes à Barbour et Eagleson et datent de 1983.
5. Soit tout d’abord k ∈ N. On démontre exactement comme au 4.a que :
k!
f0 (k + 1) = p( M  k + 1 )
λk+1
Si maintenant k est en outre non nul, à la lumière de la positivité de k et de k − 1, nous
avons :
k! (k − 1)!
f0 (k + 1) = p( M  k + 1 ) et f0 (k) = p( M  k )
λk+1 λk
Hec deuxième 67

à telle enseigne que, comme supra :

(k − 1)!  k 
f0 (k + 1) − f0 (k) = · p( M  k + 1 ) − p( M  k )
λk λ
dont la négativité a déjà été établie auparavant. En revanche le texte ne le demande pas
mais il nous le faudra plus loin, lorsque k = 0, nous avons ouvertement :

1 − e−λ
f0 (k + 1) − f0 (k) = f0 (1) = 0
λ

 Si l’on résume ce qui vient d’être fait aux questions 4 et 5 nous sommes en mesure de
clamer que :

∀j ∈ N ∀k ∈ N j = k =⇒ fj (k + 1) − fj (k)  0

alors que :
∀k ∈ N fk (k + 1) − fk (k)  0
De plus, la majoration du 4.d, a priori valide pour j  1, vient à l’instant d’obtenir son
aval également en zéro à telle enseigne que :

1 − e−λ  1
∀k ∈ N f k(k + 1) − fk (k)   min 1,
λ λ
Toutes ces précisions vont se révéler cruciales pour la suite.
6.a. Soit A une partie de N et, dans un premier temps, m un élément de N∗ . Le point
crucial est le suivant. Nous avons :
*
A= {j}
j∈A

et vu que A est une partie de N, il s’agit d’une réunion nie ou dénombrable de singletons
deux à deux disjoints. Le même raisonnement que celui développé au 2.a mais utilisant
selon le cas l’additivité ou la σ-additivité de la probabilité p conduit sans ambages à :

fA (m) = fj (m)
j∈A

et comme cela vaut encore — trivialement cette fois — lorsque m = 0, nous pouvons
afrmer qu’in ne : 
∀m ∈ N fA (m) = fj (m)
j∈A

Soit alors k ∈ N. À la lumière de ce que nous venons d’apprendre, il semble bien que :


fA (k + 1) − fA (k) = fj (k + 1) − fj (k)
j∈A

Nous repartons pour une planication :


68 Concours 2007 voie scientifique

– Si k ∈ A le terme fk (k + 1) − fk (k) fait partie de notre somme alors que, vu notre


clameur de la n du 5, tous les autres termes son négatifs. Il s’ensuit alors tout à fait que :

fA (k + 1) − fA (k)  fk (k + 1) − fk (k)

– Si maintenant k ∈/ A, toujours grâce à notre clameur, tous les termes de la somme


sont carrément négatifs alors que :

fk (k + 1) − fk (k)  0

b. Soit à nouveau A une partie de N et k ∈ N. Au regard de la question précédente et


de notre dernière clameur de la n du 5, nous nous autorisons à afrmer que :
 1
fA (k + 1) − fA (k)  min 1,
λ
et nous voilà repartis pour une planication :
– Si fA (k + 1) − fA (k)  0, nous avons sans surprise :
  
f (k + 1) − f (k)  min 1, 1
A A λ

– En revanche, si fA (k + 1) − fA (k) < 0, grâce à la sympathique formule


d’opposition du 2.b on a :
  
f (k + 1) − f (k) = f (k + 1) − f (k)  min 1, 1
A A A A λ
la dernière inégalité provenant du 6.a appliqué tout bêtement à A := A. Il semble que
nous puissions changer de partie.

Partie 3

1.a. Soit i ∈ [[1, n]] et ω ∈ Ω. Nous planions :


– Si Xi (ω) = 0, il n’y a pas grand chose à invoquer.
– Dans le cas contraire, variable de Bernoulli oblige, Xi (ω) = 1 et du coup :

1 + Ri (ω) = Xi (ω) + Ri (ω) = Wi (ω)

et l’affaire est à nouveau dans le sac.


b. Soit à nouveau i ∈ [[1, n]]. Comme X1 , . . . , Xn sont indépendantes, le lemme des
coalitions indique que les variables Xi et f (1 + Ri ) le sont également vu que :

f (1 + Ri ) = f (1 + X1 + · · · + Xi−1 + Xi+1 + · · · + Xn )

Comme nos variables ne prennent ici qu’un nombre ni de valeurs elles possèdent
assurément une espérance et si l’on en croit la formule donnant l’espérance d’un produit
de deux indépendantes, il semble bien que :




E Xi f (1 + Ri ) = E(Xi )E f (1 + Ri ) = pi E f (1 + Ri )
Hec deuxième 69

la dernière égalité reposant sur ce qu’il est convenu d’espérer d’une variable de Bernoulli.
2. Puisque par dénition :


n 
n
λn = pi et Wn = Xi
i=1 i=1

la linéarité de l’opérateur espérance nous amène tranquillement à :


n

n


E λn f (1 + Wn ) − Wn f (Wn ) = pi E f (1 + Wn ) − E Xi f (Wn )
i=1 i=1

Mais, pour chaque entier i ∈ [[1, n]], nous avons établi que :



E Xi f (Wn ) = pi E f (1 + Ri )

Grâce à un picochouia de linéarité il se dessine que :


n


E λn f (1 + Wn ) − Wn f (Wn ) = pi E f (1 + Wn ) − f (1 + Ri )
i=1

et tout le monde est ravi.


3.a. Soit i ∈ [[1, n]]. L’événement [ Xi = 1 ] étant de probabilité non nulle — on rappelle
que pi > 0 — le conditionnement est autorisé et :

E[ Xi =1 ] (Yi ) = k p[ Xi =1 ] ( Yi = k )
k

la sommation portant sur l’ensemble ni des valeurs prises par Yi . Mais, pour chaque
entier k concerné, l’on a :

p( [ Yi = k ] ∩ [ Xi = 1 ] )
p[ Xi =1 ] ( Yi = k ) =
p( Xi = 1 )

Oui mais voilà, vu les dénitions des uns et des autres il semble difcile de contester que :
       
Yi = k ∩ Xi = 1 = f (2 + Ri ) − f (1 + Ri ) = k ∩ Xi = 1

Le clou de l’argumentation revient au lemme des coalitions qui, comme supra, assure
l’indépendance des variables :

f (2 + Ri ) − f (1 + Ri ) et Xi

Il n’en faut pas plus pour clamer haut et fort que :

p[ Xi =1 ] ( Yi = k ) = p( [ f (2 + Ri ) − f (1 + Ri ) = k ] )
70 Concours 2007 voie scientifique

à telle enseigne que :



E[ Xi =1 ] (Yi ) = k p( [ f (2 + Ri ) − f (1 + Ri ) = k ] )
k

ce qui met l’affaire largement dans le sac.


b. Il y a ici un problème ! Si par malheur pi = 1 le conditionnement par [ Xi = 0 ]
va largement coincer… Nous pensons donc plus raisonnable de supposer que les pi se
situent dans l’ouvert ]0, 1[. Cela étant, c’est mutatis mutandis que nous parvenons à :

E[ Xi =0 ] (Yi ) = 0

c. Nous n’avons pas oublié la relation :


n
E λn f (1 + Wn ) − Wn f (Wn ) = pi E(Yi )
i=1

obtenue lors de la récente question 2. Soit alors i ∈ [[1, n]]. D’après la formule de
l’espérance totale nous avons :

E(Yi ) = p( Xi = 1 )E[ Xi =1 ] (Yi ) + p( Xi = 0 )E[ Xi =0 ] (Yi )

et vu ce que nous venons de trouver à l’instant, il semble ne rester que :




E(Yi ) = pi E f (2 + Ri ) − f (1 + Ri )

de sorte qu’effectivement :


n


E λn f (1 + Wn ) − Wn f (Wn ) = p2i E f (2 + Ri ) − f (1 + Ri )
i=1

4. Gràce à la question précédente et à l’inégalité triangulaire nous avons déjà :


  n


E λn f (1 + Wn ) − Wn f (Wn )   p2i E f (2 + Ri ) − f (1 + Ri ) 
i=1

Nous faisons alors mention des choses suivantes :


– Dire qu’une v.a.r U possède une espérance revient à dire que |U | en possède une
également et en tout état de cause, l’on a :
 

E(U )  E |U |

Vu que les p2i sont positifs, nous avançons un peu puisque nous en sommes alors à :


  n


E λn f (1 + Wn ) − Wn f (Wn )   p2i E |f (2 + Ri ) − f (1 + Ri )|
i=1
Hec deuxième 71

– Lorsqu’une variable U ne prend que des valeurs inférieures ou égales à un certain


réel M et lorsque U possède une espérance, l’on a :

E(U )  M

ce qui n’est qu’un cas particulier de la fameuse « croissance de l’opérateur espérance ».


– Les v.a.r Ri prennent évidemment leurs valeurs dans N et, si l’on en croit la toute
dernière question de la seconde partie, les v.a.r :

|f (2 + Ri ) − f (1 + Ri )|

ne prennent que des valeurs inférieures ou égales à :


 1
min 1,
λn

Il s’ensuit donc que :


 1
∀i ∈ [[1, n]] E |f (2 + Ri ) − f (1 + Ri )|  min 1,
λn

et la positivité des p2i — encore elle ! — amène alors en douceur transitive à :


  
n
E λn f (1 + Wn ) − Wn f (Wn )   min 1, 1 p2
λn i=1 i

ce qui ne peut que nous ravir.


5. D’après le théorème de transfert, nous avons :



E λn f (1 + Wn ) − Wn f (Wn ) = λn f (1 + k) − kf (k) p( Wn = k )
k

la sommation portant évidemment sur les valeurs prises par la variable Wn . Mais à la
lecture de la question 3.a de la partie 2, et au prix d’une bénigne gestion de facettes, cette
somme devient :
 
p( Mn ∈ A )p( Wn = k ) − p( Mn ∈ A )p( Wn = k )
k∈A k∈A

c’est-à-dire :
 
p( Mn ∈ A ) p( Wn = k ) − p( Mn ∈ A ) p( Wn = k )
k∈A k∈A

Autant dire alors que :




E λn f (1 + Wn ) − Wn f (Wn ) = p( Mn ∈ A )p( Wn ∈ A ) − p( Mn ∈ A )p( Wn ∈ A )
72 Concours 2007 voie scientifique

Selon la formule de l’événement contraire, il advient que :

p( Mn ∈ A ) = 1 − p( Mn ∈ A ) et p( Wn ∈ A ) = 1 − p( Wn ∈ A )

d’où il ressort, après simplication, qu’effectivement :




E λn f (1 + Wn ) − Wn f (Wn ) = p( Wn ∈ A ) − p( Mn ∈ A )

Vu ce qui aété obtenu à la question 4 in semble que nous n’ayons rien de plus à ajouter.
6. Avant de commencer, nous notons qu’ici les pi sont non seulement positifs stricts mais
sont, au demeurant, situés dans l’ouvert ]0, 1[. Vu la remarque faite lors de la question 3.b
nous ne pouvons que nous en réjouir.
a. Comme n n’est pas nul, il est tout à fait possible d’écrire :

1
n
1
λn =
n i=1 i
1+
n
ce qui fait apparaître au grand jour une classique somme de Riemann attachée à l’intégrale
propre :
+ 1
dt
0 1 +t
Comme cette dernière vaut mentalement ln 2, le théorème de Darboux-Riemann est
formel. Nous avons :
λn −−−−→ ln 2
n→+∞

Occupons-nous à présent de la somme des p2i . Il semble difcilement contestable que :

1
∀i ∈ [[1, n]] 0  p2i 
n2

Mézalor, par addition membre à membre, il advient que :


n
1
0 p2i 
i=1
n

C’est ainsi par squeeze que nous concluons à :


n
p2i −−−−→ 0
n→+∞
i=1

b. Soit k ∈ N. La récente question 5 dans laquelle nous choisissons A = {k}, conduit


à:
   n
p( Wn = k ) − p( Mn = k )  p2i
i=1
Hec deuxième 73

vu que le bien joli « min » pas vraiment utile ici est inférieur ou égal à 1. Grâce à la n
de la question précédente, il s’ensuit à nouveau par squeeze que :

p( Wn = k ) − p( Mn = k ) −−−−→ 0 (∗)
n→+∞

Mais, loi de Poisson de paramètre λn oblige, nous avons :

λkn
p( Mn = k ) = e−λn
k!
Oui mais voilà, l’on a depuis peu :

λn −−−−→ ln 2
n→+∞

et les fonctions exp et x → xk sont continues sur R et a fortiori en ln 2. Il n’en faut pas
plus pour clamer que :

lnk 2
p( Mn = k ) −−−−→ e− ln 2
n→+∞ k!

puis, dans la foulée, vu ce que raconte (∗) supra :

lnk 2
p( Wn = k ) −−−−→ e− ln 2
n→+∞ k!
Soit alors U une variable de Poisson de paramètre ln 2 dénie sur notre espace probabilisé.
Nous observons alors deux choses :
– Primo, il ne fait pas l’ombre d’un doute que :

∀n  2 Wn (Ω) ⊂ U (Ω) = N

on rappelle en effet que Wn prend ses valeurs dans [[0, n]].


– Deuzio, nous venons de constater à l’instant que :

∀k ∈ N p( Wn = k ) −−−−→ p( U = k )
n→+∞

La condition sufsante de convergence en loi des suites de variables discrètes assure alors
que :
L
Wn −−−−→ U
n→+∞

ce qu’il est parfois autorisé d’écrire :


L
Wn −−−−→ P(ln 2)
n→+∞

 Nous n’avons pas oublié que :


1
e− ln 2 =
2
74 Concours 2007 voie scientifique

mais nous avons préféré laisser e− ln 2 en l’état pour bien mettre en évidence le côté
poissonnien de l’affaire.

Partie 4

1.a. Soit i ∈ [[1, n]]. C’est encore une affaire d’espérance totale. Nous avons en effet :




E Xi f (Wn ) = p( Xi = 1 )E[ Xi =1 ] Xi f (Wn ) + p( Xi = 0 )E[ Xi =0 ] Xi f (Wn )

L’argumentation est alors à peu près la même que celle des 3.a et 3.b de la partie précédente
à cela près que l’on n’y coalise plus et qu’en conséquence les conditionnelles restent. Le
résultat des course est :




E[ Xi =1 ] Xi f (Wn ) = E[ Xi =1 ] f (1 + Ri ) et E[ Xi =0 ] Xi f (Wn ) = 0

Comme p( Xi = 1 ) = pi , nous pouvons passer à la suite.


b. Soit A ⊂ N. Le premier point important à signaler est le suivant. L’égalité de la
question 5 de la partie précédente, en l’occurrence :


p( Wn ∈ A ) − p( Mn ∈ A ) = E λn f (1 + Wn ) − Wn f (Wn )

n’a pas du tout utilisé l’indépendance des variables Xi et elle est donc encore d’actualité.
Dans ces conditions à la lueur de l’universelle linéarité de l’espérance, il semble se dessiner
que :


n

n


p( Wn ∈ A ) − p( Mn ∈ A ) = pi E f (1 + Wn ) − E Xi f (Wn )
i=1 i=1

Vu le récent a cela se transforme en :


n

n


p( Wn ∈ A ) − p( Mn ∈ A ) = pi E f (1 + Wn ) − pi E[ Xi =1 ] f (1 + Ri )
i=1 i=1

et la linéarité de la sommation conduit alors exactement au résultat escompté.


2.a. Soit ( , j) ∈ N2 . Nous planions.
– Supposons tout d’abord j < . Nous pouvons écrire « télescopiquement » :


−1


f ( ) − f (j) = f (k + 1) − f (k)
k=j

L’inégalité triangulaire amène alors tranquillement et tout d’abord à :

   −1
 
f ( ) − f (j)  f (k + 1) − f (k) (∗∗)
k=j
Hec deuxième 75

Mais, depuis belle lurette, nous savons que, pour chaque k ∈ N, l’on a :
  
f (k + 1) − f (k)  min 1, 1
λn

Comme la somme du right hand side de (∗∗) comporte ouvertement − j termes, l’affaire
est dans le sac pour ce premier cas.
– Si maintenant j = , nous ne dirons rien de plus que no comment.
– Si pour nir, j > , notre vénéré lecteur aura droit au magique mutatis mutandis.
Soit alors i ∈ [[1, n]]. Vu le rôle que l’on fait jouer à la variable Zi , nous sommes en droit
de revendiquer l’égalité :



E[ Xi =1 ] f (1 + Ri ) = E f (1 + Zi )

Forts de cette information, si nous réannonçons A ⊂ N, l’égalité du récent b se


métamorphose en :


n



p( Wn ∈ A ) − p( Mn ∈ A ) = pi E f (1 + Wn ) − E f (1 + Zi )
i=1

ou encore sempiternellement :


n
 
p( Wn ∈ A ) − p( Mn ∈ A ) = pi E f (1 + Wn ) − f (1 + Zi )
i=1
 

L’inégalité triangulaire et la fameuse E(U )  E |U | prennent le relais et assènent de
concert :

   n
 
p( Wn ∈ A ) − p( Mn ∈ A )  pi E |f (1 + Wn ) − f (1 + Zi )|
i=1

vu que le signe des pi … Soit alors à nouveau i ∈ [[1, n]]. Vu que les variables 1 + Wn et
1 + Ri sont depuis longtemps à valeurs dans N, le début de la question amène l’inégalité
entre variables aléatoires que voici :
 1
|f (1 + Wn ) − f (1 + Zi )|  |Wn − Zi | min 1,
λn

La croissance de l’espérance débouche alors sur :


 
 1
E |f (1 + Wn ) − f (1 + Zi )|  E |Wn − Zi | min 1,
λn

ce qui révèle effectivement, par multiplication par pi et addition membre à membre, que :

   
n


p( Wn ∈ A ) − p( Mn ∈ A )  min 1, 1 pi E |Wn − Zi |
λn i=1
76 Concours 2007 voie scientifique

b. Soit une dernière fois i ∈ [[1, n]]. La nouvelle hypothèse révèle que :


pi E |Wn − Zi | = pi E(Wn − Zi ) = pi E(Wn ) − pi E(Zi )

la dernière égalité protant one more time de la galactique linéarité de l’espérance.


Revenons alors au rôle joué par la variable Zi . Il stipule que :

pi E(Zi ) = p( Xi = 1 )E[ Xi =1 ] (Ri )

On peut alors poursuivre joliment en observant que dans la toute récente question 1.a
nous n’avons pas du tout utilisé la spécicité de la fonction f et que les conclusions de
cette question s’appliquent donc à toute fonction g en lieu et place de f et pourquoi pas
à la fonction :
g : x −→ x − 1
Il s’ensuit ainsi que :


p( Xi = 1 )E[ Xi =1 ] (Ri ) = E Xi (Wn − 1)

et nous en sommes alors à :


n


n 
n


pi E |Wn − Zi | = E(Wn ) pi − E Xi (Wn − 1)
i=1 i=1 i=1

Un dernier petit effort, nous notons que :


n
pi = λn = E(Wn )
i=1

et que, toujours par linéarité :


n



E Xi (Wn − 1) = E Wn (Wn − 1) = E(Wn2 ) − E(Wn ) = E(Wn2 ) − λn
i=1

Il en résulte nalement que :


n

 2
pi E |Wn − Zi | = E(Wn ) − E(Wn2 ) + λn = λn − V (Wn )
i=1

la dernière égalité reposant sur les dires du tandem Kœnig-Huygens. Il suft alors pour
conclure d’annoncer une dernière fois A ⊂ N, d’évoquer le tout proche 2.a et d’y
répercuter notre dernière égalité.
Essec première 77

Essec première

Étude d'une « Pick function »


L'ordre de Karl Löwner
Stricte monotonie matricielle

Année Difficulté
2 ¶¶¶

Notations, rappels
Dans tout le problème, la lettre n désigne un entier supérieur ou égal à 2 et on note [[1, n]]
l’ensemble des entiers k vériant : 1  k  n. Par ailleurs, on note :
• Mn (R) l’espace vectoriel des matrices carrées d’ordre n à coefcients réels ;
• Mn,1 (R) l’espace vectoriel des matrices colonnes réelles à n lignes ;
• M T la transposée d’une matrice M ;
• In la matrice identité de Mn,1 (R) ;
• Pour A ∈ Mn (R) :
& '
Ker(A) = X ∈ Mn,1 (R) | AX = 0

Objectif du problème :

On dispose d’un ordre naturel sur l’ensemble des réels, on s’interroge dans ce problème
sur l’extension de cet ordre à Sn (R) et on s’intéresse en particulier à la monotonie de
quelques applications.
Les deux premières parties du problème sont indépendantes. La troisième partie utilise
simultanément les deux parties précédentes. La quatrième partie reprend essentiellement
les notions vues dans la troisième partie.
78 Concours 2007 voie scientifique

Partie 1 Représentation intégrale d’une fonction puissance

Préambule

On désigne par ϕ une application dénie et continue sur R∗+ et à valeurs positives telle
que l’intégrale :
+ +∞
ϕ(t)
dt
0 1 + t2
soit convergente et on lui associe la fonction f d’une variable réelle dénie par :
+ +∞ 
t 1
f (x) = − ϕ(t)dt
0 1 + t2 x+t

Question préliminaire : Montrer que f est dénie sur R∗+ .


1. Pour quelles valeurs du réel α, l’intégrale :
+ +∞

dt
0 1 + t2

est-elle convergente ?
Dans toute la suite du problème, pour de telles valeurs de α, on désignera par fα
l’application dénie sur R∗+ par :
+ +∞ 
t 1 α
∀x ∈ R∗+ fα (x) = − t dt
0 1 + t2 x+t

2. Exprimer f0 à l’aide des fonctions usuelles.


3. On suppose que α ∈ ] − 1, 0[.
Pour x > 0, prouver la convergence de l’intégrale :
+ +∞

dt
0 x+t

et, à l’aide d’un changement de variable, l’exprimer en fonction de xα et d’un réel ne


dépendant que de α.
En déduire l’existence de c et d, réels ne dépendant que de α, tels que :

∀x > 0, fα (x) = c.xα + d

Préciser le signe de c.
4. On suppose que α ∈]0, 1[.
a. Lorsque x et h sont des réels tels que x > 0, x + h > 0 et h = 0, vérier la relation :
+ +∞
fα (x + h) − fα (x) tα
= dt
h 0 (x + h + t)(x + t)
Essec première 79

Montrer alors que fα est dérivable sur R∗+ et que :


+ +∞

∀x > 0, fα (x) = dt
0 (x + t)2

b. Justier la relation :

∀x > 0, fα (x) = fα (1).xα−1

En déduire l’existence de c et d, réels ne dépendant que de α, tels que :

∀x > 0, fα (x) = c.xα + d

Préciser le signe de c.

Partie 2 Les matrices symétriques réelles

On note Sn (R) le sous-espace vectoriel de Mn (R) constitué des matrices symétriques,


c’est-à-dire : & '
Sn (R) = M ∈ Mn (R) | M T = M

On dit qu’une matrice M de Sn (R) est dénie positive si, pour toute matrice colonne X
de Mn,1 (R) :
X = 0 =⇒ X T · M · X > 0

L’ensemble des matrices symétriques dénies positives de Sn (R) sera noté Sn++ (R).
Enn, lorsque A et B sont deux matrices symétriques vériant :

B − A ∈ Sn++ (R)

on dira que A est strictement plus petite que B et on le notera A < B.


1. Caractérisations des matrices définies positives.
a. Pour A ∈ Sn (R), établir l’équivalence suivante :

A ∈ Sn++ (R) ⇐⇒ Toute valeur propre de A est strictement positive.

$ % $ %
a b x
b. Lorsque A = et X = , vérier l’égalité :
b c y

aX T · A · X = (ax + by)2 + (ac − b2 )y 2

En déduire que :
$ %
a b
∈ S2++ (R) ⇐⇒ a > 0 et ac − b2 > 0
b c
80 Concours 2007 voie scientifique

2. Exemples. $ % $ %
2 1 4 0
a. Soit A = et B = .
1 1 0 5/3
Vérier que A et B appartiennent à S2++ (R) et montrer que A < B. A-t-on A2 < B 2 ?
b. Soit A ∈ Sn++ (R).
i. Montrer que A est inversible et que A−1 ∈ Sn++ (R).
ii. Pour tout X ∈ Mn,1 (R), on dénit l’application :

X : Mn,1 (R) → R ;
ΦA Y −→ 2X T · Y − Y T · A · Y

Exprimer, pour tout H ∈ Mn,1 (R) :



−1
−1
ΦA
X A X + H − ΦA
X A X

en fonction de H et A.
−1
En déduire que ΦA
X admet en A X un maximum qui vaut X T · A−1 · X.
iii. On considère maintenant B ∈ Sn++ (R) vériant A < B.
Montrer que pour tout X et tout Y matrices colonnes de Mn,1 (R) :

Y = 0 =⇒ ΦA B
X (Y ) > ΦX (Y )

En déduire que B −1 < A−1 .

Partie 3 Monotonie sur Sn++ (R)

Lorsque F est une application dénie sur Sn++ (R) et à valeur dans Sn (R), on dit que F
est strictement croissante sur Sn++ (R) si, pour tout A et tout B appartenant à Sn++ (R) :

A<B =⇒ F (A) < F (B)

On dira de même que F est strictement décroissante sur Sn++ (R) lorsque −F est
strictement croissante sur Sn++ (R).
Par exemple, la propriété vue au II-2-b-iii se traduit par la stricte décroissance de
l’application :
F : Sn++ (R) → Sn (R) ; M −→ M −1

1. Résultats préliminaires.

 par A une matrice


On désigne  symétrique réelle dont l’ensemble des valeurs propres
distinctes λ1 , λ2 , . . . , λp est classé dans l’ordre croissant.
On rappelle que :

#
p
Mn,1 (R) = Eλi (A) où Eλi (A) = Ker(A − λi In )
i=1
Essec première 81

a. Justier la relation :

p
A= λ i Mi
i=1

où Mi est la matrice de la projection orthogonale sur Eλi (A) dans la base canonique de
Mn,1 (R). Dans toute la suite du problème, une telle écriture s’appelle la décomposition
de A.
b. Montrer que :

p
In = Mi
i=1

c. Donner la décomposition de la matrice A + tIn lorsque t est réel.



p
Si A appartient à Sn++ (R) et admet la décomposition A = λi Mi , on dénit, lorsque
i=1
f est une application de R∗+ dans R, la matrice :


p
f,(A) = f (λi )Mi
i=1

On peut ainsi considérer l’application f, dénie sur Sn++ (R) et à valeurs dans Mn (R)
par :
f, : A −→ f,(A)

2.a. Montrer que, pour tout A appartenant à Sn++ (R), f,(A) appartient à Sn (R) et donner
la décomposition de f,(A) lorsque f est strictement monotone.
b. Préciser f, lorsque que :

1
f : R∗+ → R ; x −→
x

c. Soit f : R∗+ → R et g : R∗+ → R∗+ deux applications strictement monotones. Montrer


que :
f ◦ g = f, ◦ g,

d. Lorsque (a, b, c, d) appartient à R4 avec c > 0, d > 0 et bc − ad = 0, on considère


l’application :
ax + b
h : R∗+ → R ; x −→
cx + d
Après avoir vérié que :

bc − ad a
∀x > 0, h(x) = +
c(cx + d) c

montrer la stricte monotonie de ,


h sur Sn++ (R).
82 Concours 2007 voie scientifique

3. Intégrales de matrices.
Soit M l’application dénie de la façon suivante :
 
M : R∗+ → Mn (R) ; t −→ mi,j (t)
(i,j)∈[[1,n]]×[[1,n]]

où :
∀(i, j) ∈ [[1, n]] × [[1, n]], mi,j : t −→ mi,j (t)
est continue sur R∗+ .
Lorsque pour tout couple (i, j) ∈ [[1, n]] × [[1, n]], l’intégrale :
+ +∞
mi,j (t)dt
0

converge, on dit que la matrice :


$+ +∞ %
mi,j (t)dt
0 (i,j)∈[[1,n]]×[[1,n]]
+ +∞
existe et on la note M (t)dt.
0
a. Résultats préliminaires.
i. Soit M et N telles que :
+ +∞ + +∞
M (t)dt et N (t)dt
0 0

existent.
+ +∞

Montrer que M (t) + N (t) dt existe et que :
0
+ +∞
+ +∞ + +∞

M (t) + N (t) dt = M (t)dt + N (t)dt
0 0 0

Dans le même ordre d’idée, on admettra les deux propriétés suivantes ii et iii.
+ +∞

ii. Soit A ∈ Mn (R) et h continue de R+ dans R telle que h(t)dt converge,
0
et :
M : R∗+ → Mn (R) ; t −→ M (t) = h(t)A
alors : + +
+∞ +∞ + +∞
M (t)dt existe et M (t)dt = h(t)dt A
0 0 0
+ +∞
iii. Soit M telle que M (t)dt existe et X une matrice colonne de Mn,1 (R).
0
Alors : + +∞
X T · M (t) · Xdt
0
Essec première 83

converge et :
+ +∞ + +∞
XT · M (t)dt · X = X T · M (t) · Xdt
0 0

b. On revient à l’application f dénie sur R∗+ par :


+ +∞ 
t 1
∀x > 0 f (x) = − ϕ(t)dt
0 1 + t2 x+t

où ϕ est une application dénie et continue sur R∗+ et à valeurs positives, telle que
l’intégrale :
+ +∞
ϕ(t)
dt
0 1 + t2
converge. (cf. Partie 1).
On suppose que A ∈ Sn++ (R) et admet la décomposition :


p
A= λ i Mi
i=1

i. Montrer que :
+ +∞ 
t
f,(A) = ϕ(t) 2
In − (A + tIn )−1 dt
0 1+t

ii. Si B ∈ Sn++ (R) est telle que A < B, montrer que, pour toute matrice colonne X
de Mn,1 (R), non-nulle, et tout t > 0, on a :
 t  t
−1 −1
XT · In − (A + tI n ) · X < X T
· In − (B + tIn ) ·X
1 + t2 1 + t2

iii. En déduire que f, est strictement croissante sur Sn++ (R).


c. À l’aide des résultats de la Partie 1, vérier que ln , est strictement croissante sur
Sn++ (R). Préciser le sens de variation de p,α associée à :

pα : R∗+ → R ; x −→ xα

selon que α ∈ ] − 1, 0[ ou α ∈ ]0, 1[.

Partie 4 Monotonies comparées de f et f,

On revient aux notations introduites dans les parties précédentes.


1. On désigne par f une application de R∗+ , à valeurs dans R. Montrer que, lorsque f, est
strictement croissante sur Sn++ (R), f l’est aussi sur R∗+ .
84 Concours 2007 voie scientifique

2. Pour t > 0, on dénit les matrices :


⎡ t ⎤ ⎡ ⎤
e + e−t et − e−t
t3 0
⎢ 2 2 ⎥ ⎢ ⎥
A(t) = ⎢⎣ et − e−t et + e−t

⎦ et B(t) = ⎣ 2 ⎦
3
0 t −t
−t
2 2 e +e

a. Montrer que A(t) ∈ Sn++ (R) et donner la décomposition de A(t).


b. Montrer qu’il existe η0 > 0 tel que :

∀t ∈ ]0, η0 [ B(t) ∈ S2++ (R)

(On ne cherchera pas à déterminer une valeur, même approchée, de η0 .)


c. Établir de même qu’il existe η1 ∈ ]0, η0 [ tel que :

∀t ∈ ]0, η1 [ B(t) < A(t)




d. Déterminer p,α A(t) et p,α B(t) pour tout réel t de ]0, η1 [ lorsque pα est
l’application de R∗+ dans R :
x −→ xα

e. Lorsque α > 1, déterminer un équivalent en 0+ de la quantité :


 eαt + e−αt eαt + e−αt  2 α  eαt − e−αt 2
3α 3
−t − t −t −
2 2 e + e−t 2

f. En déduire que, pour α > 1, p,α n’est pas strictement croissante sur S2++ (R).
3. Démontrer que la propriété énoncée en 4.1 n’admet pas de réciproque dès que n  2.

Solution
Partie 1 Représentation intégrale d’une fonction puissance

Question préliminaire. Soit x ∈ R∗+ . Nous faisons valoir trois choses.


– La fonction ϕ est donnée continue sur ]0, +∞[.
– Les fonctions t → 1 + t2 et t → x + t ne s’annulent pas sur R∗+ .
– Les fonctions rationnelles sont continues sur leur domaine de dénition.
Il n’en faut pas plus pour clamer que la fonction :
 t 1
t −→ − ϕ(t)
1 + t2 x+t
Essec première 85

est continue sur ]0, +∞[. Son intégrale est donc deux fois impropre et nous devons étudier
- 1 - +∞
séparément 0 et 1 .
-1
– Commençons par 0 .
Soit t > 0. Une bénigne réduction au même dénominateur amène à :
 t 1 xt − 1
2
− ϕ(t) = ϕ(t)
1+t x+t (1 + t2 )(x + t)

d’où il ressort, quasi mentalement, que :


⎧
⎪ t 1 1 ϕ(t)

⎪ − ∼ − ·
ϕ(t) t→0

⎪ 1 + t2 x + t x 1 + t2

⎨ t>0






⎪ 1 ϕ(t)
⎩ ∀t ∈ ]0, 1] − · 0
x 1 + t2
la positivité de ϕ faisant partie des hypothèses ambiantes. Ces dernières garantissent
également l’existence de l’intégrale :
+ +∞
ϕ(t)
dt
0 1 + t2

et, a fortiori, celle de :


+ 1
ϕ(t)
dt
0 1 + t2
La règle des équivalents en signe négatif est alors assez décisive ! L’intégrale :
+ 1
t 1
2
− ϕ(t)dt
0 1+t x+t

existe.
– Grâce cette fois à :
⎧
⎪ t 1 ϕ(t)

⎪ − ϕ(t) ∼ x·

⎪ 1 + t2 x+t 1 + t2


t→+∞







⎩ ∀t ∈ [1, +∞[ x · ϕ(t)  0
1 + t2
on démontre mutatis mutandis que :
+ +∞ 
t 1
− ϕ(t)dt
1 1 + t2 x+t

existe également. La fonction f est donc bien dénie sur R∗+ .


86 Concours 2007 voie scientifique

 Attention, warning, gros danger ! Les hypothèses ne garantissent pas l’existence de


l’intégrale :
+ +∞
t
ϕ(t)dt
0 1 + t2
L’intégrale f (x) ne peut donc généralement pas être splitted, ne peut pas être linéarisée. En
conséquence, il faudra impérativement — sauf coup de chance ! — pratiquer la politique
de groupe ! À bon entendeur…
1. Soit α ∈ R. La grande classe, sur R+ ∗, de toutes les fonctions puissances fait que :

t −→
1 + t2
est continue sur ]0, +∞[. Son intégrale est donc impropre deux fois.
-1
– Commençons par 0 .
Nous faisons valoir que :
⎧ tα 1

⎪ ∼

⎨ 1 + t2 t→0 t−α
t>0




⎩ ∀t ∈ ]0, 1] 1
0
t−α
l’effet « culbuto » étant toujours de mise dans ces histoires. La référence :
+ 1
dt
t −α
0

n’existe que si, et seulement si, α > −1. Par équivalence en signe positif, il en est de
même de : + 1 α
t
dt
0 1 + t2
- +∞
– Occupons-nous maintenant de 1
.
Toujours dèles à l’effet renversant, nous notons ici que :
⎧ tα 1

⎪ ∼

⎨ 1 + t2 t→+∞ t2−α



⎩ ∀t ∈ [1, +∞[ 1
0
t2−α
La référence : + +∞
dt
1 t2−α
n’existe que si, et seulement si, α < 1. Sa cousine :
+ +∞ α
t
dt
1 1 + t2
Essec première 87

se doit de l’imiter. Tout individu connaissant parfaitement son cours doit alors clamer haut
et fort que :
+ +∞ α
t
dt existe ⇐⇒ − 1 < α < 1
0 1 + t2

 Soit α ∈ ] − 1, 1[. La fonction ϕ : t → tα jouit des trois propriétés suivantes :


– Elle est continue sur R∗+ .
– Elle y est à valeurs strictement positives.
– L’intégrale :
+ +∞

dt
0 1 + t2
existe. Tout est alors en place pour lui attacher la fonction « f » comme dans le préambule
et, texte dixit, elle s’appelle ici fα . La question préliminaire signale alors que, quoi qu’il
arrive, fα est au moins dénie sur R∗+ .
2. Comme 0 appartient sereinement à l’ouvert ] − 1, 1[, nous pouvons nous lancer ! Soit
donc x > 0. Nous avons :
+ +∞ 
t 1
f0 (x) = 2
− dt
0 1+t x+t
Impérativement dèles à la politique du tir groupé, une primitive de la totalité de l’intérieur
est :
1
t −→ ln(1 + t2 ) − ln(x + t)
2
les valeurs absolues, habituellement présentes dans ce genre de primitivation, n’étant pas
de mise due to an ambiant positivity. L’écriture, pour t > 0 :
1 1 1 + t2
ln(1 + t2 ) − ln(x + t) = ln
2 2 (x + t)2
révèle, quasi mentalement, que notre primitive tend vers zéro en +∞. Quant à son
comportement en zéro, on la retrouve plutôt du côté de − ln x. La formule d’Isaac
Barrow est alors formelle :
f0 (x) = ln x

3. Soit x > 0. La fonction :



t −→
x+t
est ouvertement continue sur ]0, +∞[. Son intégrale — on commence à en avoir l’habitude
— est impropre deux fois.
-1
– Commençons, as usual par 0 .
Il ne fait pas l’ombre d’un doute que :
⎧ tα 1 1

⎪ ∼ · −α

⎨ x + t t→0 x t
t>0




⎩ ∀t ∈ ]0, 1] 1 1
· −α  0
x t
88 Concours 2007 voie scientifique

la culbutocratie étant toujours d’actualité. Comme − α < 1, la référence :


+ 1
dt
0 t−α

existe et, par équivalence en signe positif, l’affaire est dénitivement dans le sac.
- +∞
– Passons à 1 .
L’important est ici : ⎧ tα
⎪ 1

⎪ ∼
⎨x+t t→+∞ t1−α


⎪ 1
⎩ ∀t ∈ [1, +∞[ 0
t1−α
Comme ici 1 − α > 1, nous pouvons tirer notre référence…
L’intégrale :
+ +∞

dt
0 x+t
existe donc bien. Nous allons lui faire subir le changement de variable t = xu. Comme
x est strictement positif, la fonction u → xu réalise gentiment une bijection de classe C 1
de ]0, +∞[ sur lui-même à telle enseigne qu’après de bénignes simplications :
+ +∞ + +∞
tα uα
dt = xα du
0 x+t 0 1+u

Comme le réel : + +∞

du
0 1+u
ne dépend visiblement que de α, nous pouvons, sereinement, envisager la suite. Comme :
+ +∞ 
tα+1 tα
fα (x) = − dt
0 1 + t2 x+t

et comme ici l’intégrale :


+ +∞

dt
0 x+t
s’est décidée à exister, sa copine :
+ +∞
tα+1
dt
0 1 + t2

est obligée de l’imiter. Le lecteur est prié, sur-le-champ d’en donner une linéaire raison.
Pour une fois, et nous en protons follement, l’intégrale fα (x) devient spittable et voilà
donc que :
+ +∞ + +∞ + +∞ + +∞
tα+1 tα tα+1 uα
fα (x) = dt − dt = dt − xα dt
0 1 + t2 0 x+t 0 1 + t2 0 1+u
Essec première 89

la dernière égalité provenant du changement de variable supra. Nous proposons alors :


+ +∞ α + +∞ α+1
u t
c= − dt et d = dt
0 1 + u 0 1 + t2
et tout le monde devrait être satisfait. En ce qui concerne le signe de c, vu que la question
manque de précision — large ou strict ? — nous choisissons de parler du signe strict car
il y a des chances que cela s’avère déterminant dans la suite. À cet effet observons que
l’intégrale :
+ +∞ α
u
dt
0 1+u
jouit des propriétés suivantes :
– Ses bornes sont dans le sens croissant strict.
– Sa fonction intérieure — l’intégrande pour les intimes — est continue et positive
ou nulle sur l’intervalle d’intégration ]0, +∞[.
– Son intégrande n’est pas identiquement nulle sur l’intervalle d’intégration vu que,
par exemple, sa valeur en 1 est 1/2.
Le théorème du signe strict d’une intégrale est alors catégorique. Notre intégrale est
strictement positive et dans la foulée :

c<0

4.a. Soit x ∈ R∗+ et h un réel non nul vériant x + h > 0. Comme fα est justement
dénie sur R∗+ , la quantité :
fα (x + h) − fα (x)
h
est sous un total contrôle. Cela dit, via la linéarité de l’intégration il semble que :
+
fα (x + h) − fα (x) 1 +∞ tα+1 tα tα+1 tα
= − − + dt
h h 0 1 + t2 x + h + t 1 + t2 x+t

Il reste à faire sérieusement le ménage pour voir effectivement apparaître :


+ +∞
fα (x + h) − fα (x) tα
= dt
h 0 (x + h + t)(x + t)

Il est très facile — c’est du même acabit que l’existence du début de la question 3 —
d’établir, parce que 0 < α < 1, l’existence de l’impropre :
+ +∞

dt
0 (x + t)2

Nous laissons à notre vénéré lecteur le soin de s’en persuader. Il est alors tentant de former
le fameux « dérivateur » :
 + +∞ 
 fα (x + h) − fα (x) tα 
Dh =  − 2
dt 

h 0 (x + t)
90 Concours 2007 voie scientifique

ou encore :
+ + 
 +∞
tα +∞
tα 
Dh =  dt − 2
dt 

0 (x + h + t)(x + t) 0 (x + t)

La linéarité de l’intégration — encore elle ! — suivie d’un sérieux ménage — encore lui !
— conduit alors, sans sourciller, à :
 + +∞  + +∞
 tα  tα
Dh = h dt  = |h| dt
0 (x + h + t)(x + t)2  0 (x + h + t)(x + t)2

la dernière égalité protant d’évidentes positivités ambiantes. Le texte a, dès le début,


imposé l’inégalité x + h > 0 ou encore h > −x, hypothèse sans laquelle fα (x + h)
n’aurait même pas eu le moindre sens.
Comme −x/2 < 0 et que h ne va pas tarder à tendre vers zéro, il va s’avérer confortable
de supposer carrément h  −x/2, ce qui, bien évidemment, n’empêchera pas h de
commettre son forfait.
Grâce à cette nouvelle information — hypothèse de confort pour les initiés — nous
déduisons aisément que :
+ +∞ + +∞
tα tα
|h| dt  |h| dt
0 (x + h + t)(x + t)2 0 (x/2 + t)(x + t)2

Les raisons essentielles à cela sont les suivantes :


i. La première est sûrement — et positivement ! — que :

x tα tα
∀t > 0 ∀h  − 2

2 (x + h + t)(x + t) (x/2 + t)(x + t)2

ii. La seconde est l’existence de l’intégrale :


+ +∞

dt
0 (x/2 + t)(x + t)2

Au vu et au su de tout ce qui a été fait auparavant, rien dans tout cela ne présente de réelle
difculté. Nous demandons cependant à notre pugnace lecteur de bien vouloir s’investir
dans le réglage de tous les détails sous-jacents. Le résultat de courses est alors le suivant :
 + +∞  + +∞
 fα (x + h) − fα (x) tα  tα

Dh =  − dt   |h| dt
h 0 (x + t)2  0 (x/2 + t)(x + t)2

L’intégrale située at the very right hand side ne dépend manifestement pas de h — no
h inside pour les initiés — ce qui nous procure un, certes classique mais toujours fort
apprécié, squeezing process. En conséquence, voilà que :
+ +∞
fα (x + h) − fα (x) tα
− dt −−−−→ 0
h 0 (x + t)2 h→0
Essec première 91

ce qui s’écrit également :


+ +∞
fα (x + h) − fα (x) tα
−−−−→ dt
h h→0 0 (x + t)2
vu que la dernière intégrale écrite, ne dépend pas non plus de h. Cela démontre, via la
dénition, que fα est dérivable en x et que :
+ +∞

fα (x) = dt
0 (x + t)2
Comme cela vaut, depuis le début, pour tout x > 0, la fonction fα est effectivement
dérivable sur R∗+ et :
+ +∞
 tα
∀x > 0 fα (x) = dt
0 (x + t)2

b. Soit x > 0. Dans l’intégrale :


+ +∞

dt
0 (x + t)2
nous suggérons le changement de variable « vieille connaissance » t = xu. Il a été déjà
légalisé supra et nous en déduisons donc que :
+ +∞ + +∞
xα uα uα
fα (x) = xdu = x α−1
du = xα−1 fα (1)
0 x2 (1 + u)2 0 (1 + u)2
l’avant dernière égalité procédant d’un sacré ménage — fait dans tous les recoins — et la
dernière, d’une preuve indispensable de physio, physio.
La primitivation, sur l’intervalle R∗+ , de l’égalité précédente est tout à fait préconisée et
produit une constante réelle d telle que :

∀x > 0 fα (x) = fα (1) · +d
α
vu que, dans ce qui nous occupe ici, le réel α a le bon goût de ne pas s’annuler. Il reste à
proposer :
f  (1)
c= α
α
et le tour est joué.
 Nous avons qualié le réel d de constante. C’est tacitement un réel constant vis-à-vis
de la primitivation par rapport à la variable x, c’est-à-dire un réel indépendant de x. Il a
cependant tout à fait le droit — et même le devoir ! — de dépendre de α…
Nous devons, pour nir, parler du signe de c. Nous en parlons strictement comme nous
l’avons déjà fait plus haut. Le théorème du signe strict d’une intégrale — nous l’avons
utilisé une première fois au 3 — révèle, cette fois, que :
+ +∞

fα (1) = du > 0
0 (1 + u)2
92 Concours 2007 voie scientifique

Comme α est également strictement positif, il ne fait plus l’ombre d’un doute que :

c>0

Partie 2 Les matrices symétriques réelles

1.a. Il s’agit, pour la nème fois, de la fameuse caractérisation spectrale des matrices
strictement positives. Cela dit, force est de constater que, vu ce que demande le programme
ofciel sur la gestion des extrema locaux des fonctions de plusieurs variables, cette
caractérisation devrait, bel et bien, faire partie de notre patrimoine. Mais comme nous
sommes bons princes, nous acceptons de nous plier. Autre chose, pour éviter les lourdeurs
d’écriture nous noterons S++ n plutôt que S++n (R). Nous pouvons alors commencer et
comme il y a une équivalence logique, nous planions.
i. ⇒
Soit λ une valeur propre quelconque de A. Symétrie, réalité de A et lemme de Cauchy
obligent, λ est obligatoirement réel et il existe une colonne réelle X, non nulle et de hauteur
n, telle que :
AX = λX
le réexe bilinéariste standard consiste à multiplier à gauche par X T ce qui conduit
nommément à :
X T · A · X = λ ||X||2
où, à la surprise générale, nous avons noté || || la norme euclidienne canonique sur l’espace
vectoriel Mn,1 (R). Comme X n’est pas nulle — never forget ! — sa norme ne l’est pas
plus et voilà que :
XT · A · X
λ=
||X||2
Le numérateur est strictement positif par hypothèse puisque A ∈ S++ n et X = 0. Le
dénominateur est, quant à lui, normalement et également positif. De la à en déduire que :

λ>0

il ne passera pas beaucoup d’eau sous les ponts.


ii. ⇐
La matrice A étant symétrique réelle d’ordre n  1, il existe — théorème spectral
dixit — une matrice orthogonale P ∈ On (R) ainsi qu’une matrice diagonale D telles
que, au choix :
A = P DP −1 = P · D · P T
Soit alors X ∈ Mn,1 (R) vériant X = 0. Nous avons :

XT · A · X = XT · P · D · P T · X

Considérons alors la nouvelle colonne :

Y = PT · X
Essec première 93

Le délicieux dressing undressing principle stipule que :

Y T = XT · P

à telle enseigne que :


XT · A · X = Y T · D · Y
C’est alors que, como de costumbre, nous notons :
⎡ ⎤
y1
.
D = diag(λ1 , . . . , λn ) et Y = ⎣ .. ⎦
yn

Un double produit matriciel quasi mental révèle que :


n
YT·D·Y = λi yi2
i=1

et nous en sommes donc à :



n
XT · A · X = λi yi2 (1)
i=1

Il faut maintenant faire valoir les deux arguments suivants :


– Les λi , puisque ce sont légendairement les valeurs propres de A, sont, par
hypothèse, strictement positifs.
– La colonne Y = P T · X, produit d’une matrice inversible, en l’occurrence P T ,
par une matrice non nulle, en l’occurrence X, n’est pas la colonne nulle. Autant dire qu’il
existe un entier i0 ∈ [[1, n]] tel que yi20 > 0.
La somme du right hand side de (1) est donc formée de termes positifs ou nuls, l’un
d’entre-eux au moins — celui d’indice i0 — étant strictement positif. Il en résulte sur-le-
champ que :
XT · A · X > 0
et tout le monde est ravi.
b. La première vérication n’est qu’une formalité laissée, lo de siempre, à la charge de
l’impétrant. Planions maintenant derechef la nouvelle équivalence logique que voilà :
i. ⇒

– Choisissons tout d’abord la colonne :


$ %
1
X0 =
0

Un calcul direct, excessivement simple, stipule que :

X0 T · A · X0 = a
94 Concours 2007 voie scientifique

Comme A appartient à S++


2 et comme X0 est ouvertement non nulle, l’on a déjà a > 0.
– Choisissons ensuite la colonne :
$ %
−b
X1 =
a

Le liminaire calcul assure cette fois que :

aX1 T · A · X1 = (ac − b2 )a2

Comme a est désormais strictement positif, il s’ensuit que :

X1 T · A · X 1
ac − b2 = >0
a

vu, encore une fois, que X1 = 0 — sa deuxième entrée ne l’est pas — et A ∈ S++
2 .

ii. ⇐
Soit X une colonne non nulle de hauteur deux. Nous l’écrivons, as usual, sous la forme :
$ %
x
X=
y

Vu que a n’est pas nul, l’égalité liminaire montre que :

(ax + by)2 + (ac − b2 )y 2


XT · A · X =
a

Comme a et ac − b2 sont positifs il est déjà visiblement acquis que :

XT · A · X  0

Supposons alors par l’absurde que

XT · A · X = 0

Cela s’écrit :
(ax + by)2 + (ac − b2 )y 2 = 0
Compte tenu des hypothèses, il s’agit d’une somme nulle de réels positifs ou nuls. Nous
savons alors que, fatalement, tous les termes sont nuls et par conséquent :

(ac − b2 )y 2 = 0 et ax + by = 0

Vu que ac − b2 n’est pas nul, nécessairement y = 0, ce qui, reporté dans la deuxième,


amène à ax = 0. Comme a n’est pas nul non plus, x est nul et voilà t’y pas que :

X=0

Cela est une authentique contradiction.


Essec première 95

 Cette caractérisation de S++


2 est due à Gustav Jacobi. Elle s’appelle « caractérisation
par les mineurs principaux » vu que les deux scalaires :

a et ac − b2

s’appellent « mineurs principaux » de la matrice A. Nous espérons également que le


lecteur n’aura pas manqué de noter que :

ac − b2 = det A

2.a. Commençons par A. Elle est déjà symétrique réelle — c’est un bon début — et ses
deux mineurs principaux sont :

a = 2 et det A = 1

Le test de Jacobi est formel. La matrice A appartient bien à S++


2 . Poursuivons. La matrice
B est également symétrique réelle et ses valeurs propres se lisent en diagonale. Ce sont
les réels :
5
λ = 4 et µ =
3
Comme ils sont strictement positifs, la caractérisation spectrale du récent 1.a situe
également B dans S++ 2 . Nous notons maintenant que :
$ %
2 −1
B−A=
−1 2/3

Il s’agit évidemment d’une matrice symétrique réelle et ses mineurs principaux sont cette
fois :
1
a = 2 et det(B − A) =
3
Autant dire de manière jacobine que B − A appartient à S++
2 ce qui est la dénition de :

A<B

Nous notons pour nir qu’après un calcul quasiment mental, l’on découvre que :
$ %
11 −3
B 2 − A2 =
−3 7/9

La symétrie et la réalité sont évidement encore au rendez-vous mais les mineurs principaux
sont ici :
4
a = 11 mais det(B 2 − A2 ) = −
9
Finalement :
B 2 − A2 ∈/ S++
2 i.e. A2 < B 2

b.i. La caractérisation spectrale du 1.a stipule, en particulier, que :

0∈
/ Spec A
96 Concours 2007 voie scientifique

vu que les valeurs propres de A sont, toutes, strictement positives. Le célèbre test du
spectre assure donc déjà l’inversibilité de la matrice A. Nous signalons alors deux choses
cruciales :
– L’inverse d’une matrice symétrique réelle inversible est encore symétrique réelle.
– Pour toute matrice inversible M , les valeurs propres de M −1 sont exactement les
inverses de celles de M .
Tout cela est totalement élémentaire et assurément patrimonial. Dans ces conditions, la
matrice A−1 se retrouve symétrique réelle à valeurs propres strictement positives et la
caractérisation spectrale supra la dépose délicatement — et effectivement ! — dans S++
n .

ii. Soit X et H deux colonnes de Mn,1 (R). Nous avons :

−1 T
φA
X (A X + H) = 2X T · (A−1 X + H) − (A−1 X + H) · A · (A−1 X + H)

ou encore après quelques développements :

−1 T
φA
X (A X + H) = 2X T · A−1 · X + 2X T · H − (A−1 X + H) · (X + AH) (∗)

La transposition est connue pour sa linéarité et son respect du fameux dressing undressing
principle. Il n’en faut pas plus pour asséner que :
T T
(A−1 X + H) = X T (A−1 ) + H T = X T · A−1 + H T

la toute dernière égalité provenant de ce que l’inverse d’une symétrique inversible est
encore évidemment symétrique. Le dernier produit de l’égalité (∗) devient donc :

(X T · A−1 + H T ) · (X + AH) = X T · A−1 · X + H T · X + X T · H + H T · A · H

Mais, because X et H columns, nous avons :

HT · X = XT · H

puisqu’il ne s’agit que du produit scalaire canonique < X , H > des colonnes X et H.
Après quelques gentilles simplications, il semble désormais acquis que :
−1
φA
X (A X + H) = X T · A−1 · X − H T · A · H

À côté de cela, et grâce aux mêmes genres de calculs, voilà que :


−1
φA
X (A X) = 2X T · A−1 · X − X T · A−1 · X = X T · A−1 · X

Il s’avère donc nalmente que :


−1 −1
φA
X (A X + H) − φA
X (A X) = − H T · A · H

Comme A appartient à S++


n nous en déduisons que :

−1 −1
∀H ∈ Mn,1 (R) φA
X (A X + H) − φA
X (A X)  0
Essec première 97

ou encore :
−1 −1
∀H ∈ Mn,1 (R) φA
X (A X + H)  φA
X (A X)
−1
Cela établit, via la dénition, que l’application φA
X présente en A X un maximum global
qui vaut :
−1
φA
X (A X) = X T · A−1 · X
l’égalité ayant déjà été rencontrée plus haut.
 En réalité, due to A ∈ S++
n , nous avons :

−1 −1
∀H ∈ Mn,1 (R) \ {0} φA
X (A X + H) < φA
X (A X)
−1
On exprime cela en disant que φA
X présente en A X un maximum global strict.
iii. Soit X et Y deux colonnes de Mn,1 (R), la seconde étant en outre supposée non
nulle. Grâce à une sympathique simplication et à une bifactorisation, nous avons :

X (Y ) − φX (Y ) = Y · (B − A) · Y
φA B T

Par hypothèse, la matrice B − A appartient à S++


n et Y = 0. Il n’en faut donc pas plus
pour se prévaloir de :
X (Y ) − φX (Y ) > 0
φA B

ce qui, pour ce début de question, ne peut que nous ravir. Poursuivons. Maximum de la
fonction φA
X oblige, nous avons a fortiori :

φB A
X (Y ) < max φX
Mn,1 (R)

ce qui, compte tenu de tout ce que nous savons, s’écrit également :


−1
X (Y ) < X · A
φB ·X
T

Supposons alors que X soit également non nulle. Produit d’une inversible par une non
nulle, la colonne B −1 X échappe à la nullité et nous avons donc tout à fait le droit de la
sélectionner comme colonne Y . Il s’ensuit donc que :
−1
φB
X (B X) < X T · A−1 · X

et comme depuis une assez belle lurette nous savons que :


−1
φB
X (B X) = X T · B −1 · X

il semble difcile de passer à côté de :

X T · B −1 · X < X T · A−1 · X i.e. X T · A−1 · X − X T · B −1 · X > 0

Une autre bifactorisation plus loin, nous découvrons que :

X T · (A−1 − B −1 ) · X > 0
98 Concours 2007 voie scientifique

ce qui n’est pas pour nous défriser !

Partie 3 Monotonie sur S++


n

1.a. Avant de commencer, nous nous devons de rappeler que, A étant symétrique réelle
d’ordre supérieur ou égal à un, elle est spectralement diagonalisable ce qui signie,
entre autres, que les espaces propres Eλi (A) sont supplémentaires orthogonaux dans
Mn,1 (R), l’orthogonalité se dénissant vis-à-vis du produit scalaire canonique sur
l’espace des colonnes réelles de hauteur n. Dans ces conditions, pour chaque i ∈ [[1, p]],
le projecteur orthogonal sur l’espace Eλi (A) est exactement le ième projecteur πi attaché
à la « supplémentarité » :

Mn,1 (R) = Eλ1 (A) ⊕ · · · ⊕ Eλp (A)

c’est-à-dire le projecteur sur Eλi (A) parallèlement à la somme des autres espaces propres.
Cela ne va pas être sans conséquence ! En effet, tout individu, un temps soit peu sous les
feux de la rampe, se doit impérativement de connaître les universelles relations :

π1 + · · · + πp = Id (∗)

ainsi que la fondamentale :

∀(i, j) ∈ [[1, p]]2 ∀Xj ∈ Eλj (A) πi (Xj ) = δij Xj (∗∗)

grâce au très pratique symbole de Leopold Kronecker.


Toujours, avant de commencer, nous noterons a l’endomorphisme canoniquement attaché
à la matrice A, c’est-à-dire l’endomorphisme de Mn,1 (R) dont la matrice dans la base
canonique est A. On rappelle, également et pour nir, que :

∀X ∈ Mn,1 (R) a(X) = AX

Nous pouvons alors attaquer.


– Nous allons tout d’abord démontrer que les deux endomorphismes :


p
a et λ i πi
i=1

coïncident sur chaque espace propre de A. Soit, à cet effet, j ∈ [[1, p]] et Xj ∈ Eλj (A).
– C’est sans l’ombre d’un doute que, très proprement :

a(Xj ) = AXj = λj Xj

– Nous avons à côté de cela :



p 
p 
p
λi πi (Xj ) = λi πi (Xj ) = λi δij Xj
i=1 i=1 i=1
Essec première 99

la dernière égalité provenant de la très fondmentale (∗∗) rappelée supra. La toujours


sympathique gestion du symbole de Leopold amène alors à

p
λi πi (Xj ) = λj Xj (1)
i=1

chronique d’une coïncidence annoncée. Poursuivons.


– Comme nos deux endomorphismes :


p
a et λ i πi
i=1

sonr désormais en symbiose sur chaque espace propre de A et comme ces derniers sont
supplémentaires dans Mn,1 (R), il est très philosophiquement connu que « nos deux amis »
coïncident partout et autant dire alors carrément que :


p
a= λ i πi
i=1

En passant aux matrices dans la base canonique de Mn,1 (R) et au vu des notations du
texte, il se dessine effectivement que :


p
A= λ i Mi
i=1

et tout le monde est ravi.


b. Nous avons rappelé plus haut la très médiatique :


p
Id = πi (∗)
i=1

Le passage aux matrices dans la base canonique conduit cette fois à :


p
In = Mi
i=1

c. Soit t ∈ R. Nous avons trois choses à faire valoir :


– Tout d’abord, la matrice A + tIn est assurément symétrique réelle.
– Ensuite, le quasi mental thème « spectre et afnité » stipule que :
& '
Spec(A + tIn ) = λi + t | i ∈ [[1, p]]

et nous en protons pour signaler que les λi + t sont assurément différents et toujours
rangés dans l’ordre croissant.
100 Concours 2007 voie scientifique

– Enn :
∀i ∈ [[1, p]] Eλi +t (A + tIn ) = Eλi (A)
Nous ne pouvons qu’encourager notre pointilleux lecteur à s’assurer, dans le calme et la
sérénité, de la véracité de ces dires. Au vu et au su du troisième point, la matrice, dans la
base canonique, de la projection orthogonale sur l’espace Eλi +t (A + tIn ) est encore la
matrice Mi et par conséquent, la décomposition de la matrice A + tIn est par dénition :


p
A + tIn = (λi + t)Mi
i=1

 On pourra noter que, selon les récents a et b, on a :


p
A= λ i Mi
i=1

et :

p
tIn = tMi
i=1

L’addition membre à membre de ces deux égalités donne bien sûr :


p
A + tIn = (λi + t)Mi
i=1

mais a priori, rien ne prouve que cette égalité soit la décomposition spectrale de A + tIn .
Ce sont les observations supra qui le démontrent !
2.a. Soit A ∈ S++ ∗
n et f une application de R+ dans R. Conservant les notations du texte,
nous avons :
p
f˜(A) = f (λi )Mi
i=1

ce qui n’est pas dépourvu de sens vu que, depuis belle lurette les λi sont strictement
positifs, et que f « démarre » jutement de R∗+ . Nous faisons alors état des éléments
suivants :
– Les applications πi supra sont des projecteurs
orthogonaux et à ce titre, sont des
endomorphismes symétriques de l’espace euclidien Mn,1 (R), < , > où, nous l’avons
déjà signalé, < , > est le produit scalaire canonique.
– La base canonique de Mn,1 (R) est connue pour être une base orthonormale de
notre euclidien.
La très importante caractérisation matricielle de la symétrie assure alors que les matrices
Mi sont symétriques réelles. Il en est de même de la combinaison linéaire :


p
f (λi )Mi
i=1
Essec première 101

Nous en déduisons que f˜ applique donc bien S++


n dans Sn (R). Poursuivons.

Supposons en outre que f soit strictement monotone. Cela se planie classiquement en


dos partes.
– Supposons f strictement croissante. Nous allons établir deux choses.
i. L’ensemble des valeurs propres distinctes de f˜(A) classées dans l’ordre croissant
est : & '
Spec f˜(A) = f (λ1 ), . . . , f (λp )

ii. Nous avons les égalités d’espaces propres :

∀i ∈ [[1, p]] Ef (λj ) (f˜(A)) = Eλi (A)

Here we go !
Nous avançons tour à tour les arguments suivants.
– Comme par hypothèse, l’on a :

λ1 < · · · < λp

et comme f est ici strictement croissante, l’on a également :

f (λ1 ) < · · · < f (λp )

et c’est déjà un bon début.


– Soit j ∈ [[1, p]] et Xj un vecteur propre de A attaché à la valeur propre λj .
Dans ces conditions, nous avons :


p 
n
f˜(A)Xj = f (λi )Mi Xj = f (λi )δij Xj
i=1 i=1

la dernière égalité protant de la traduction matricielle de la terrible (∗∗). As usual, il ne


reste in ne que :
f˜(A)Xj = f (λj )Xj
ce qui, vu que le vecteur Xj n’est pas nul, stipule non seulement que :

f (λj ) ∈ Spec f˜(A)

mais, à bien y regarder, également que :

Eλj (A) ⊂ Ef (λj ) (f˜(A))

– Nous savons depuis belle lurette que A est diagonalisable et que les différentes
valeurs propres de A sont λ1 , . . . , λp . La cns des dimensions des espaces propres est alors
catégorique. Nous avons :
p
dim Eλi (A) = n
i=1
102 Concours 2007 voie scientifique

ce qui, vu les inclusions très récemment avancées et le théorème du sous-espace, oblige


à:
p
dim Ef (λj ) (f˜(A))  n
i=1

Nous savons depuis assez longtemps que les f (λi ) sont deux à deux distincts. La règle
du non-dépassement exige alors ouvertement deux choses :
a. La matrice f˜(A) n’a pas d’autre valeur propre que les f (λi ).
b. Pour chaque i ∈ [[1, p]], l’on a :

dim Eλi (A) = dim Ef (λj ) (f˜(A))

ce qui — théorème du sous-espace derechef — induit carrément :

Eλi (A) = Ef (λj ) (f˜(A))

Nous en savons sufsamment pour asséner que :


& '
Spec f˜(A) = f (λ1 ), . . . , f (λp )

et que, pour chaque i ∈ [[1, p]], Mi est la matrice, dans la base canonique, du projecteur
orthogonal sur :
Ef (λj ) (f˜(A))
La vieille égalité :

p
f˜(A) = f (λi )Mi
i=1

devient, désormais, la décomposition de f˜(A).


– Supposons maintenant f strictement décroissante. Il advient mutatis mutandis que
la décomposition de f˜(A) est :

f˜(A) = f (λp )Mp + · · · + f (λ1 )M1

puisque, par dénition, nous avons des ordres à respecter…


 Le lecteur est prié d’avoir compris une chose importante. Contre vents et marées —
pour ne pas dire par dénition — nous avons la certitude de ce que :


p
f˜(A) = f (λi )Mi
i=1

mais, la plupart du temps, cette égalité n’est, même pas à l’ordre près, la fameuse
décomposition. Voici un exemple, pour enfoncer le clou. Nous savons depuis assez
longtemps que
n
In = Mi
i=1
Essec première 103

Cette égalité n’est pratiquement jamais la décomposition de la matrice In …


b. Soit A ∈ S++
n admettant à nouveau la décomposition :


p
A= λ i Mi
i=1

L’application x → 1/x étant parfaitement dénie sur R∗+ , il en résulte, par dénition,
que :
 p
1
f˜(A) = Mi
λ
i=1 i

Mais l’on sait depuis toujours que A−1 est encore symétrique réelle, puis que :
&1 1'
Spec A−1 = ,...,
λ1 λp
et enn que :
∀i ∈ [[1, p]] E1/λi (A−1 ) = Eλi (A)
Toutes ces choses — éléments propres de l’inverse d’une inversible — sont bien classiques
et ont d’ailleurs été utilisées en partie à la question 2 de la partie 2. Il n’en faut alors pas
plus pour clamer, haut et fort, que :
p
1
Mi
λ
i=1 i

n’est autre que la décomposition de la matrice A−1 , doù ressort, en douceur :

f˜(A) = A−1

c. Remarquons, avant toute chose, que les hypothèses faites permettent de composer
effectivement f par g, ce qui n’est pas dénué d’intérêt… Soit alors encore une fois
A ∈ S++n admettant as usual la décomposition :


p
A= λ i Mi
i=1

Les hypothèses de monotonie amènent à une petite planication.


– Supposons que f et g soient strictement croissantes. Le tout récent 2.a stipule que
la décomposition de g̃(A) est alors :


p
g̃(A) = g(λi )Mi
i=1

Oui mais voilà, comme g applique par hypothèse R∗+ dans lui-même, les g(λi ) sont
strictement positifs. Quand on l’applique à g, l’importante égalité i signalée au 2.a stipule
que :
Spec g̃(A) ⊂ R∗+
104 Concours 2007 voie scientifique

à telle enseigne que la caractérisation spectrale du 1.a de la partie 2 dépose, en douceur,


la matrice g̃(A) dans S++
n . On peut alors recommencer avec f , ce qui amène à :


p
f˜ g̃(A) = f ◦ g(λi )Mi
i=1

ce qui nous permet d’envisager la suite.


– On l’aura bien compris, les trois autres cas restant se traitent mutatis mutandis.
d. Les hypothèses de stricte positivité des deux réels c et d assurent une parfaite dénition
de h sur R∗+ ce qui, quelque part, est plutôt rassurant. Cela étant, la vérication de l’égalité
demandée n’est qu’une formalité laissée, lo de siempre, à la charge du valeureux lecteur.
Considérons alors les applications :

1 c
f : x −→ et g : x −→ x +
x d
Elles vérient ouvertement les hypothèses de la question précédente et par là même, les
conclusions… Soit alors A ∈ S++n . Si l’on en croit les toutes récentes question 1.c et 2.b,
il ne fait aucun doute que :

c
 c −1
g̃(A) = A + In et f˜ g̃(A) = A + In
d d
De là à en déduire qu’en réalité :

bc − ad a
h̃(A) = (cA + dIn )−1 + In
c c
il n’y a qu’un tout petit pas afne que nous laissons, sans scrupule, à la sagacité de
l’impétrant. Soit maintenant B ∈ S++
n vériant :

A<B

La stricte positivité de c amène quasi mentalement à :

cA + dIn < cB + dIn

Si l’on y ajoute la stricte positivité de d, ces deux matrices se retrouvent assurément dans
S++
n . La question 2.b.iii de la partie 2 — stricte décroissance de l’inversion sur Sn —
++

est alors catégorique. Nous avons :

(cB + dIn )−1 < (cA + dIn )−1 i.e. (cA + dIn )−1 − (cB + dIn )−1 > 0

Il reste maintenant à observer que :

bc − ad

h̃(A) − h̃(B) = (cA + dIn )−1 − (cB + dIn )−1
c
et à planier un poquit´n.
Essec première 105

– Si bc − ad > 0, il est lumineux que :

h̃(A) − h̃(B) > 0

et dans ce premier cas, l’application h̃ est strictement décroissante sur S++


n .
– En revanche, si bc − ad < 0, l’application h̃ devient, tranquillement, strictement
croissante sur S++
n .

3.a.i. Soit i et j appartenant à [[1, n]]. Nous avançons tour à tour trois choses.
– L’évidente continuité sur R∗+ de la fonction mij + nij fait que son intégrale n’est
impropre qu’en zéro et en plus l’inni.
– Par hypothèse, les deux intégrales :
+ +∞ + +∞
mij (t)dt et nij (t)dt
0 0

existent ce qui, via la règle de linéarité, assure l’existence de l’intégrale :


+ +∞


mij (t) + nij (t) dt
0

– La formule de linéarité assure pour nir que :


+ +∞ + +∞ + +∞


mij (t) + nij (t) dt = mij (t)dt + nij (t)dt
0 0 0

et nous pouvons passer à la question suivante.


b.i. Nous savons depuis la première partie que f est parfaitement dénie sur R∗+ ce qui
nous amène tout naturellement à :
p $ + +∞  %
˜
 t 1
f (A) = − ϕ(t)dt Mi
i=1 0 1 + t2 λi + t

Soit alors i ∈ [[1, p]]. La propriété ii que nous venons d’admettre(*) signale que l’intégrale
de matrice : + +∞ 
t 1
− ϕ(t)Mi dt
0 1 + t2 λi + t
existe et vaut : $+ +∞  %
t 1
− ϕ(t)dt Mi
0 1 + t2 λi + t
C’est au tour de la propriété i de prendre le relais. Légèrement dopée par récurrence, elle
révèle l’existence de l’intégrale de matrice :
+ p 
+∞  t 1
ϕ(t) − Mi dt
0 i=1
1 + t2 λi + t

(*) Elle est, cela dit, très facile à établir tout comme la iii d’ailleurs…
106 Concours 2007 voie scientifique

ainsi que l’égalité :


+ p 
+∞  t 1
f˜(A) = ϕ(t) − Mi dt
0 i=1
1 + t2 λi + t

Soit alors t ∈ R∗+ . Il ne fait aucun doute que :

p 
 1 t  
p p
t 1
2
− M i = 2
M i − Mi
i=1
1+t λi + t 1 + t i=1 λ +t
i=1 i

Mais nous savons depuis fort longtemps que :


p
M i = In
i=1

alors que du to the recent 2.c, 2.b et 1.c il s’avère que :


p
1
Mi = (A + tIn )−1
i=1
λi + t

Cette affaire semble dénitivement bouclée.


ii. Soit B ∈ S++
n vériant A < B, X une colonne non nulle de hauteur n et t > 0.
Nous avons :
$ % $ %
t −1 t −1
I n − (B + tI n ) − In − (A + tI n ) = (A + tIn )−1 − (B + tIn )−1
1 + t2 1 + t2

Comme A < B, il advient sans surprise que :

(A + tIn )−1 − (B + tIn )−1 > 0

et dans la foulée :
$ % $ %
t −1 t −1
In − (B + tIn ) − In − (A + tIn ) >0
1 + t2 1 + t2

Si, pour alléger, nous notons M (t) le big left hand side et comme X n’est pas nulle, c’est
par dénition de S++n , que nous déduisons que :

X T · M (t) · X > 0

ce qui, grosso modo, n’est autre que le résultat souhaité.


iii. Attention, il y a une petite faiblesse du texte à cet endroit. Il aurait dû exiger
que ϕ ne soit pas identiquement nulle ce que, bien évidemement, nous réclamons sur-le-
champ !
Essec première 107

Soit à nouveau A et B dans S++ n vériant A < B. Si l’on en croit la propriété (i) de
l’intégration matricielle ainsi que la récente question i, il semble bien que l’on ait :
+ +∞
f˜(B) − f˜(A) = ϕ(t) · M (t)dt
0

où, pour chaque t > 0, M (t) est la grosse matrice baptisée à la question précédente.
Soit alors également une colonne X non nulle de Mn,1 (R). C’est au tour de la propriété
admise (iii) de prendre la parole. Elle stipule exactement que :
+ +∞


X T · f˜(B) − f˜(A) · X = ϕ(t) · X T · M (t) · Xdt
0

où contrairement aux apparences, l’intégrale de droite ne porte pas sur une fonction
matricielle « maous costaud » mais simplement sur une fonction numérique. Nous faisons
alors état des faits suivants :
– Les bornes d’intégration sont dans le sens croissant strict.
– Il est facile de se rendre compte — au prix d’un produit matriciel mental — que
la fonction numérique :
t −→ ϕ(t) · X T · M (t) · X
est continue sur R∗+ .
– Vu la positivité de ϕ et notre conclusion du récent ii cette même fonction est
positive ou nulle sur R∗+ .
– Comme nous avons ajouté que ϕ n’est pas identiquement nulle et à la vue derechef
du récent ii, notre fonction :

t −→ ϕ(t) · X T · M (t) · X

ne l’est pas non plus.


Le théorème de positivité stricte d’une intégrale amène alors à :


X T · f˜(B) − f˜(A) · X > 0

ce qui montre que :

f˜(B) − f˜(A) ∈ S++


n i.e. f˜(A) < f˜(B)

et nous pouvons passer à la suite.


c. Nous nous organisons un peu.
– Nous avons constaté à la seconde question de la partie 1 que la fonction ln est la
fonction f attachée à la fonction ϕ constante égale à 1. Comme cette dernière n’est pas
identiquement nulle, la n de la question précédente nous permet de réclamer la stricte
.
croissance de ln.
108 Concours 2007 voie scientifique

– Supposons que α appartienne à ] − 1, 0[. La question 3 de la partie 1, dont nous


conservons les notations, stipule que :

fα (x) − d
∀x > 0 pα (x) =
c
puisqu’à l’époque, nous avions eu l’excellente idée de gérer le signe strict du réel c. Soit
alors A ∈ S++
n décomposée, as usual, en :


p
A= λ i Mi
i=1

Nous avons par dénition :



p
p̃α (A) = pα (λi )Mi
i=1

ce qui, compte tenu de l’égalité précédente devient :

1
p
d
p̃α (A) = fα (λi )Mi − In
c i=1 c

puisque cela fait belle lurette que la somme des Mi vaut In . Autant dire que :

1˜ d
p̃α (A) = fα (A) − In
c c

La fonction f˜α est strictement croissante sur S++


n depuis la très récente question iii et
comme nous nous souvenons de que c est strictement négatif, il est immédiat que p̃α est
strictement décroissante sur S++
n .
– Supposons pour nir que α appartienne à ]0, 1[. On démontre mutatis mutandis
que p̃α est strictement croissante sur S++
n mais grâce, cette fois, à la question 4.b de la
partie 1.

Partie 4 Monotonies comparées de f et f˜

1. Soit x et y deux réels vériant :

0<x<y

et considérons les deux matrices :

A = xIn et B = yIn

Nous faisons les observations suivantes :


– Les matrices A et B sont assurément dans S++
n .
– Vu que B − A = (y − x)In et que y − x > 0 il ne fait aucun doute que :

B − A ∈ S++
n
Essec première 109

ce qui par dénition révèle que :


A<B

– Leurs deux écritures précédentes, en l’occurrence :

A = xIn et B = yIn

sont précisément leurs décompositions à telle enseigne que :

f˜(A) = f (x)In et f˜(B) = f (y)In

Comme par hypothèse :


f˜(A) < f˜(B)
nous en déduisons que :

f (y) − f (x) In ∈ S++
n

ce qui, assez tranquillement, amène à :

f (x) < f (y)

2.a. Soit t > 0. On trouve assez rapidement que :


 
Spec A = e−t , et

et que : $ % $ %
−1 1
Ee−t (A) = Vect et Eet (A) = Vect
1 1

Il s’ensuit tout d’abord que A(t) ∈ S++2 simplement parce qu’elle est symétrique réelle
d’ordre deux et que ses valeurs propres sont strictement positives. Nous faisons bien sûr
référence à la caractérisation spectrale d’un lointain 1.a.
Comme t > 0, nous avons e−t < et — classement dans l’ordre strict ! — et on déduit
aisément la décomposition souhaitée à savoir :
$ % $ %
e−t 1 −1 et 1 1
A(t) = +
2 −1 1 2 1 1

b. On observe tout simplement que :

2
− t3 −−t→0
−−→ 1
et + e−t t>0

Un classique argument epsilontik assure alors l’existence d’un réel η0 > 0 tel que :

2
∀t ∈ ]0, η0 [ − t3 > 0
et + e−t
110 Concours 2007 voie scientifique

Du coup, lorsque t appartient à l’ouvert ]0, η0 [, la matrice symétrique réelle B(t) a


ses valeurs propres strictement positives et si l’on en croit à nouveau une certaine
caractérisation…
c. Soit t appartenant à l’ouvert ]0, η0 [. Nous allons utiliser la caractérisation de Jacobi
d’un certain 1.b. Après quelques gentils calculs(*) l’on trouve que les mineurs principaux
de A(t) − B(t) sont :

et + e−t 3 3 2 3
− t et t −t
2 et + e−t

– Le second est assurément strictement positif vu que 0 < t < η0 .


– Quant au premier, étant donné que :

et + e−t
− t3 −−t→0
−−→ 1
2 t>0

le même argument epsilontik que celui évoqué supra produit un réel η1 situé dans ]0, η0 [
tel que :
et + e−t
∀t ∈ ]0, η1 [ − t3 > 0
2
En bref, si 0 < t < η1 , nous deux mineurs principaux sont strictement positifs et en
Jacobi conséquence l’on a bien :

A(t) − B(t) > 0 i.e. B(t) < A(t)

d. Soit t appartenant à ]0, η1 [.


– Nous connaissons la décomposition de A(t) tant et si bien que :
$ % $ %

e−αt 1 −1 eαt 1 1
p̃α A(t) = +
2 −1 1 2 1 1

– Celle de la diagonale B(t) s’obtient quasi mentalement à savoir :


$ % $ %
3 1 0 2 3 0 0
B(t) = t + −t
0 0 et + e−t 0 1

et force est de constater que :


$ % α $ %

1 0 2 0 0
p̃α B(t) = t3α + − t 3
0 0 et + e−t 0 1

e. Soit α > 1. Il advient alors que :


$ %


at bt
p̃α A(t) − p̃α B(t) =
bt ct

(*) Très hyperboliques, pour les initiés !


Essec première 111

où, à la surprise générale, nous avons noté :


α
eαt + e−αt eαt − e−αt eαt + e−αt 2
at = − t3α ; bt = ; ct = − − t3
2 2 2 e + e−t
t

et l’énorme quantité dont on nous demande un équivalent n’est alors autre que le mineur
principal at ct − b2t . Here we go !
Tout ce qui va suivre se sous-entend au voisinage de zéro sans qu’il soit nécessaire de le
préciser à chaque fois.
– Du développement limité de l’exponentielle on déduit facilement que :

eαt + e−αt α 2 t2
=1+ + o(t2 )
2 2

De plus, vu la position géographique de α, l’on également t3α = o(t2 ) de sorte que :

α 2 t2
at = 1 + + o(t2 )
2

– Du même développement l’on déduit également que :

eαt − e−αt
= αt + o(t2 )
2
et le théorème du produit — ici du carré ! — amène à :

b2t = α2 t2 + o(t2 )

– Enn, mais ce n’est pas le moindre, observons que :

2 1 t2
= =1− + o(t2 )
et + e−t t2 2
1+ + o(t2 )
2
la dernière égalité provenant du théorème de composition par :

1
u −→
1+u

Comme t3 = o(t2 ) nous avons également :

2 3 t2
− t = 1 − + o(t2 )
et + e−t 2

La composition par la fonction :

u −→ (1 + u)α
112 Concours 2007 voie scientifique

nous conduit alors à :


α
2 t2
− t3 =1−α + o(t2 )
et + e−t 2

et nalement :
α(α + 1) 2
ct = t + o(t2 )
2
Encore un petit effort — un dernier théorème du produit et une soustraction — et voilà
que :
α(1 − α) 2
at ct − b2t = t + o(t2 )
2
Comme α > 1 le produit α(1 − α) n’est pas nul et l’on a donc :

α(1 − α) 2
at ct − b2t t→0
∼ t
t>0
2

f. Soit à nouveau α > 1. Le produit α(1 − α) étant négatif, il résulte de l’équivalence


précédente que notre mineur principal at ct − b2t est localement négatif, ce qui, de façon
jacobienne, interdit à la matrice :



p̃α A(t) − p̃α B(t)

toute velléité de positivité.


3. Nous venons de donner un contre-exemple à cette réciproque lorsque n = 2.
Maintenant, pour n  2 quelconque, il suft de proposer les deux bloc-matrices :
/ 0 / 0
A(t) 0 B(t) 0
et
0 In−2 0 In−2

dans lesquelles les blocs A(t) et B(t) sont les matrices (2, 2) de la question précédente.
EmLyon première 113

EmLyon première

La série de Mercator
Une fonction de deux variables
Polynômes orthogonaux

Problème 1

Année Difficulté
2 ¶

On considère l’application :
⎧ ln(1 + x)
⎨ si x>0
f : [0, +∞[→ R, x −→ f (x) = x

1 si x=0

Partie 1 Étude de l’application f

1. Montrer que f est continue sur [0, +∞[.


2. On considère l’application :
x
A : [0, +∞[→ R, x → A(x) = − ln(1 + x)
1+x

a. Montrer que f est de classe C 1 sur ]0, +∞[ et que, pour tout x ∈]0, +∞[ :
A(x)
f  (x) =
x2

1
b. Montrer que f  admet − comme limite en 0 à droite.
2
114 Concours 2007 voie scientifique

c. Démontrer que f est de classe C 1 sur [0, +∞[ et préciser f  (0).


d. Dresser le tableau de variation de A. En déduire que f est strictement décroissante
sur [0, +∞[.
e. Déterminer la limite de f en +∞.
3. On considère l’application

3x2 + 2x
B : [0, +∞[→ R, x → B(x) = − + 2 ln(1 + x)
(1 + x)2

a. Montrer que f est deux fois dérivable sur ]0, +∞[, et que, pour tout x ∈]0, +∞[ :

B(x)
f  (x) =
x3

b. Dresser le tableau de variation de B. En déduire que f est convexe sur ]0, +∞[.
c. Tracer l’allure de la courbe représentative de f .

Partie 2 Un développement en série

1. Montrer, pour tout N ∈ N et tout t ∈ [0, 1] :

1  N
(−1)N +1 tN +1
= (−1)k tk +
1+t 1+t
k=0

2. En déduire, pour tout N ∈ N et tout x ∈ [0, 1] :


N
(−1)k xk+1
ln(1 + x) = + JN (x)
k+1
k=0

où on a noté : + x
(−1)N +1 tN +1
JN (x) = dt
0 1+t
3. Établir, pour tout N ∈ N et tout x ∈ [0, 1] :
  N +2
JN (x)  x
N +2

4. En déduire que, pour tout x ∈ [0, 1], la série :


 (−1)n−1 xn
n
n1

converge et que :
+∞
 (−1)n−1 xn
ln(1 + x) =
n=1
n
EmLyon première 115

Partie 3 Égalité d’une intégrale et d’une somme de série

1. Montrer, en utilisant le résultat de 2.3, pour tout N ∈ N et tout


x ∈ [0, 1] :
 N
(−1)k xk  xN +1

f (x) − 
k+1 N +2
k=0

2. Montrer que la série :


 (−1)n−1
n2
n1

converge et que :
+ 1 +∞
 (−1)n−1
f (x)dx =
0 n=1
n2

3. Montrer, pour tout N ∈ N∗ :


⎧ 2N +1
⎪  1 N
1 N
1

⎪ = +

⎪ 2 2 2

⎨ n=1
n p=0
(2p + 1) p=1
4p





2N
 +1
(−1)n−1 N
1 N
1

⎪ −
⎩ 2
= 2 2
n=1
n p=0
(2p + 1) p=1
4p

4. On admet que :
+∞
 1 π2
=
n=1
n2 6
Montrer que :
+ 1
π2
f (x)dx =
0 12

Partie 4 Recherche d’extremum pour une fonction de deux variables réelles

On note : + x
F : ]0, +∞[→ R, x → F (x) = f (t)dt
0
et :
G : ]0, +∞[2 → R, (x, y) → G(x, y) = F (xy) − F (x) − F (y)

1. Montrer que G est de classe C 2 sur ]0, +∞[2 . Exprimer, pour tout (x, y) ∈ ]0, +∞[2 ,
les dérivées partielles premières et secondes de G en (x, y) en fonction de x, y, f (x),
f (y), f (xy), f  (x), f  (y), f  (xy).
2. Établir que G admet (1, 1) comme unique point critique.
3. Est-ce que G admet un extremum local ?
116 Concours 2007 voie scientifique

Problème 2

Année Difficulté
2 ¶¶

On note n un nombre entier xé supérieur ou égal 2, E le sous-espace vectoriel de R[X]


constitué des polynômes de degré inférieur ou égal à n et B = (1, X, . . . , X n ) la base
canonique de E.

Partie 1 Étude d’un endomorphisme de E




1. Montrer que, pour tout polynôme P de E, le polynôme (X 2 − 1)P est élément de


E, où (X 2 − 1)P désigne le polynôme dérivé second de (X 2 − 1)P .
On note φ : E → E l’application qui, à tout polynôme P de E, associe :


φ(P ) = (X 2 − 1)P

2. Vérier que :
φ(1) = 2 et φ(X) = 6X

3. Montrer que φ est un endomorphisme de E.


4. Calculer φ(X k ) pour tout k ∈ [[0, n]] et écrire la matrice A de φ dans la base B.
5.a. Montrer que φ admet n + 1 valeurs propres deux à deux distinctes que l’on notera
λ0 , λ1 , . . . , λn , avec :
λ0 < λ1 < · · · < λn
b. Est-ce que φ est bijectif ?
c. Montrer que φ est diagonalisable et déterminer, pour tout k ∈ [[0, n]], la dimension
du sous-espace propre de φ associé à λk .
6. Soit k ∈ [[0, n]] et P un vecteur propre de φ associé à la valeur propre λk .
a. Montrer que le degré du polynôme P est égal à k.
b. Montrer que le polynôme Q déni par Q(X) = P (−X) est un vecteur propre de φ
associé à λk .
7. En déduire qu’il existe une unique base (P0 , P1 , . . . , Pn ) de E constituée de vecteurs
propres de φ telle que, pour tout k ∈ [[0, n]], Pk est un polynôme de degré k, de coefcient
dominant égal à 1 et vériant :

Pk (−X) = (−1)k Pk (X)

Que peut-on en déduire sur la parité de Pk ?


8. Calculer P0 , P1 , P2 , P3 .
EmLyon première 117

Partie 2 Un produit scalaire sur E

1. Montrer que l’application :


+ 1
(P, Q) −→ ( P | Q ) = (1 − x2 )P (x)Q(x)dx
−1

est un produit scalaire sur E.


On munit dorénavant E de ce produit scalaire noté ( | ).
2.a. À l’aide d’intégrations par parties, établir que φ est un endomorphisme symétrique
de E.
b. Montrer que la base (P0 , P1 , . . . , Pn ) de E obtenue à la question 1.7 est orthogonale.
Soit j ∈ [[1, n]].
3.a. Montrer que pour tout polynôme S de degré inférieur ou égal à j − 1, on a :

( S | Pj ) = 0

b. En considérant ( 1 | Pj ), montrer que Pj ne garde pas un signe constant sur l’intervalle


] − 1; 1[.
c. En déduire que Pj admet au moins, dans l’intervalle ] − 1; 1[, une racine d’ordre de
multiplicité impair.
4. On note {x1 , . . . , xm } l’ensemble des racines d’ordre de multiplicité impair de Pj
appartenant à l’intervalle ] − 1; 1[ et :

Sm = (X − x1 )(X − x2 ) · · · (X − xm )

a. Justier que m  j.
b. Montrer que le polynôme Sm Pj ( produit des polynômes Sm et Pj ) garde un signe
constant sur l’intervalle ] − 1; 1[.
c. En considérant ( Sm | Pj ), montrer que m = j.
d. En déduire que Pj admet j racines simples réelles toutes situées dans l’intervalle
ouvert ] − 1, 1[.
118 Concours 2007 voie scientifique

Solution
Premier problème

Partie 1 Étude de l’application f

1. Les théorèmes généraux assurent, sans plus attendre, la continuité de f sur l’ouvert
]0, +∞[. En outre, à la lumière de la limite classique :

ln(1 + x)
−−−−→ 1
x x→0

et de la dénition de f il s’avère que :

f (x) −−−−→ f (0)


x→0

d’où la continuité de f en 0. La fonction f est donc effectivement continue sur la demi-


droite fermée [0, +∞[.
2.a. Les théorèmes généraux — encore eux ! — font que f est en réalité de classe C ∞ sur
l’ouvert ]0, +∞[. La classe C 1 en résulte tranquillement. Quant au calcul de f  , il suft
de savoir correctement dériver un quotient.
b. Il y a manifestement un forme indéterminée mais vu le look de f  , en l’occurrence :

A(x)
x −→
x2

nous savons que le dénouement passe par le développement limité à l’ordre deux, au
voisinage de zéro, du numérateur A(x). Here we go !
– Nous avons tout d’abord le développement limité ofciel :

1
= 1 − x + o(x)
1+x

La multiplication par x le monte magiquement à l’ordre deux et voilà que :


x
= x − x2 + o(x2 )
1+x

– À côté de cela c’est toujours ofciellement que nous nous réclamons de :

x2
ln(1 + x) = x − + o(x2 )
2
EmLyon première 119

Le théorème de soustraction de deux dl2 assure, quasi mentalement, que :

x2
A(x) = − + o(x2 )
2
et nalement, au voisinage droit de zéro, nous avons :

1
f  (x) = − + o(1)
2

d’où l’implacable conclusion puisque o(1) est — Edmund Landau dixit — le canon de la
limite nulle.
c. Faisons un rapide état de la situation.
– La fonction f est, depuis la question 1, continue sur le fermé [0, +∞[.
– Depuis le récent 2.a elle est de classe C 1 sur l’ouvert ]0, +∞[.
– Enn, sa dérivée f  a, en zéro, la limite nie −1/2.
Dans ces conditions l’important théorème de prolongement dans le cas C 1 est totalement
formel. La fonction f est authentiquement de classe C 1 sur le fermé [0, +∞[ et en prime :

1
f  (0) = −
2

d. La fonction A est ouvertement dérivable sur R+ et un calcul bénin amène à :


x
∀x  0 A (x) = −
(1 + x)2

Il en résulte le tableau :

x 0 +∞

A −

A 0

La question suivante va nous obliger à un zèle supplémentaire. Nous observons les choses
suivantes.
– La fonction A est continue sur l’intervalle fermé [0, +∞[.
– Elle est dérivable sur l’intérieur ]0, +∞[ et sur ce dernier sa dérivée est manifeste-
ment strictement négative.
Nous sommes alors supposés savoir que la fonction A est strictement décroissante sur le
fermé [0, +∞[. Il advient donc en conséquence que :

∀x > 0 A(x) < A(0) = 0


120 Concours 2007 voie scientifique

Il s’ensuit immédiatement que :

∀x > 0 f  (x) < 0

Comme f  (0) = −1/2, c’est en réalité sur l’intervalle R+ tout entier que f  est strictement
négative. La fonction f y est donc effectivement strictement décroissante.
e. Soit x > 0. Nous pouvons terminalement écrire :
 1
ln(1 + x) = ln x + ln 1 +
x
et donc :
ln x 1  1
f (x) = + ln 1 +
x x x
– Les prépondérances classiques assurent sans surprise que :

ln x
−−−−→ 0
x x→+∞
et c’est déjà un bon début.
– Le terme :
1  1
ln 1 +
x x
ne présente quant à lui aucune indétermination. Il tend débonnairement vers zéro.
Il semble donc que :
f (x) −−−−→ 0
x→+∞

3.a. Ce n’est derechef qu’une affaire de théorèmes généraux et de calculs passionnants…


b. La fonction B est généreusement dérivable sur R+ et toujours passionnément :

2x2
∀x  0 B  (x) =
(1 + x)3

le détail du calcul étant, como siempre, laissé à la charge du valeureux lecteur. On brosse
alors le tableau :

x 0 +∞

B +

B 0

La fonction B est donc ouvertement positive ou nulle sur l’intervalle R∗+ et il en est de
même de f  . En résumé :
– La fonction f est deux fois dérivable sur l’intervalle R∗+ .
EmLyon première 121

– Sa dérivée seconde y est positive ou nulle.


L’on sent bien le théorème auquel nous devons faire appel mais avec une petite épine dans
le pied. Sa version ofcielle réclame — maladroitement d’ailleurs — la classe C 2 qui,
encore une fois, nous est chaleureusement et généreusement donnée. Ouf ! Cela dit on
aurait pu également s’en sortir — un peu articiellement cependant — via la croissance
de f  .
4. Il suft de demander…

Partie 2 Un développement en série

1. Soit N ∈ N et t ∈ [0, 1]. Nous avons :



N 
N
(−1)k tk = (−t)k
k=0 k=0

d’où la gentille apparition de la somme de termes consécutifs d’une suite géométrique de


raison −t. Vu la position géographique de t, cette dernière est différente de un et nous
sommes en droit d’utiliser la fameuse :
premier terme écrit − premier terme non écrit
1 − raison
Il en résulte que :

N
1 − (−t)N +1 1 (−1)N +1 tN +1
(−1)k tk = = −
1+t 1+t 1+t
k=0

la dernière égalité se passant de tout commentaire. Il ne reste alors qu’à expédier le terme
situé tout à droite dans ses pénates à gauche.
2. Soit à nouveau N ∈ N et x ∈ [0, 1]. Les trois fonctions :

1 
N
(−1)N +1 tN +1
t −→ ; t −→ (−1)k tk ; t −→
1+t 1+t
k=0

parce qu’elles y sont manifestement continues, sont intégrables sur le segment [0, x] et
l’on a sans ambages :
+ + x
N +
x
dt x
(−1)N +1 tN +1
= (−1)k tk dt + dt
0 1+t 0 0 1+t
k=0
122 Concours 2007 voie scientifique

La formule d’intégration d’Isaac Barrow est à l’ordre du jour pour les deux premières
intégrales, quant à la troisième il semble qu’elle s’appelle JN (x). Voici donc que :
$ %x / 0x

N
tk+1
ln |1 + t| = (−1)k + JN (x)
0 k+1
k=0 0

puisque — c’est la moindre des choses — pour chaque k ∈ [[0, N ]], l’entier k + 1 n’est
pas nul. La n de l’argumentation s’appuie sur les faits suivants :
– Le réel 1 + x est positif et de fait dispensé de valeur absolue.
– Si l’on en croit le théorème du policier municipal, il apparaîtrait que ln 1 = 0.
– Pour chaque k ∈ [[0, N ]] l’entier k + 1 est strictement(*) positif de sorte que :

0k+1 = 0

L’affaire semble dénitivement dans le sac.


3. Annonçons à nouveau N ∈ N et x ∈ [0, 1]. Nous signalons que :
+ +
x N +1
t   x N +1
t
JN (x) = (−1)N +1 dt et donc JN (x) = dt
0 1+t 0 1+t

vu que l’intégrale que nous avons sous les yeux est — bornes dans le sens croissant et
intérieur positif — positive ou nulle. D’autre part, il semble difcilement contestable que :

tN +1
∀t ∈ [0, x]  tN +1
1+t
De là à en déduire que : + +
x N +1 x
t
dt  tN +1 dt
0 1+t 0

il n’y a qu’un petit pas qui se franchit sur-le-champ continûment et avec bon sens. La n
s’effectue sans surprise. Comme supra il s’avère Cavalierement(**) que :
+ x $ N +2 %x
t xN +2
tN +1 dt = =
0 N +2 0 N +2

la raison essentielle étant, encore une fois, la stricte positivité de N + 2. Nous pouvons
passer à la suite.
4. Soit x ∈ [0, 1] et n ∈ N∗ . La somme partielle d’ordre n de notre série — as usual notée
Sn — n’est autre que :


n
(−1)k−1 xk 
n−1
(−1)k xk+1
Sn = =
k k+1
k=1 k=0

(*) Il faut toujours se méer comme de la peste des sournois 00 qui peuvent venir polluer certains calculs !
(**) Ces intégrales, très en vogue à la n du Moyen-Age, s’appellent intégrales de Bonaventura Cavalieri.
EmLyon première 123

la dernière égalité reposant sur le changement d’indice k := k + 1. La question 2 arrive


à point nommé puisqu’elle révèle déjà que :

Sn = ln(1 + x) − Jn−1 (x)

La question précédente signale quant à elle que :

  n+1
Jn−1 (x)  x 
1
n+1 n+1

la dernière inégalité procédant de l’excellente position géographique du réel x. Il s’ensuit


by squeeze que :
Jn−1 (x) −−−−→ 0
n→+∞

et dans la foulée :
Sn −−−−→ ln(1 + x)
n→+∞

Nous pouvons cette fois changer de partie.

Partie 3 Égalité d’une intégrale et d’une somme de série

1. Soit N ∈ N et x ∈ [0, 1]. Les questions 2 et 3 de la partie 2 indiquent que :


 

 N
(−1)k xk+1  N +2
 ln(1 + x) −  x
 k+1  N +2
k=0
 
vu que le côté gauche n’est autre que JN (x). Il est alors urgent de planier :
– Si 0 < x  1, la division par le strictement positif x conduit tranquillement à :
  
 N
(−1)k xk  N +1
 f (x) −  x
 k+1  N +2
k=0

ce qui n’est pas pour nous déplaire.


– En revanche, lorsque x = 0, nous avons un certain nombre de choses à faire valoir :
– Primo, vu la dénition de f , l’on a f (0) = 1.
– Deuzio, il semble que :


N
(−1)k 0k
=1
k+1
k=0

vu que 00 = 1 et 0k = 0 pour k > 0. C’est d’ailleurs un bel exemple de 00 qui passe !


– Tertio, because of N + 1 > 0, il est également dit que :

0N +1
=0
N +2
124 Concours 2007 voie scientifique

L’inégalité demandée devient alors triviale dans ce cas.


2. La série proposée est mentalement absolument convergente puisque la série de Riemann
de paramètre deux… Cela dit, l’inégalité de la question précédente se laisse docilement
— et continûment ! cf. 1.1 — intégrer sur le segment [0, 1] ce qui, vu le sens des bornes,
amène dans un premier temps à :
+   +
1  
N
(−1)k xk  1
xN +1 1
f (x) − dx  dx =
 k+1  N +2 (N + 2)2
0 k=0 0

l’égalité de droite procédant d’un évident — et déjà fait — petit calcul d”intégrale de
Bonaventura Cavalieri.
L’idéale place des bornes et la continuité ambiante déjà évoquée permettent d’aller
triangulairement et transitivement plus loin, à savoir :
+ 
 1 
N
(−1)k xk  1
 f (x) − dx 
 k+1 (N + 2)2
0 k=0

Un brin de linéarité plus loin et quelques cavalières intégrales et nous voici devant :
+ 
 1 
N
(−1)k  1
 f (x)dx − 
 (k + 1)2  (N + 2)2
0 k=0

Le changement d’indice k := k − 1 fait magiquement apparaître la somme partielle


d’ordre N + 1 de notre série et l’on a nalement :
+  +1 
 1 N
(−1)k−1  1
 f (x)dx −  (1)
 k 2  (N + 2)2
0 k=1

La série en question converge depuis le début de la question. Le passage à la limite dans


(1) lorsque N tend vers plus l’inni est tout à fait légal — ainsi que fortement indiqué !
Il livre : + 1 
+∞

 (−1)k−1 
 f (x)dx − 0
 k2 
0 k=1

Autant dire que :


+ 1 +∞
 (−1)k−1
f (x)dx =
0 k2
k=1

et tout le monde est content.


 Il eut été possible d’utiliser (1) non pas via un passage à la limite mais via un squeeze.
Cela aurait permis de faire d’une pierre deux coups :
– La convergence de la série. On économisait le début de la question.
– La valeur de la somme. 3. Nous rappelons la fondamentale formule suivante :
La formule de séparation « pair impair » :
EmLyon première 125

Soit (an )n∈N∗ une suite réelle quelconque. Soit m ∈ N∗ . On a l’égalité :

m/2 (m−1)/2

m  
an = a2p + a2p+1
n=1 p=1 p=0

où, la notation est internationale,   désigne la partie entière.


La preuve :
Elle repose uniquement sur les quatre choses suivantes :
– Un entier est soit pair, soit impair.
– Les entiers pairs situés entre 1 et m sont exactement les 2p où p est un entier
vériant :
1  p  m/2

– Les entiers impairs situés entre 1 et m sont exactement les 2p + 1 où p est un entier
vériant :
0  p  (m − 1)/2

– L’addition est commutative.


Soit alors N ∈ N∗ . Il suft alors d’appliquer cette super formule aux deux situations
suivantes :
i. La suite (an )n∈N∗ est dénie par :

1
∀n ∈ N∗ an = et m = 2N + 1
n2

ii. La suite (an )n∈N∗ est dénie par :

(−1)n−1
∀n ∈ N∗ an = et m = 2N + 1
n2

en ayant, pour les deux cas, quasi mentalement observé que :

m/2 = N + (1/2) = N et (m − 1)/2 = N  = N

4. Soit à nouveau N ∈ N∗ . La première formule du 3 assure que :

 2N
 +1
1 1
N N
1 1
= −
p=0
(2p + 1)2 n=1
n2 4 p=1 p2

Vu ce que le texte nous demande d’admettre — une des plus célèbres formules de Leonhard
Euler — il s’avère que :


N
1 π2 1 π2 π2
2
−−−−→ − · =
p=0
(2p + 1) N →+∞ 6 4 6 8
126 Concours 2007 voie scientifique

La seconde relation du 3, en l’occurrence :

2N
 +1  1 1
N N
(−1)n−1 1
= −
n=1
n2 p=0
(2p + 1)2 4 p=1 p2

Vu tout ce que nous avons appris, le passage à la limite lorsque N tend vers plus l’inni
est désormais possible and it yields :

+∞
 (−1)n−1 π2 1 π2 π2
= − · =
n=1
n2 8 4 6 12

À la lecture des conclusions de la question 2 nous pouvons changer de partie.

Partie 4 Recherche d’extremum pour une fonction de deux variables réelles

1. Remarquons avant de commencer que ]0, +∞[2 est un ouvert de R2 ce qui, vu les
questions qui suivent, est la moindre des choses. Pour ceux — ou celles — qui en
douteraient nous en donnerons la preuve à la n de la partie 4.
Cela dit, comme f est continue sur R+ , la copine F est — Gaston Darboux dixit — une
primitive de f . Comme cette dernière est de classe C 1 sur R∗+ , la fonction F y hérite de
la classe C 2 et c’est un bon début. Les trois fonctions :

(x, y) −→ xy ; (x, y) −→ x ; (x, y) −→ y

visiblement polynomiales à deux variables sont, quant à elles, de classe C 2 sur l’ouvert
]0, +∞[2 et elles y sont à valeurs strictement positives. Les théorèmes généraux attribuent
alors la classe C 2 aux composées à gauche :

(x, y) −→ F (xy) ; (x, y) −→ F (x) ; (x, y) −→ F (y)

puis carrément à la fonction G. De plus et sans autre explication, pour chaque (x, y)
appartenant à ]0, +∞[2 l’on a :

∂G ∂G
(x, y) = yf (xy) − f (x) ; (x, y) = xf (xy) − f (y)
∂x ∂y

puis :

∂2G ∂2G
(x, y) = y 2 f  (xy) − f  (x) ; (x, y) = x2 f  (xy) − f  (y)
∂x2 ∂y 2

et enn :
∂2G
(x, y) = xyf  (xy)
∂x∂y

2. Nous allons nous y prendre en deux temps.


EmLyon première 127

– C’est tout d’abord mentalement que l’on observe que (1, 1) appartient bien à
l’ouvert ambiant et que :
∂G ∂G
(1, 1) = (1, 1) = 0
∂x ∂y
C’est déjà un bon début.
– Supposons, réciproquement que (x, y) soit critique pour G. Les deux réels x et y
sont alors strictement positifs et :

yf (xy) = f (x) ; xf (xy) = f (y)

Facettes de f obligent, la première égalité se décline en :

ln(1 + xy) ln(1 + x)


= i.e. ln(1 + xy) = ln(1 + x)
x x
La fonction ln étant injective il s’ensuit :

1 + xy = 1 + x i.e. xy = x

Comme x n’est pas nul il en résulte déjà que :

y=1

Maintenant, grâce à la seconde égalité, en l’occurrence xf (xy) = f (y), on démontre


mutatis mutandis que :
x=1
et le tour est joué.
3. Nous allons bien sûr utiliser les notations de Gaspard Monge. On observe qu’au point
(1, 1) l’on a :
r = t = 0 et s = f  (1)
Dans ces conditions, il ne fait aucun doute que :

2
rt − s2 = − f  (1) < 0

la stricte négativité résultant de ce que — cf. la question 2.d de la partie 1 — le réel


f  (1) n’est pas nul. Il faut alors clamer qu’il n’y a pas d’extremum local en (1, 1) mais
plutôt un point selle. En outre, si l’on en croit l’incontournable condition nécessaire du
premier ordre sur un ouvert, la fonction G ne pouvait espérer un extremum local qu’au
point critique (1, 1). En bref, la fonction G ne possède aucun extremum local.
Voici maintenant, comme promis, la preuve de l’ouverture de ]0, +∞[2 . Considérons à
cet effet les deux ensembles :
& ' & '
U1 = (x, y) ∈ R2 | x > 0 et U2 = (x, y) ∈ R2 | y > 0

– Le premier est l’image réciproque de l’intervalle ouvert R∗+ par l’application :

(x, y) −→ x
128 Concours 2007 voie scientifique

dont la continuité sur R2 ne peut échapper qu’à ceux — ou celles ! — qui n’ont jamais
aperçu un polynôme à deux variables. Le théorème de l’image réciproque de Felix
Hausdorff assure qu’il s’agit d’un genuine ouvert de R2 .
– On démontre mutatis mutandis que le second est également un ouvert de R2 .

Comme à l’évidence :

]0, +∞[2 = U1 ∩ U2

la conclusion passe, cette fois, par le théorème des intersections nies du même Felix.

Deuxième problème

Partie 1 Étude d’un endomorphisme de E

1. Soit P ∈ E. Il s’avère que :

(X 2 − 1)P ∈ Rn+2 [ X ]

puisqu’à n’en pas douter, E n’est autre que le fameux Rn [ X ]. La dérivation seconde
ramène alors tout cela tranquillement dans E.

2. Notons que, n étant supérieur ou égal à deux, les deux polynômes 1 et X appartiennent
bien à E. Le reste ne mérite que no comment.

3. Hay que planicar un poquit´n.


– La première question montre déjà que φ applique bien E dans lui-même.
– La linéarité de φ découle immédiatement de celle de la dérivation seconde.

4. Soit k ∈ [[0, n]]. Vu que nous avons déjà calculé φ(1) et φ(X), nous pouvons gentiment
supposer k  2 et il apparaît bien vite que :

φ(X k ) = (k + 2)(k + 1)X k − k(k − 1)X k−2

la présence de X k−2 n’étant pas contraire à la polynomiale attitude puisque k − 2  0.


En résumé :


⎪ 1 si k=0



∀k ∈ [[0, n]] φ(X k ) = 6X si k=1




(k + 2)(k + 1)X k − k(k − 1)X k−2 si k2
EmLyon première 129

La matrice A ne demande plus qu’à éclore. Here you are !


⎡ ⎤
2 0 −2
⎢ .. ⎥
⎢ 6 0 . ⎥
⎢ .. .. ⎥
⎢ . . ⎥
⎢ 12 ⎥
⎢ .. .. ⎥
⎢ . . k(k−1) ⎥
⎢ ⎥
⎢ .. .. ⎥
A=⎢ . 0 . ⎥
⎢ ⎥
⎢ .. ⎥
⎢ (k+2)(k+1) . ⎥
⎢ ⎥
⎢ .. .. ⎥
⎢ . . −n(n−1) ⎥
⎢ .. ⎥
⎣ . 0

(n+2)(n+1)

5.a. La matrice A étant trigonale supérieure, c’est avec les mirettes que l’on découvre son
spectre qui est d’ailleurs le même que celui de φ. Ainsi :
& '
Spec φ = (k + 2)(k + 1) | k ∈ [[0, n]]

Nous serons donc en conformité avec le texte si, pour chaque k ∈ [[0, n]], nous proposons :

λk = (k + 2)(k + 1)

Assurons-nous que ces réels sont bien deux à deux différents. Soit donc k et h deux
éléments différents de [[0, n]]. Nous faisons valoir que :
– si k < h, à l’évidence (k + 1)(k + 2) < (h + 1)(h + 2) ;
– si k > h, sans l’ombre d’un doute (k + 1)(k + 2) > (h + 1)(h + 2).
La liste (λ0 , . . . , λn ) est donc bien formée de n + 1 nombres deux à deux distincts rangés
dans l’ordre croissant.
b. L’endomorphisme φ est bijectif pour la simple et bonne raison que 0 ne fait visiblement
pas partie de son spectre.
c. Il vient d’être dit que φ possède n + 1 valeurs propres deux à deux différentes et il
se trouve que justement :
n + 1 = dim E
Les initiés auront donc reconnu une authentique star. La très importante condition
sufsante de diagonalisation stipule alors deux choses :
– L’endomorphisme φ est diagonalisable.
– Les espaces propres de φ sont des droites vectorielles.
Autant dire que :
∀k ∈ [[0, n]] dim Eλk (φ) = 1

6.a. Le polynôme P , puisqu’il est vecteur propre, n’est assurément pas le polynôme nul.
Nous pouvons alors noter d son degré — qui appartient à [[0, n]] —, ad son coefcient
130 Concours 2007 voie scientifique

dominant, de sorte que le terme dominant de P est exactement ad X d . Dans ces conditions,
celui de :
(X 2 − 1)P
est ouvertement ad X d+2 . Celui de :


(X 2 − 1)P = φ(P )

est donc à l’évidence (d + 2)(d + 1)ad X d . Oui mais voilà, vu que P est vecteur propre de
φ attaché à la valeur propre λk = (k + 2)(k + 1), nous disposons également de l’égalité :

φ(P ) = (k + 2)(k + 1)P

Nous venons à l’instant de dire que le coefcient de X d du côté gauche valait :

(d + 2)(d + 1)ad

alors que celui de X d du côté droit vaut visuellement :

(k + 2)(k + 1)ad

L’identication polynomiale est alors formelle. L’on se doit d’avoir :

(d + 2)(d + 1)ad = (k + 2)(k + 1)ad

De plus, le réel ad coefcient dominant d’un polynôme non nul est lui-même non nul à
telle enseigne que :
(d + 2)(d + 1) = (k + 2)(k + 1)
Nous avons déjà eu l’occasion de signaler que cela impose :

d=k

d’où notre entière satisfaction.


b. Soit S un polynôme quelconque de E. Un rapide calcul de dérivée seconde montre
que :

φ(S) = (X 2 − 1)S = (X 2 − 1)S  + 4XS  + 2S (1)
Dans ces conditions, l’on a déjà :

φ(Q) = (X 2 − 1)Q + 4XQ + 2Q

Mais, si l’on en croit la formule de dérivation d’une composée, l’on a :

Q = −P  (−X) et Q = P  (−X)

de sorte que nalement :

φ(Q) = (X 2 − 1)P  (−X) − 4XP  (−X) + 2P (−X)


EmLyon première 131

À la lumière de l’égalité (1) et avec un peu de physionomie il devrait normalement


apparaître que :
φ(Q) = φ(P )(−X)
Comme φ(P ) = λk P depuis belle lurette, l’on en déduit que :

φ(Q) = λk P (−X) = λk Q

ce qui est déjà réjouissant. De plus, P n’étant pas le polynôme nul, Q ne l’est pas plus et
nous pouvons envisager la suite.
7. Il est question d’existence et d’unicité, nous planions.
Existence :
Nous avons déjà constaté que les espaces propres de φ étaient des droites vectorielles.
Pour chaque k ∈ [[0, n]], il existe donc un polynôme Sk = 0 tel que :

Eλk (φ) = Vect(Sk )

ce qui nous amène à proposer :

S0 S1 Sn
P0 = ; P1 = ; ··· ; Pn =
dom(S0 ) dom(S1 ) dom(Sn )

c’est-à-dire les Sk divisés par leurs coefcients dominants. Il nous reste à vérier que la
proposition (P0 , P1 , . . . , Pn ) est convenable.
Soit d’abord k ∈ [[0, n]].
– Division par le dominant oblige, Pk est un polynôme unitaire, c’est-à-dire de
coefcient dominant un. C’est un excellent début.
– Comme Pk est non nul et colinéaire à Sk , il est, comme ce dernier, vecteur propre
de φ attaché à λk de sorte que l’on également :

Eλk (φ) = Vect(Pk )

et si l’on en croit le récent 6.a l’on se doit d’avoir :

deg Pk = k

Nous continuons en fanfare.


– C’est au tour du 6.b de pointer son nez. Il assure, ni plus ni moins, que Pk (−X)
appartient lui-aussi à la droite vectorielle

Eλk (φ) = Vect(Pk )

Autant dire qu’il existe un réel a tel que :

Pk (−X) = aPk
132 Concours 2007 voie scientifique

Comme Pk est unitaire de degré k le terme dominant du côté gauche est (−1)k X k alors
que le même, côté droit, est assurément aX k . L’identication se fait mentalement et, à
notre plus grand plaisir, elle livre :

a = (−1)k

Cette propriété fait que :


– Lorsque k est pair, l’on a :

∀x ∈ R Pk (−x) = Pk (x)

ce qui signie que la fonction polynomiale Pk est paire.


– Lorsque k est impair, l’on a :

∀x ∈ R Pk (−x) = −Pk (x)

et la fonction Pk est cette fois impaire. On résume cela en disant que la fonction Pk a la
même parité que l’entier k.
Enn, vu que :

Eλ0 (φ) = Vect(P0 ) ; Eλ1 (φ) = Vect(P1 ) ; ··· ; Eλn (φ) = Vect(Pn )

et que φ est diagonalisable, il est de bon ton de ne pas ignorer que :

(P0 , P1 , . . . , Pn )

est une base de E formée de vecteurs propres de φ. Nous pouvons alors passer à l’unicité.
Unicité :
Supposons que (H0 , H1 , . . . , Hn ) soit une autre base convenable et soit k ∈ [[0, n]]. Le
polynôme Hk est alors vecteur propre de φ de degré k ce qui, à la parfaite lecture de la
question 6.a le condamne à appartenir à la droite vectorielle :

Eλk (φ) = Vect(Pk )

Il existe donc un réel b tel que :


Hk = bPk
et comme Hk , Pk sont tous deux unitaires b est fatalement égal à un. En bref :

Hk = Pk

et le tour est joué.


8. Le polynôme P0 , comme il est unitaire de degré 0, n’est autre que le polynôme 1. Le
polynôme P1 est quant à lui unitaire impair de degré 1. Nul doute alors que :

P1 = X
EmLyon première 133

Passons à P2 . Il est déjà unitaire pair de degré deux et par conséquent de la forme :

P2 = X 2 + c où c∈R

Il est en outre vecteur propre de φ attaché à la valeur propre λ2 = 12. On trouve


rapidement :
φ(X 2 + c) = 12X 2 + 2c − 2
L’équation :
φ(P2 ) = 12P2
se traduit donc par :
12X 2 + 2c − 2 = 12X 2 + 12c
ce qui donne mentalement c = −1/5. Du coup :

1
P2 = X 2 −
5
Reste à déterminer P3 . Il est unitaire impair de degré trois et donc de look :

P3 = X 3 + dX où d∈R

Il est également vecteur propre de φ attaché à la valeur propre λ3 = 20. Grâce au même
type de raisonnement que pour P2 on parvient à d = −3/7 et par conséquent :

3
P3 = X 3 − X
7
En résumé :

n 0 1 2 3

1 3
Pn 1 X X2 − X3 − X
5 7

 Le texte suppose depuis le début que l’entier n est supérieur ou égal à deux. Pour pouvoir
causer de P3 il eut été raisonnable de le supposer supérieur à trois…

Partie 2 Un produit scalaire sur E

1. Nous planions classiquement en cinq points.


– Soit P, Q appartenant à E. L’éternelle continuité des fonctions polynomiales fait
que la fonction :
x −→ (1 − x2 )P (x)Q(x)
est ouvertement continue sur le segment [−1, 1]. Son intégrale existe donc depuis la classe
de terminale. Ainsi, ( . | . ) applique bien E × E dans R.
– Pour la symétrie, nous ne dirons que no comment.
134 Concours 2007 voie scientifique

– Soit Q ∈ E. La linéarité de :
+ 1
P −→ (1 − x2 )P (x)Q(x)dx
−1

découle mentalement de celle de l’intégration.


– Soit P ∈ E. Nous avons :
+ 1
(P | P ) = (1 − x2 )P 2 (x)dx  0
−1

puisque la fonction intérieure — l’intégrande pour les initiés — est visiblement positive
ou nulle sur [−1, 1] et les bornes sont dans le sens croissant.
– Soit enn P ∈ E vériant :

(P | P ) = 0

ce qui se traduit par :


+ 1
(1 − x2 )P 2 (x)dx = 0
−1

C’est là que nous faisons valoir que :


– Les bornes d’intégrations sont différentes.
– L’intégrande est visuellement continue et de signe constant sur [−1, 1].
La contraposition du théorème du signe strict d’une intégrale oblige implacablement que :

∀x ∈ [−1, 1] (1 − x2 )P 2 (x) = 0

d’où il résulte immédiatement que :

∀x ∈ ] − 1, 1[ P (x) = 0

L’ouvert ] − 1, 1[ étant un ensemble inni, le polynôme P possède une innité de racines,


ce qui le condamne à une grosse nullité.
 Ce produit scalaire est un cas particulier de produit scalaire de Gustav Jacobi.
2.a. Soit P, Q deux éléments de E. Nous avons :
+ 1
( φ(P ) | Q ) = (1 − x2 )φ(P )(x)Q(x)dx
−1

Considérons alors les deux fonctions :




u = (1 − X 2 )Q et v = (X 2 − 1)P

Nous les avons choisies parce qu’elles réalisent l’égalité :


+ 1
( φ(P ) | Q ) = uv 
−1
EmLyon première 135

Comme elles sont polynomiales elles sont assurément de classe C 1 sur le segment [−1, 1]
et la formule d’intégration par parties révèle alors que :
+ 1
 1
( φ(P ) | Q ) = uv −1
− u v
−1

 1
La présence du facteur 1 − X 2 dans u ne laisse pas beaucoup d’avenir au crochet uv −1
et au prix d’un bénin changement de signe il semble se dessiner que :
+ 1


( φ(P ) | Q ) = (X 2 − 1)Q (X 2 − 1)P
−1

De la même façon — mutatis mutandis pour les latinistes — on démontre que :


+ 1


( P | φ(Q) ) = (X 2 − 1)P (X 2 − 1)Q
−1

La conclusion est donc désormais commutativement claire. Nous avons effectivement :

( φ(P ) | Q ) = ( P | φ(Q) )

b. On rappelle que les espaces propres d’un endomorphisme symétrique sont deux à
deux orthogonaux. Comme il s’agit ici des Vect(Pk ) nous pouvons passer à la suite.
3.a. Nous commençons par établir un certain nombre de choses concernant la famille :

(P0 , . . . , Pj−1 )

– Vu que pour chaque k ∈ [[0, j − 1]] le degré de Pk vaut k elle est formée de
polynômes de Rj−1 [ X ]. Elle est donc intérieure à l’espace Rj−1 [ X ].
– Sous-famille d’une famille libre elle jouit d’une authentique liberté.
– Enn, et si l’on sait correctement compter, sa longueur est j, entier qui n’est autre
que la dimension de Rj−1 [ X ].
Le théorème de caractérisation des bases en dimension nie révèle alors qu’il s’agit
d’une base de Rj−1 [ X ]. Soit alors S ∈ Rj−1 [ X ]. Base oblige, il existe des scalaires
a0 , . . . , aj−1 tels que :

j−1
S= ai Pi
i=0

La bilinéarité de notre produit scalaire amène maintenant à l’égalité :


j−1
( S | Pj ) = ai ( Pi | Pj )
i=0

Oui mais voilà, l’orthogonalité signalée au récent 2.b fait que pour chaque i ∈ [[0, j − 1]]
l’on a :
( Pi | Pj ) = 0
136 Concours 2007 voie scientifique

chronique d’une annulation annoncée.


b. Comme le polynôme 1 appartient manifestement à Rj−1 [ X ], la question précédente
stipule déjà que :
+ 1
(1 − x2 )Pj (x)dx = 0
−1

Supposons alors par l’absurde que Pj garde un signe constant sur l’ouvert ] − 1, 1[. La
fonction :
x −→ (1 − x2 )Pj (x)
puisqu’elle s’annule en −1 et en 1, garde, quant à elle, un signe constant sur le segment
[−1, 1], zone sur laquelle elle est en outre continue. Comme les bornes de l’intégrale ont
la bonne idée d’être différentes, un important théorème déjà cité supra, oblige :

∀x ∈ [−1, 1] (1 − x2 )Pj (x) = 0

d’où il résulte que :


∀x ∈ ] − 1, 1[ Pj (x) = 0
Le pauvre polynôme Pj , désormais inniment enraciné, se doit d’être le polynôme nul ce
qui, pour un vecteur propre, est plutôt déplacé. La contradiction est arrivée !
c. Nous venons de montrer que le polynôme Pj ne garde pas un signe constant sur
l’ouvert ] − 1, 1[. Cela signie qu’il existe deux réels différents a, b de ] − 1, 1[ tels que :

Pj (a) > 0 et Pj (b) < 0

La fonction Pj puisqu’elle est continue sur le segment [a, b] se doit d’obéir au théorème
des valeurs intermédiares de Bernhard Bolzano. Autant dire que Pj possède au moins une
racine dans ] − 1, 1[. Supposons par l’absurde que les racines de Pj dans ] − 1, 1[ soient
toutes de multiplicités paires. Nommons-les r1 , . . . , rs et leurs multiplicités respectives
2n1 , . . . , 2ns . Le polynôme Pj devrait alors avoir une factorisation de type :

Pj = (X − r1 )2n1 · · · (X − rs )2ns Q

où, absence de racines dans ] − 1, 1[ oblige, le polynôme Q resterait tranquillement de


signe constant sur ] − 1, 1[. Le polynôme Pj aurait alors visuellement un signe constant
sur ] − 1, 1[ ce qui contredit la précédente question.
4.a. Qui peut ignorer que le nombre de racines d’un polynôme non nul ne peut jamais
dépasser son degré… ?
b. Continuons à noter r1 , . . . , rs les éventuelles racines d’ordre pair de Pj dans ] − 1, 1[
et 2n1 , . . . , 2ns leurs multiplicités respectives. Notons également 2p1 + 1, . . . , 2pm + 1
les multiplicités impaires respectives des racines x1 , . . . , xm . La factorisation de Pj a
cette fois le look :

Pj = (X − x1 )2p1 +1 · · · (X − xm )2pm +1 (X − r1 )2n1 · · · (X − rs )2ns Q1

où Q1 , complètement déraciné sur ] − 1, 1[, y garde paisiblement un signe constant. Dans


ces conditions :

Sm Pj = (X − x1 )2p1 +2 · · · (X − xm )2pm +2 (X − r1 )2n1 · · · (X − rs )2ns Q1


EmLyon première 137

et la conclusion devient carrément lumineuse.


c. Supposons par l’absurde que m soit différent de j. À la lecture du récent a l’on doit
avoir m < j, c’est-à-dire :
mj−1
puisqu’il s’agit d’entiers. Le 3.a situé un peu plus haut assène alors avec force l’égalité :
+ 1
( Sm | Pj ) = 0 i.e. (1 − x2 )Sm (x)Pj (x)dx = 0
−1

L’argumentation est alors la même que celle développée au dernier 3.b.


– D’après la question précédente, la fonction :

x −→ (1 − x2 )Sm (x)Pj (x)

est continue et de signe constant sur le segment [−1, 1].


– Les bornes d’intégration sont différentes.
Notre vaillant théorème assure alors encore une fois que :

∀x ∈ [−1, 1] (1 − x2 )Sm (x)Pj (x) = 0

d’où il ressort derechef :

∀x ∈ ] − 1, 1[ Sm (x)Pj (x) = 0

Le polynôme Sm Pj , héritant ainsi d’une innité de racines, serait le polynôme nul alors
que son degré est le gentil entier j + m. So…
d. Nous venons de trouver j racines distinctes de Pj dans l’intervalle ouvert ] − 1, 1[.
Comme deg Pj = j, nous avons largement fait le plein ! En outre ces racines différentes
sont fatalement et arithmétiquement de multiplicité 1 puisque dans le cas contraire,
le nombre de racines de Pj , comptées avec multiplicité, dépasserait allègrement et
scandaleusement j.
Edhec première 139

Edhec première

Équivalent d'intégrale
Les quaternions d'Hamilton
Limite centrée et équivalence
Tirages ésotériques

Exercice 1

Année Difficulté
2 ¶

Pour tout n ∈ N∗ , on pose :


+ +∞
e−x
un = dx
0 1
x+
n
1. Montrer que la suite (un )n∈N∗ est bien dénie.
2. Pour tout n ∈ N∗ , on pose alors :
+ 1 −x + +∞
e e−x
vn = dx et wn = dx
0 1 1 1
x+ x+
n n

a. Montrer que :
1
∀n ∈ N∗ 0  wn 
e
b. Montrer que :
1
∀n ∈ N∗ vn  ln(n + 1)
e
140 Concours 2007 voie scientifique

c. Donner la limite de la suite (un ).


3. On se propose de déterminer un équivalent de un lorsque n est au voisinage de +∞.
a. Montrer que l’intégrale
+ 1
1 − e−x
I= dx
0 x
est une intégrale convergente.
b. Établir que :
+ 1
1 − e−x
∀n ∈ N∗ 0 dx  I
0 1
x+
n

c. En déduire un encadrement de vn valable pour tout n ∈ N∗ .


d. Donner enn, en utilisant cet encadrement, un équivalent simple de un .

Exercice 2

Année Difficulté
2 ¶

On considère les matrices de M4 (R) :

⎡ ⎤ ⎡ ⎤ ⎡ ⎤
0 −1 0 0 0 0 −1 0 0 0 0 1
⎢1 0 0 0⎥ ⎢0 0 0 −1 ⎥ ⎢ 0 0 −1 0 ⎥
J =⎣ ⎦ ; K=⎣ ⎦ ; L=⎣ ⎦
0 0 0 1 1 0 0 0 0 1 0 0
0 0 −1 0 0 1 0 0 −1 0 0 0

On note I la matrice unité d’ordre 4, E le R-espace vectoriel engendré par (I, J, K, L)


et Id l’endomorphisme identité de E. On pose :

A=J +K

1. Montrer que (I, J, K, L) est une base de E et donner la dimension de E.


2.a. Exprimer JK, KL et LJ en fonction respectivement de L, J et K.
b. Calculer J 2 , K 2 et L2 puis en déduire que :

KJ = −L ; LK = −J ; JL = −K

c. En déduire que E est stable pour le produit matriciel.


3. Calculer A2 . En déduire que A est inversible et exprimer A−1 en fonction de A.
Edhec première 141

4. On considère maintenant l’application ϕA qui à toute matrice M de E associe :

ϕA (M ) = AM A−1

a. Montrer que ϕA est un endomorphisme de E.


b. Déterminer Ker ϕA puis montrer que ϕA est un automorphisme de E.
5.a. Écrire la matrice ΦA de ϕA dans la base (I, J, K, L), puis justier que ϕA est
diagonalisable.
b. Donner les valeurs propres de ϕA ainsi que les sous-espaces propres associés.
On rappelle que l’application, notée tr, qui à toute matrice de M4 (R) associe sa trace,
(c’est-à-dire la somme de ses éléments diagonaux) est une application linéaire de M4 (R)
dans R. On rappelle également que l’application qui à tout couple (M, N ) de E × E
associe le réel noté ( M | N ) déni par :

( M | N ) = tr(M T · N )

est un produit scalaire sur E. On munit désormais E de ce produit scalaire.


6.a. Montrer que, pour tout couple (P, Q) de E × E :

tr(P Q) = tr(QP )

b. Établir alors que ϕA est un endomorphisme symétrique de E.


c. En déduire que Ker(ϕA − Id) et Ker(ϕA + Id) sont supplémentaires orthogonaux
dans E.

Exercice 3

Année Difficulté
2 ¶¶

On considère une suite (Xn )n1 de variables aléatoires dénies sur un même espace
proba-
bilisé (Ω, A, p), mutuellement indépendantes, et qui suivent toutes la loi exponentielle de
paramètre 1. On pose :
 n
Sn = Xk
k=1

1. Rappeler quelle est la loi suivie par Sn . Donner l’espérance et la variance de Sn .


2. À l’aide du théorème de la limite centrée, établir que :

1
lim p( Sn  n ) =
n→+∞ 2
142 Concours 2007 voie scientifique

3. En déduire la valeur de : + n
tn−1 e−t
lim dt
n→+∞ 0 (n − 1)!

4.a. Utiliser le résultat précédent pour montrer que :


+ 1
n!
z n−1 e−nz dz ∼
0 n→+∞ 2nn+1

b. On admet que :  n n √
n! ∼ 2πn
n→+∞ e
En déduire un nouvel équivalent de :
+ 1
z n−1 e−nz dz
0

Problème

Année Difficulté
1 ¶¶

On désigne par n un entier naturel supérieur ou égal à 2.


On dispose de deux urnes U et V , l’urne U contenant une boule blanche et (n − 1) boules
noires et l’urne V contenant une boule noire et (n − 1) boules blanches.
Un joueur choisit une urne au hasard pour le premier tirage puis il effectue des tirages
d’une boule avec remise de cette boule dans l’urne dont elle provient, selon trois protocoles
étudiés dans les trois parties de ce problème.
Pour tout i de N∗ , on note Bi l’événement « on obtient une boule blanche au ième tirage ».
On note X le numéro du tirage où l’on obtient, pour la première fois, une boule noire
et Y le numéro du tirage où l’on obtient, pour la première fois, une boule blanche. On
admet que X et Y sont deux variables aléatoires dénies sur le même espace probabilisé
(Ω, A, p).
Pour nir, on note U l’événement « le premier tirage a lieu dans l’urne U ».

Partie 1

Dans cette partie, les tirages qui suivent le premier tirage ont lieu dans l’urne qui a été
choisie au premier tirage.
1.a. Déterminer p( X = 1 ).
 
b. Pour tout entier k supérieur ou égal à 2, écrire l’événement X = k à l’aide de
certains des événements Bi ouB i , puis montrer que :
 k−1 
k−1
1 1 n−1 n−1 1
∀k  2 p( X = k ) = +
2 n n n n
Edhec première 143

Vérier que cette formule reste valable pour k = 1.


2. Établir que X possède une espérance et donner sa valeur.
3. Montrer que X et Y suivent la même loi.
4. On décide de coder l’événement U par 1 et l’événement U par 0. On rappelle que
la fonction random renvoie, pour un argument k de type integer (avec k  1) un entier
aléatoire compris entre 0 et k − 1 (ceci de façon équiprobable).
Compléter le programme suivant pour qu’il permette le calcul et l’afchage de la valeur
prise par la variable aléatoire X lors de l’expérience décrite dans cette partie.
program edhec 2007 ;
var x, n, tirage, hasard : integer ;
begin
randomize ; readln(n) ; hasard := random(2) ; x := 0 ;
hasard= 0 then repeat x := x + 1 ; tirage:= random(n) ; until (tirage = 0) ;
if
else repeat . . . ; tirage:= . . . ; until . . . ;
writeln(x) ;
end.

Partie 2

Dans cette partie, les tirages qui suivent le premier tirage ont lieu dans l’urne U si le tirage
précédent a donné une boule blanche et dans l’urne V sinon.
1.a. Donner p( X = 1 ).
b. En procédant comme dans la partie 1, montrer que :
k−2
1 1 n−1
∀k  2 p( X = k ) =
2 n n

2. Établir que X possède une espérance et donner sa valeur.


3. Montrer que X et Y suivent la même loi.
4. Avec les mêmes conventions et les mêmes notations que celles de la partie 1, écrire un
programme permettant le calcul et l’afchage de la valeur prise par la variable aléatoire
X lors de l’expérience décrite dans cette partie.

Partie 3

Dans cette partie, chacun des tirages suivant le premier tirage a lieu dans la même urne
que le tirage qui le précède, si ce dernier a donné une boule blanche, et dans l’autre urne
dans le cas contraire.
1.a. Donner p( X = 1 ).
b. Toujours selon la même méthode, montrer que :

(n − 1)k−1 + n − 1
∀k  2 p( X = k ) =
2nk
144 Concours 2007 voie scientifique

Vérier que la formule précédente reste valable pour k = 1.


c. Établir que X possède une espérance puis montrer que :

n2
E(X) =
2(n − 1)

2.a. En procédant comme à la question 1.b, montrer que :


i−1
∗ n−1 n2 − 2n + 2
∀i ∈ N p( Y = 2i ) =
n2 2n2

b. Montrer également que :


i
1 n−1
∀i ∈ N∗ p( Y = 2i + 1 ) =
2 n2

Vérier que cette formule reste valable pour i = 0.


c. On pose :

2n
 2m+1

∀n ∈ N∗ E2n (Y ) = kp( Y = k ) et ∀n ∈ N E2n+1 (Y ) = kp( Y = k )
k=1 k=1



Montrer que la suite E2n (Y ) n∈N∗ converge et donner sa limite.


Montrer que la suite E2n+1 (Y ) n∈N converge et a la même limite que (E2n (Y ))n∈N∗ .
En déduire que Y possède une espérance et que :

3n2
E(Y ) =
2(n2 − n + 1)

3.a. Montrer que X et Y suivent la même loi lorsque n = 2. Quelle est cette loi ?
b. Comment pouvait-on justier, sans calcul, les deux résultats ci-dessus ?
4. Montrer que E(Y )  E(X) avec égalité si, et seulement si, n = 2.
5. Écrire un programme permettant le calcul et l’afchage de la valeur prise par la variable
aléatoire X lors de l’expérience décrite dans cette partie.
Edhec première 145

Solution
Exercice 1

1. Soit n ∈ N∗ . La fonction :
e−x
x −→
1
x+
n
est ouvertement continue sur la demi-droite fermée [0, +∞[ puisque son dénominateur ne
s’y annule jamais. Son intégrale n’est donc impropre qu’une fois, en plus l’inni. Lorsque
x est plus grand que 1, il en est de même de x + (1/n) et l’on en déduit aisément que :

e−x
∀x  1 0  e−x
1
x+
n
- +∞
La référence exponentielle 0 e−x dx étant bien connue pour exister, le test de
comparaison en signe positif assure l’existence de l’intégrale un et tout le monde est
ravi.
2.a. Soit n ∈ N∗ . Nous ressortons l’encadrement utilisé à la question précédente. Les
existences d’intégrales ayant déjà été réglées, nous pouvons intégrer sur la demi-droite
[1, +∞[. La croissance de l’intégration indique alors que :
+ +∞
0  wn  e−x dx
1

puisque les bornes furent dans le sens croissant. Cela étant, il reste à observer que, selon
l’importante formule d’Isaac Barrow :
+ +∞  +∞ 1
e−x dx = −e−x =
1 1 e

et l’affaire est dans le sac.


b. Soit à nouveau n ∈ N∗ . Nous faisons valoir ici que :

1
∀x ∈ [0, 1] e−x  e−1 =
e
Il s’en déduit positivement que :

e−x 1 1
∀x ∈ [0, 1]  ·
1 e 1
x+ x+
n n
146 Concours 2007 voie scientifique

Vu que les bornes sont à nouveau bien disposées, l’ineffable croissance de l’intégration
amène cette fois à : +
1 1 dx
vn 
e 0 1
x+
n
C’est au tour de la formule d’Isaac de prendre le relais. L’agréable positivité ambiante
permet d’écrire sans autre commentaire que :
+ $  %1
1
dx 1  1 1
= ln x + = ln 1 + − ln = ln(n + 1)
0 1 n 0 n n
x+
n
la dernière égalité reposant sur les plus vieilles propriétés du logarithme.
c. Nous nous appuyons sur trois choses.
– Ce n’est, nous l’espérons, une surprise pour personne que :
1
ln(n + 1) −−−−→ +∞
e n→+∞

Emporté par l’élan de la question 2.b, il devient alors assez limpide que :

vn −−−−→ +∞
n→+∞

– La question 2.a révèle, quant à elle, que la suite (wn ) est bornée.
– D’après la relation de Chasles, nous avons :

∀n ∈ N∗ un = vn + wn

La suite (un ), somme d’une suite bornée et d’une suite tendant vers plus l’inni, se doit
de vérier :
un −−−−→ +∞
n→+∞

3.a. La fonction :
1 − e−x
x −→
x
est continue sur le semi-ouvert ]0, 1]. Son intégrale est impropre une fois en zéro. Il a été
signalé en classe de terminale que :

1 − e−x
−−x→0
−−→ 1
x x>0

Notre intégrale est donc faussement impropre ce qui lui assure un paisible existence.
b. Soit n ∈ N∗ . Il est très facile de justier l’encadrement :

1 − e−x 1 − e−x
∀x ∈ ]0, 1] 0  (∗)
1 x
x+
n
Edhec première 147

ainsi que l’existence de l’intégrale :


+ 1
1 − e−x
dx
0 1
x+
n
qui n’est jamais qu’une bonne vieille intégrale propre. On peut alors allègrement intégrer
l’encadrement (∗) sur le semi-ouvert ]0, 1] ce qui donne exactement :
+ 1
1 − e−x
0 dx  I
0 1
x+
n
vu que l’intégration est croissante lorsque les bornes sont bien disposées.
c. Soit à nouveau n ∈ N∗ . L’intégrale :
+ 1
1
dx
0 1
x+
n

a déjà été rencontrée et calculée plus haut. Elle vaut ln(n+1). On peut donc tranquillement
linéariser l’intégrale de l’encadrement précédent ce qui donne sans plus attendre :
+ 1 + 1 + 1
1 − e−x 1 e−x
dx = dx − dx = ln(n + 1) − vn
0 1 0 1 0 1
x+ x+ x+
n n n

Du coup, le récent b devient :

0  ln(n + 1) − vn  I

et il revient au même d’écrire :

ln(n + 1) − I  vn  ln(n + 1)

d. À la vue de cet encadrement, tout esprit normalement constitué devrait, dans un


premier temps, se douter qu’un équivalent raisonnable de vn soit ln(n + 1).
Annonçons en effet un entier n  1. La division de l’encadrement précédent par le
strictement positif ln(n + 1) amène à :

I vn
1−  1
ln(n + 1) ln(n + 1)

d’où il résulte par squeeze que :


vn
−−−−→ 1
ln(n + 1) n→+∞
148 Concours 2007 voie scientifique

et l’on a comme prévu :


vn ∼ ln(n + 1)
n→+∞

Nous devons de faire un petit peu mieux, et à cet effet nous rappelons :
La formule « complog » :
Soit u et v deux réels strictement positif, le second étant en outre différent de 1. On a
l’égalité :
ln u 1 u
=1+ · ln
ln v ln v v

Sa vérication n’est qu’une déconcertante banalité, laissée, lo de siempre, à notre


valeureux lecteur. Il s’ensuit que :

ln(n + 1) 1  1
∀n  2 =1+ · ln 1 +
ln n ln n n

Comme à l’évidence :

1  1
−−−−→ 0 et ln 1 + −−−−→ 0
ln n n→+∞ n n→+∞

il s’avère que :
ln(n + 1)
−−−−→ 1
ln n n→+∞

ce qui induit l’équivalence, somme toute assez classique :

ln(n + 1) ∼ ln n
n→+∞

puis, dans une transitive foulée, le mieux annoncé :

vn ∼ ln n (1)
n→+∞

Nous sommes presqu’au bout du tunnel. Nous savons depuis longtemps que :

∀n ∈ N∗ un = vn + wn

Nous savons également que :

vn −−−−→ +∞ et (wn ) est bornée.


n→+∞

Il en résulte que :
wn = o(vn ) puis un = vn + o(vn )
Dans ces conditions, la dénition de l’équivalence nous révèle que :

un ∼ vn
n→+∞
Edhec première 149

et la récente équivalence (1) permet, transitivement, d’accéder à :

un ∼ ln n
n→+∞

Exercice 2

1. Il s’agit d’établir que la famille (I, J, K, L) est libre. Soit donc a, b, c, d des réels
vériant :
aI + bJ + cK + dL = 0

À la lecture de nos différentes matrices, cela s’écrit :


⎡ ⎤
a −b −c d
⎢ b a −d −c ⎥
⎣ ⎦=0
c d a b
−d c −b a

et oblige assurément :
a=b=c=0

La famille (I, J, K, L) est donc bien une base de E et pour qui sait compter jusqu’à quatre,
il ne fait aucun doute que :
dim E = 4

2. Commençons par signaler que, vu qu’elles sont toutes carrées (4, 4), l’on peut, sans
souci, multiplier entre-elles les matrices de E. Nous le redirons plus !
a. On trouve aisément :

JK = L ; KL = J ; LJ = K

b. L’on a de même :
J 2 = K 2 = L2 = −I

Partons alors de :
K = LJ

et multiplions à droite par J. L’on débouche sur :

KJ = LJ 2 = −L

la dernière égalité protant de ce que J 2 = −I. Les deux autres égalités, l’on s’en doute
bien, s’obtiennent mutatis mutandis.
c. Nous avons la table de multiplication :
150 Concours 2007 voie scientifique

× I J K L

I I J K L

J J −I L −K

K K −L −I J

L L K −J −I

Cela étant, les seize produits possibles des matrices de notre famille génératrice sont donc
éléments de E. Or, tout produit de deux éléments de E est, distributivement, combinaison
linéaire de ces seize produits. Il en résulte que E est effectivement stable pour le produit
matriciel.
3. C’est toujours sans aucune difculté que l’on trouve :

A2 = −2I

Il s’en déduit que :


 A  A
A − = − A=I
2 2
double égalité qui montre, via la dénition, que A est inversible et que :
A
A−1 = −
2
Cela a l’énorme privilège de signaler que A−1 est également élément de E. Affaire à
suivre bientôt…
4.a. As usual, hay que planicar un poquit´n.
– Soit M appartenant à E. Comme A et A−1 sont également éléments de E, la
stabilité pour le produit de ce dernier, assure que :

AM A−1 ∈ E

Dans ces conditions, ϕA applique bien E dans lui-même.


– La linéarité de ϕA n’est, quant à elle, qu’une histoire banale de distributivité.
b. Soit M ∈ Ker ϕA . Nous avons :

AM A−1 = 0

Les multiplications à droite par A et à gauche par A−1 conduisent à M = 0, ce qui révèle
que :  
Ker ϕA = 0
Edhec première 151

L’endomorphisme ϕA est désormais injectif et opère sur un espace vectoriel de dimension


nie, en l’occurrence 4. L’importante caractérisation des automorphismes en dimension
nie permet de passer à la suite.
5.a. Quelques calculs relativement anodins indiquent que :

ϕA (I) = I ; ϕA (J) = K ; ϕA (K) = J ; ϕA (L) = −L

La matrice ΦA ne demande alors qu’à éclore. Here it is.


⎡ ⎤
1 0 0 0
⎢0 0 1 0 ⎥
ΦA = ⎣ ⎦
0 1 0 0
0 0 0 −1
Cette matrice est symétrique réelle. Elle est donc spectralement diagonalisable et
l’endomorphisme ϕA se doit de l’imiter du moins, pour l’instant, sur l’aspect de la diago-
nalisation….
c. Nous commençons par les éléments propres de la matrice ΦA . Soit λ un réel. La
petite suite d’opérations élémentaires :

L2 ←→ L3 puis L3 ←− L3 + λL2

permet de passer de la matrice ΦA − λI à la matrice :


⎡ ⎤
1−λ 0 0 0
⎢ 0 1 −λ 0 ⎥
U (λ) = ⎣ ⎦
0 1 − λ2 0
0 0 0 −(1 + λ)
Il est alors évident que :  
Spec ΦA = −1, 1

– Pour l’espace propre attaché à 1, grâce à la matrice U (1), l’on trouve quasi
mentalement l’ensemble des colonnes :
⎡ ⎤
x
⎢y⎥ 2
⎣ ⎦ où (x, y) ∈ R
y
0
Autant dire que :
⎡ ⎤ ⎡ ⎤
1 0

⎢ ⎥ ⎢1⎥
0
E1 (ΦA ) = Vect ⎣ ⎦ , ⎣ ⎦
0 1
0 0
– L’espace propre attaché à −1 est, quant à lui, formé des colonnes :
⎡ ⎤
0
⎢ y ⎥ 2
⎣ ⎦ où (y, t) ∈ R
−y
t
152 Concours 2007 voie scientifique

et autant dire que :


⎡ ⎤ ⎡ ⎤
0 0

⎢0⎥ ⎢ 1 ⎥
E−1 (ΦA ) = Vect ⎣ ⎦ , ⎣ ⎦
0 −1
1 0
Comme nous travaillons dans la base (I, J, K, L), la traduction vectorielle ne se fait pas
attendre. Here you are.  
Spec ϕA = −1, 1

E1 (ϕA ) = Vect (I, J + K) = Vect (I, A) ; E−1 (ϕA ) = Vect (L, J − K)

 On aurait pu, mais nous avons préféré rester simple, constater que :

ϕ2A = Id

et utiliser le cours sur les fameuses symétries ou involutions linéaires.


6.a. Soit P, Q deux matrices de E et i ∈ [[1, 4]]. La formule du produit matriciel assure
que :
4
(P Q)ii = Pij Qji
j=1

à telle enseigne que :


4 
 4
tr(P Q) = Pij Qji
i=1 j=1

On trouve de la même façon :


4 
 4 4 
 4
tr(QP ) = Qji Pij = Pij Qji
j=1 i=1 j=1 i=1

la dernière égalité protant tout simplement de ce que, parce qu’ils sont réels, les Pij , Qij
commutent docilement. La conclusion appartient alors à la formule d’inversion des
sommations.
b. Soit P et Q deux éléments de E. Nous avons :
 T 
( ϕA (P ) | Q ) = tr (A · P · A−1 ) · Q

Le délicieux dressing undressing principle stipule que :


T T
(A · P · A−1 ) = (A−1 ) · P T · AT = (−A−1 ) · P T · (−A) = A−1 · P T · A

l’avant-dernière égalité protant d’une sympathique et visuelle antisymétrie des matrices


A, A−1 , la dernière pouvant, quant à elle, se passer de tout commentaire. Il semble donc
que nous en soyons à :
 
( ϕA (P ) | Q ) = tr A−1 · P T · A · Q
Edhec première 153

D’un autre côté, nous avons :


 
( P | ϕA (Q) ) = tr P T · A · Q · A−1
La classique propriété de la question 6.a révèle pour nir que :
   
tr A−1 · (P T · A · Q) = tr (P T · A · Q) · A−1
et tout le monde est ravi.
c. Les espaces Ker(ϕA − Id) et Ker(ϕA + Id) sont, nous le savons bien les espaces
propres de ϕA respectivement attachés aux valeurs propres 1 et −1.
– D’après une condition nécessaire et sufsante qu’il vaut mieux ne pas avoir oublié,
ils sont supplémentaires dans E, pour la simple et bonne raison que :
Spec ϕA = {−1, 1}
et que ϕA est diagonalisable.
– Comme les espaces propres d’un endomorphisme symétrique sont, ad vitam eter-
nam, deux à deux orthogonaux, la précédente question nous incite à changer d’exercice.

Exercice 3

1. Soit n ∈ N∗ . La loi exponentielle de paramètre 1 n’est rien d’autre que la loi gamma
Γ(1, 1) ou γ(1). Comme X1 , . . . , Xn sont indépendantes, le théorème de stabilité de la
loi gamma stipule que Sn suit la loi Γ(1, n) ou γ(n). Dans ces conditions, nous nous
devons de savoir que Sn possède une variance — et par la même occasion une espérance
— et que :
E(Sn ) = V (Sn ) = n

2. Nous observons que la suite (Xn )n∈N∗ jouit des propriétés suivantes :
– Elle est formée de variables ayant toutes la même loi de probabilité.
– Elle est formée de variables mutuellement indépendantes.
– La variable X1 possède une variance non nulle.
C’est exactement ce qu’il nous faut pour déclencher le théorème de la limite centrée de
Liapounov. À cet effet, nous signalons que, pour chaque n ∈ N∗ , la variable centrée
réduite attachée à Sn est :
Sn − n
Sn∗ = √
n
La conclusion est alors implacable. Pour chaque réel x nous avons :
S − n
n
p √  x −−−−→ Φ(x)
n n→+∞

où, as usual, Φ désigne la fonction de répartition de la loi normale centrée réduite.


√Notons
enn que, pour chaque entier n  1, au vu — et au su ! — de la positivité de n, il ne
fait aucun doute que l’on a l’égalité d’événements :
$ %
  Sn − n
Sn  n = √ 0
n
154 Concours 2007 voie scientifique

En bref, nous avons :


1
p( Sn  n ) −−−−→ Φ(0) =
n→+∞ 2
la valeur de Φ(0) se devant d’être connue comme le loup blanc.
3. Soit n ∈ N∗ . Depuis la question 1 la variable Sn suit la loi Γ(1, n) ou γ(n). Elle admet
donc pour densité la fonction fSn dénie sur R par :
⎧ tn−1 e−t

⎪ t>0
⎨ (n − 1)! si
∀t ∈ R fSn (t) =



0 si t0

puisque personne ne peut se permettre d’avoir oublié que :

Γ(n) = (n − 1)!

Dans ces conditions :


+ +
n n
tn−1 e−t
p( Sn  n ) = fSn (t)dt = dt
−∞ 0 (n − 1)!

la dernière égalité procédant d’une gentille gestion de facette. La question 2 peut alors se
reformuler en : + n n−1 −t
t e 1
dt −−−−→
0 (n − 1)! n→+∞ 2

4.a. Soit à nouveau n ∈ N∗ . Dans l’intégrale :


+ n
tn−1 e−t dt
0

nous envisageons le changement de variable t = nz. Comme n est strictement positif, la


fonction afne :
z −→ nz
réalise une bijection de classe C 1 de ]0, 1] sur ]0, n] à telle enseigne que :
+ n + 1
tn−1 e−t dt = nn z n−1 e−nz dz
0 0

la sortie de nn pouvant se passer de tout commentaire. Grâce à une autre gentille sortie,
le résultat de la question 3 peut dénitivement s’écrire :
+ 1
nn 1
z n−1 e−nz dz −−−−→
(n − 1)! 0 n→+∞ 2

C’est ici que se place une remarque simple mais efcace.


Limite non nulle et équivalence :
Edhec première 155

Soit u une quantité — suite ou fonction — ayant en un point ω une limite = 0(*). Dans
ces conditions, on a également l’équivalence :

u∼
ω

Grâce à cette information et vu que 1/2 est assurément non nul, il semble que :
+ 1
nn 1
z n−1 e−nz dz ∼
(n − 1)! 0 n→+∞ 2

La légendaire compatibilité de l’équivalence avec le produit conduit maintenant à :


+ 1
(n − 1)!
z n−1 e−nz dz ∼
0 n→+∞ 2nn

Oui mais voilà, pour chaque n ∈ N∗ , l’on a manifestement :

(n − 1)! n!
n
= n+1
2n 2n

et nous pouvons passer à la n de l’exercice.


b. L’équivalent admis — c’est le célèbre équivalent de James Stirling et Abraham de
Moivre — permet de peauner l’équivalence du a. Au prix de quelques simplications il
s’avère nalement que :
+ 1
1
n−1 −nz π
z e dz ∼ · e−n
0 n→+∞ 2n

Problème

Partie 1

Nous soulevons avant de commencer un léger problème. Les « variables » X et Y ne


sont pas dénies sur Ω tout entier. Quelle est, en effet, la valeur prise par X si l’on ne
tire jamais de noire ? Idem pour Y lorsqu’on ne tire jamais de blanche. Le lecteur pourra
cependant vérier qu’à chaque fois, les variables X et Y sont presque sûrement dénies
ce qui permet de continuer à les appeler « variables aléatoires réelles ». Le problème n’est
nalement donc pas si grave… Nous pouvons commencer.
1.a. Si cela ne gêne personne nous préférons — parce que c’est typographiquement plus
joli — noter V plutôt que U et Ni plutôt que Bi . Cela étant, les urnes étant choisies au
hasard, c’est-à-dire avec équiprobabilité, l’on a indiscutablement :

1
p( U ) = p( V ) =
2

(*) Lorsqu’il s’agit d’une limite nulle, s’abstenir !


156 Concours 2007 voie scientifique
 
L’ensemble U, V est donc un système complet d’événements de probabilités non nulles.
La formule des probabilités totales, dans sa version conditionnée, assure alors que :
1 1
p( X = 1 ) = pU ( X = 1 ) + pV ( X = 1 )
2 2
Mais, vu la dénition de X et les compositions de nos deux urnes, il semble indiscutable
que :
n−1 1
pU ( X = 1 ) = pU ( N1 ) = et pV ( X = 1 ) = pV ( N1 ) =
n n
Du coup :
1n − 1 1 1
p( X = 1 ) = + =
2 n n 2
b. Soit k  2. Il semble indéniable que :
 
X = k = B1 ∩ . . . ∩ Bk−1 ∩ Nk

Comme au récent a, nous avons sans surprise :


1 1
p( X = k ) = pU ( X = k ) + pV ( X = k )
2 2
et cette fois :
pU ( X = k ) = pU ( B1 ∩ . . . ∩ Bk−1 ∩ Nk )
puis :
pV ( X = k ) = pV ( B1 ∩ . . . ∩ Bk−1 ∩ Nk )
Le protocole stipule que lorsque le premier tirage s’effectue dans U , il en est de même de
tous les autres tirages. Du coup la probabilité :

pU ( B1 ∩ . . . ∩ Bk−1 ∩ Nk )

est la probabilité d’obtenir k − 1 blanches puis une noire lors de tirages dans l’urne U .
Les tirages étant effectués avec remise, les événements B1 , . . . , Bk−1 , Nk se retrouvent
tacitement indépendants vis-à-vis de la probabilité pU et par conséquent :
 1 k−1 n − 1
pU ( B1 ∩ . . . ∩ Bk−1 ∩ Nk ) = pU ( B1 ) · · · pU ( Bk−1 )pU ( Nk ) = ·
n n
la dernière égalité se passant aisément de tout commentaire.
C’est exactement de la même façon que l’on parviendra à :
 n − 1 k−1 1
pV ( B1 ∩ . . . ∩ Bk−1 ∩ Nk ) = ·
n n
Il s’avère donc bien que :

1  1 k−1 n − 1  n − 1 k−1 1
p( X = k ) = · + ·
2 n n n n
Edhec première 157

La vérication de la validité de cette égalité lorsque k = 1 n’est qu’une formalité laissée,


lo de siempre, à la charge de notre dévoué lecteur.
 Le lecteur intéressé pourra se pencher sur le phénomène suivant. Il vient d’être dit que les
événements B1 , B2 sont indépendants vis-à-vis de la probabilité pU et le sont également
vis-à-vis de pV .
Oui mais attention, ils ne le sont pas vis-à-vis de p. Nous demandons en effet à notre
lecteur de démontrer que :

p( B1 ∩ B2 ) = p( B1 )p( B2 )

2. Le terme général de la série :



kp( X = k )
k1

est combinaison linéaire des deux termes généraux ofciels :


 1 k−1  n − 1 k−1
k −→ k et k −→ k
n n
Comme les deux réels 1/n et (n − 1)/n sont ouvertement et idéalement situés dans
l’ouvert ] − 1, 1[ — ils le sont même dans ]0, 1[ — les deux séries :
  1 k−1   n − 1 k−1
k et k
n n
k1 k1

sont nommément convergentes et le test de linéarité assure déjà la convergence de :



kp( X = k )
k1

Comme cette dernière est à terme général positif, elle est également absolument conver-
gente ce qui permet de revendiquer l’existence de l’espérance de X.
De plus, la formule de linéarité signale que :

n − 1  1 k−1  1  n − 1 k−1
+∞ +∞
1
E(X) = k + k
2 n n n n
k=1 k=1

C’est ici qu’il faut faire preuve d’un peu de physionomie. Puisque n  2(*), la première
somme du right hand side est exactement l’espérance de la loi géométrique de paramètre
(n − 1)/n et la deuxième, celle de la loi géométrique de paramètre 1/n. Tout individu
connaissant scrupuleusement ses classiques, se doit alors de conclure à :

1 n 1 n2
E(X) = +n = ·
2 n−1 2 n−1

(*) Nous rappelons aux amnésiques qu’un paramètre de loi géométrique ne peut se permettre d’être nul…
158 Concours 2007 voie scientifique

3. En appliquant rigoureusement à Y ce que nous avons fait à X lors de la question 1 on


découvre sans aucun souci que :

∀k ∈ N∗ p( Y = k ) = p( X = k )

4. Le point crucial de la chose est le suivant :

1 n−1
p( random(n) = 0 ) = et p( random(n) > 0 ) =
n n
Nous proposons donc le programme :

program edhec 2007 ;


var x, n, tirage, hasard : integer ;
begin
randomize ; readln(n) ; hasard := random(2) ; x := 0 ;
if hasard= 0 then repeat x := x + 1 ; tirage:= random(n) ; until (tirage = 0) ;
else repeat x := x + 1 ; tirage:= random(n) ; until (tirage > 0) ;
writeln(x) ;
end.

Partie 2

1.a. Rien n’a changé pour le premier coup. En bref :

1
p( X = 1 ) =
2

b. Soit k  2. Exactement comme à la partie 1 nous avons :

1 1
p( X = k ) = pU ( B1 ∩ . . . ∩ Bk−1 ∩ Nk ) + pV ( B1 ∩ . . . ∩ Bk−1 ∩ Nk )
2 2
Il n’y a plus, à vrai dire, les indépendances que nous avions en partie 1. Cependant, si l’on
en croit le nouveau protocole :
– Le réel :
pU ( B1 ∩ . . . ∩ Bk−1 ∩ Nk )
est la probabilité — qui dit blanc dit U !— d’obtenir la séquence B1 , . . . , Bk−1 , Nk via
des tirages exclusivement effectués dans l’urne U .
– En revanche :
pV ( B1 ∩ . . . ∩ Bk−1 ∩ Nk )
est la probabilité d’obtenir notre séquence via un premier tirage dans V , les autres ayant
lieu dans U . Il n’en faut pas plus pour clamer que :
 1 k−1  n − 1
pU ( B1 ∩ . . . ∩ Bk−1 ∩ Nk ) =
n n
Edhec première 159

alors que, parce que k  2 :


 n − 1  1 k−2  n − 1
pV ( B1 ∩ . . . ∩ Bk−1 ∩ Nk ) =
n n n
Il résulte de tout cela que :

1  1 k−1  n − 1  n − 1  1 k−2  n − 1
p( X = k ) = +
2 n n n n n

On fait alors un peu de ménage et l’on trouve effectivement :

1  n − 1  1 k−2 n − 1  1 k−1
p( X = k ) = =
2 n n 2 n
Ici la relation est malheureusement incorrecte pour k = 1 et les deux cas resterons
dénitivement séparés. En résumé :
⎧ n − 1  1 k−1

⎪ si k2

⎨ 2 n
∀k ∈ N∗ p( X = k ) =



⎩1 si k=1
2

2. On démontre comme au 1 que X possède une espérance puisque, vu l’idéale situation


géographique de 1/n, la série ofcielle :
  1 k−1
k
n
est absolument convergente. Cela dit :

1 n − 1   1 k−1
+∞
E(X) = + k
2 2 n
k=2

On reconnaît à droite une somme classique mais, attention, légérement amputée d’un
terme. C’est la raison pour laquelle :
/ 0
1 n−1 1
E(X) = +  −1
2 2 1 2
1−
n
Il reste maintenant à arranger tout cela et l’on trouve aisément :

1 3n − 2
E(X) = ·
2 n−1

3. C’est du pur mutatis mutandis. On fait, mot pour mot, subir à Y ce qui a était fait pour
X quelques lignes plus haut.
160 Concours 2007 voie scientifique

4. Il suft d’adapter un peu le programme de la partie 1. Voici donc notre proposition :

program edhec 2007 deuxième ;


var x, n, tirage, hasard : integer ;
begin
randomize ; readln(n) ; hasard := random(2) ; x := 0 ;
ifhasard= 1 then repeat x := x + 1 ; tirage:= random(n) ; until (tirage > 0) ;
else begin
x := x + 1 ;
tirage:= random(n) ;
if tirage> 0 then repeat
x := x + 1 ;
tirage:= random(n) ;
until (tirage > 0) ;
end ;
writeln(x) ;
end.

Partie 3

1.a. Rien ne change !


1
p( X = 1 ) =
2

b. Soit encore k  2. L’égalité :

1 1
p( X = k ) = pU ( B1 ∩ . . . ∩ Bk−1 ∩ Nk ) + pV ( B1 ∩ . . . ∩ Bk−1 ∩ Nk )
2 2

est toujours d’actualité mais il faut à nouveau se caler sur le nouveau protocole.
– Le réel :
pU ( B1 ∩ . . . ∩ Bk−1 ∩ Nk )

est la probabilité d’obtenir la séquence B1 , . . . , Bk−1 , Nk via des tirages exclusivement


effectués dans l’urne U .
– En revanche :
pV ( B1 ∩ . . . ∩ Bk−1 ∩ Nk )

est la probabilité d’obtenir notre séquence via des tirages exclusivement effectués dans
V . Il n’en faut pas plus pour asséner :
 1 k−1  n − 1
pU ( B1 ∩ . . . ∩ Bk−1 ∩ Nk ) =
n n

alors que :
 n − 1 k−1  n − 1
pV ( B1 ∩ . . . ∩ Bk−1 ∩ Nk ) =
n n
Edhec première 161

Il s’ensuit :

1  1 k−1  n − 1  n − 1 k−1  n − 1
p( X = k ) = +
2 n n n n
qui devrait nous convaincre que X suit exactement la même loi que sa cousine de la
première partie. L’expression demandée par le texte s’obtient alors quasiment mentale-
ment mais n’apporte pas vraiment grand chose.
Quant à la validité lorsque k = 1, elle a déjà été faite en première partie.
c. Déjà fait également.
2.a. Soit i ∈ N∗ . On commence à avoir l’habitude.
1 1
p( Y = 2i ) = p ( N1 ∩ . . . ∩ N2i−1 ∩ B2i ) + pV ( N1 ∩ . . . ∩ N2i−1 ∩ B2i )
2 U 2

– Le réel :
pU ( N1 ∩ . . . ∩ N2i−1 ∩ B2i )
est la probabilité d’obtenir la séquence N1 , . . . , N2i−1 , N2i via des tirages, tour à tour,
effectués dans U, V, U, V, . . . , U, V . Si l’on compte bien, cela exigera i tirages d’une noire
dans U , i − 1 tirages d’une noire dans V et pour nir, un tirage de blanche dans V . Nul
ne peut alors contester que :
 n − 1 i+1  1 i−1
pU ( N1 ∩ . . . ∩ N2i−1 ∩ B2i ) =
n n

– En revanche :
pV ( N1 ∩ . . . ∩ N2i−1 ∩ B2i )
est la probabilité d’obtenir la même séquence via des tirages effectués alternativement
dans V, U, V, U, . . . , V, U et il n’en faut pas plus, cette fois, pour revendiquer :
 n − 1 i−1  1 i+1
pV ( N1 ∩ . . . ∩ N2i−1 ∩ B2i ) =
n n
En bref :

1  n − 1 i+1  1 i−1  n − 1 i−1  1 i+1
p( Y = 2i ) = +
2 n n n n
et la formule demandée en ressort quasi immédiatement.
b. Soit i ∈ N∗ . La même méthode mais cette fois via les alternances impaires :

U, V, U, V, . . . , U, V, U et V, U, V, U, . . . , V, U, V

conduit sans la moindre difculté au résultat escompté. Nous laissons au lecteur inquiet
le soin de se charger de l’intendance. Le cas i = 0 entre dans la danse vu que — nous
commençons à en avoir l’habitude — nous avons comme toujours :
1
p( Y = 1 ) =
2
162 Concours 2007 voie scientifique

c. L’utilisation des sous-suites paires et impaires ne s’impose pas — les parties entières
ne sont pas si effrayantes tout de même ! — et nous nous en passerons donc. Pire, il y a
une regrettable mismatch entre deux entiers n, ce qui nous oblige à modier les notations.
Nous préférons annoncer r ∈ N∗ . La formule de séparation pair-impair signale que :

 r−1 r
2

r  2 
Er (Y ) = kp( Y = k ) = (2i + 1)p( Y = 2i + 1 ) + 2i p( Y = 2i )
k=1 i=0 i=1

Vu les résultats des deux questions précédentes et une linéarisation de la première somme
cela devient :

 r−1  2 r−1
2 r
 2
1  n2 − 2n + 2 
i i
Er (Y ) = ia + a + iai−1
i=0
2 i=0 n2 i=1

où, pour allèger un peu la sauce, nous avons momentanément noté :

n−1
a=
n2
Vu que a est idéalement situé, les trois séries quasi ofcielles :
  
iai ; ai ; iai−1
i0 i0 i1

sont convergentes de sommes respectives :

a 1 1
; ;
(1 − a)2 1−a (1 − a)2

Comme : 2 3 4r5
r−1
−−−−→ +∞ et −−−−→ +∞
2 r→+∞ 2 r→+∞

nous nous autorisons à clamer que :


r
a 1 1 n2 − 2n + 2 1
Er (Y ) = kp( Y = k ) −−−−→ + · + ·
r→+∞ (1 − a)2 2 1−a n2 (1 − a)2
k=1

Cela montre, par dénition, que la série :



kp( Y = k )
k1

converge et que sa somme vaut l’horrible machin :

a 1 1 n2 − 2n + 2 1
2
+ · + ·
(1 − a) 2 1−a n2 (1 − a)2
Edhec première 163

Comme il s’agit en outre d’une série à termes positifs, elle est, encore une fois, absolument
convergente. En bref, la variable Y possède bien une espérance et :

a 1 1 n2 − 2n + 2 1
E(Y ) = 2
+ · + 2
·
(1 − a) 2 1−a n (1 − a)2

Cela étant, un calcul d’une extrême poésie révèle que :

a 1 1 n2 − 2n + 2 1 3 n2
+ · + · = ·
(1 − a)2 2 1−a n2 (1 − a)2 2 n2 − n + 1

et tout le monde est ravi.


3.a. On constate, lorsque n = 2, que X et Y suivent toutes les deux la loi géométrique
de paramètre 1/2.
b. Cela n’est pas étonnant puisque dans ce cas les deux urnes U et V ont exactement
la même composition — à savoir une noire et une blanche — et tout se passe comme si
tous les tirages avaient lieu dans l’urne U . La variable X est alors le temps d’attente de
la première noire lors de tirages avec remise dans U et comme la probabilité d’y tirer une
noire est 1/2…
La variable Y est, quant à elle, le temps d’attente de la première blanche. So…
4. Un calcul aisé montre que :

n2 (n − 2)2
E(X) − E(Y ) = ·
2 (n − 1)(n2 − n + 1)

La conclusion est alors limpide.


5. Tant que l’on attend une noire, la procédure est identique à celle de la cousine de la
partie 1, on peut donc se contenter du même programme…
Ecricome première 165

Ecricome première

Suites, séries, alternance de Leibniz


Une norme d'algèbre
Loi exponentielle translatée
Likelihood de Fisher

Exercice 1

Année Difficulté
1 ¶

1. À l’aide de développements limités usuels que l’on rappellera clairement, montrer que
lorsque x est au voisinage de 0 on a :

ln(2 − ex ) = −x − x2 + o(x2 )

2.a. Montrer que pour tout entier k supérieur ou égal à 2, on a :

2 − e1/k ∈]0, 1[

b. En déduire le signe de ln(2 − e1/k ), pour tout entier k supérieur ou égal à 2.




c. Quelle est la nature de la série de terme général ln 2 − e1/k ?
d. Pour n entier supérieur ou égal à 2, on pose :


n


Vn = ln 2 − e1/k et un = exp Vn
k=2
166 Concours 2007 voie scientifique

Déterminer :
lim Vn et lim un
n→+∞ n→+∞

3.a. Montrer que :


n  

1 
ln(nun ) = ln 2 − e1/k − ln 1 −
k
k=2

b. Déterminer un équivalent, quand k tend vers +∞, de :



 1
ln 2 − e1/k − ln 1 −
k

c. En déduire que un est équivalent, quand n tend vers +∞, à :

K
n
où K est un réel strictement positif.
Quelle est la nature de la série de terme général un ?
4. On pose

n
Sn = (−1)k uk
k=2

a. Étudier le sens de variations de la suite (un )n2 .


b. Montrer que les suites (S2n )n1 et (S2n+1 )n1 sont deux suites adjacentes.
c. En déduire la nature de la série de terme général (−1)n un .

Exercice 2

Année Difficulté
2 ¶

Mn (R) désigne l’ensemble des matrices carrées d’ordre n  2, à coefcients réels. Pour
tout élément A = (aij )1i,jn de Mn (R), on appelle « trace de A », et on note tr(A),
la somme des éléments diagonaux, c’est-à-dire :


n
tr(A) = aii
i=1

On admet que tr est une application linéaire de Mn (R)dans R et que :

∀A ∈ Mn (R) ∀B ∈ Mn (R) tr(AB) = tr(BA)


Ecricome première 167

On note AT la transposée de la matrice A.


1. Soit ϕ l’application dénie sur Mn (R) × Mn (R) par :

∀A ∈ Mn (R) ∀B ∈ Mn (R) ϕ(A, B) = tr(AT · B)

Exprimer ϕ(A, B) en fonction des coefcients de A et B et montrer que ϕ est un produit


scalaire sur Mn (R).
On note N la norme associée à ce produit scalaire.
2. Soit A, B ∈ Mn (R). Le but de cette question est de prouver que :

N (AB)  N (A)N (B)

a. Justier l’existence de P ∈ Mn (R) et D ∈ Mn (R) telles que :

P T · (AT · A) · P = D

où P est une matrice orthogonale et D une matrice diagonale.


On notera par la suite λi le coefcient dii de la matrice D = (dij )1i,jn .
b. Soit λ une valeur propre de AT · A et X un vecteur propre associé.
En calculant X T · AT · A · X de deux manières différentes, montrer que λ  0.
c. On pose :
S = P T · (B · B T ) · P = (sij )1i,jn
Montrer que

[N (A)]2 = tr(D) ; [N (B)]2 = tr(S) ; [N (AB)]2 = tr(SD)

d. Montrer que :

n
tr(SD) = λi sii
i=1

e. On note Ei le ième vecteur de la base canonique de Mn,1 (R), espace des matrices à
n lignes et une colonne, à coefcients réels. Montrer que :

EiT · S · Ei = ||B T · P · Ei ||2

où   désigne la norme euclidienne canonique de Mn,1 (R), puis calculer EiT · S · Ei en
fonction des coefcients de S.
Qu’en déduit-on, pour i entier compris entre 1 et n, sur le signe de sii ?
f. Montrer que :

n 
n 
n
λi sii  λi sii
i=1 i=1 i=1

puis conclure que :


N (AB)  N (A)N (B)
168 Concours 2007 voie scientifique

Problème

Année Difficulté
2 ¶¶

Le préliminaire, les parties 1 et 2 sont indépendants.

Préliminaire

On considère deux variables aléatoires à densité X et Y dénies sur un même espace


probabilisé, admettant des espérances E(X), E(Y ) et des variances V (X), V (Y ). On
suppose V (X) > 0. On dénit la covariance de X et Y par :



cov(X, Y ) = E X − E(X) Y − E(Y ) = E(XY ) − E(X)E(Y )

1.a. Montrer que pour tout nombre réel λ :

V (λX + Y ) = λ2 V (X) + 2λ cov(X, Y ) + V (Y )

b. En étudiant le signe du trinôme précédent, montrer que :



2
cov(X, Y )  V (X)V (Y )

c. À quelle condition nécessaire et sufsante a-t-on l’égalité



2
cov(X, Y ) = V (X)V (Y ) ?

Partie 1 Étude d’une fonction de deux variables

n désigne un entier non nul, A et S deux réels positifs ou nuls vériant S > nA.
On dénit sur [0, +∞[×]0, +∞[ la fonction Ln par :
⎧ 1


−(S−na)/b
0aA
⎨ bn e si
Ln (a, b) =



0 si a>A

1. Justier que Ln est de classe C 1 sur l’ouvert ]0, A[×]0, +∞[ et montrer que Ln n’admet
pas d’extremum sur cet ouvert.
2. Montrer que :

∀a ∈ [0, A[ ∀b ∈]0, +∞[ Ln (a, b) < Ln (A, b)


Ecricome première 169

Montrer que ce résultat est encore vrai pour tout a de ]A, +∞[.
3. Soit g la fonction dénie sur ]0, +∞[ par :

∀b > 0 g(b) = Ln (A, b)

Montrer que g admet un maximum absolu sur ]0, +∞[, atteint en un point b0 que l’on
exprimera en fonction de A, S et n.
4. Déduire de ce qui précède que Ln admet sur [0, +∞[×]0, +∞[ un maximum absolu
atteint en un unique point (a0 , b0 ) que l’on précisera.

Partie 2 Étude d’une loi

Soit a  0 et b > 0. On considère la fonction fa,b dénie sur R par :


⎧1

⎪ e
−(x−a)/b
si xa
⎨ b
fa,b (x) =



0 sinon

1. Vérier que fa,b est bien une densité de variable aléatoire. On note E(a, b) la loi
associée.
On considère désormais une variable aléatoire X de loi E(a, b).
2. Déterminer la fonction de répartition de X.
3. On pose Y = X − a. Déterminer la loi de Y et la reconnaˆtre. En déduire E(X) et
V (X).
4. Soit p ∈ N. Montrer que X admet un moment d’ordre p, E(X p ), et pour p > 0
déterminer une relation liant E(X p ) et E(X p−1 ).
5. Simulation de la loi E(a, b).
a. Soit U une variable aléatoire de loi uniforme sur [0, 1[. Montrer que la variable
aléatoire :
− b ln(1 − U ) + a

suit la loi E(a, b).


b. On rappelle qu’en langage Pascal, la fonction random permet de simuler une variable
aléatoire de loi uniforme sur [0, 1[. Écrire, en langage Pascal, une fonction tirage, de
paramètres a et b simulant une variable aléatoire de loi E(a, b).

Partie 3 Estimation des paramètres a et b

a et b désignent toujours deux réels tels que a ≥ 0 et b > 0. On considère désormais


une suite de variables aléatoires (Xi )i1 indépendantes identiquement distribuées de loi
E(a, b).
170 Concours 2007 voie scientifique

Pour n entier supérieur ou égal à 2, on considère les variables aléatoires Sn , et Yn dénies


par :
Sn = X1 + X2 + · · · + Xn et Yn = min(X1 , X2 , . . . , Xn )

Le but de cette partie est de déterminer des estimateurs de a et b.


1. La fonction tirage, ainsi que les variables informatiques a, b, X, S, Y de type real et
i, n de type integer étant supposées dénies, compléter le corps du programme principal
suivant, de manière à ce qu’il simule Sn et Yn , les valeurs étant stockées respectivement
dans S et Y.

begin
randomize ;
readln(a, b, n) ;
X := tirage(a, b) ;
S := . . . ;
Y := . . . ;
for i := 2 to n do. . .
......
......
......
...
end.

2. Déterminer l’espérance et la variance de Sn .


3. Quelle est la loi suivie par la variable aléatoire :
(X1 − a) + (X2 − a) + · · · + (Xn − a)
En déduire une densité de Sn .
4.a. Déterminer la fonction de répartition de Yn . En déduire que Yn suit une loi E(an , bn )
où an et bn sont deux réels que l’on précisera.
Donner les valeurs de E(Yn ) et V (Yn ).
b. Calculer le biais ainsi que le risque quadratique de Yn en tant qu’estimateur de a.
b. Rappeler l’inégalité de Markov pour une variable aléatoire admettant un moment
d’ordre 2.
À l’aide de ce qui précède, prouver que (Yn ) est une suite d’estimateurs de a, asympto-
tiquement sans biais et convergente.
5. On pose :
Sn
Zn = − Yn
n
a. Calculer le biais de Zn en tant qu’estimateur de b.
b. On note rZn (b) le risque quadratique de Zn . Montrer que :

2b2 b2 2
rZn (b) = 2
+ − cov(Sn , Yn )
n n n
Ecricome première 171

c. À l’aide du préliminaire montrer que :

lim r (b) = 0
n→+∞ Zn

et en déduire que (Zn ) est une suite d’estimateurs de b, asymptotiquement sans biais et
convergente.
6. Pour un échantillon donné (x1 , . . . , xn ), vériant :

min(x1 , . . . , xn ) = max(x1 , . . . , xn )

correspondant à une réalisation des n variables aléatoires X1 , . . . , Xn , on dénit la


fonction L sur [0, +∞[×]0, +∞[ par :


n
∀a  0 ∀b > 0 L(a, b) = fa,b (xi )
i=1

a. Montrer que L est la fonction Ln dénie dans la partie 1, pour des valeurs de A et S
que l’on précisera en fonction des xi .
b. Comparer les estimations de a et b obtenues sur l’échantillon (x1 , . . . , xn ) à partir
de Yn et Zn avec les valeurs a0 et b0 obtenues dans la partie 1.

Solution
Exercice 1

1. Avant de commencer, signalons que la fonction :

x −→ ln(2 − ex )

est manifestement dénie sur la demi-droite ouverte ] − ∞, ln 2[ ce qui lui assure une
genuine dénition au voisinage de zéro. Cela dit, il s’agit d’une bénigne composition de
développements limités à l’ordre deux. La fonction :

u : x −→ 1 − ex

possède mentalement — et usuellement ! — le développement limité au voisinage de zéro


que voici :
x2
u(x) = 1 − ex = − x − + o(x2 )
2
Toujours usuellement et toujours au voisinage de zéro l’on a également :

u2
ln(1 + u) = u − + o(u2 )
2
172 Concours 2007 voie scientifique

Enn :


∀x ∈ ] − ∞, ln 2[ ln(2 − ex ) = ln 1 + u(x) et u(x) −−−−→ 0
x→0

Tout est en place pour déclencher le fameux théorème de composition. La fonction :

x −→ ln(2 − ex )

possède effectivement un développement limité à l’ordre deux au voisinage de zéro,


développement dont la partie régulière est la troncature à l’ordre deux du polynôme :
2
x2 1 x2
x −→ − x − − −x −
2 2 2

Or cette dernière n’est autre que :

x −→ − x − x2

L’affaire semble donc dans le sac.


 La formulation de la question nous oriente fortement vers le théorème de composition.
Nous signalons cependant que le théorème de Taylor-Young eut été un peu plus expéditif…
2.a. Soit k un entier supérieur ou égal à deux. Nous avons sans surprise :

1 1
0< 
k 2
Eu égard à la stricte croissance de l’exponentielle il semble indéniable que :

1 < e1/k  e1/2

Dans ces conditions, il ne fait aucun doute que :

2 − e1/2  2 − e1/k < 1

et comme 2 − e1/2 est ouvertement strictement positif…


b. Soit à nouveau k un entier supérieur ou égal à deux. Il résulte du a que :

ln(2 − e1/k )  0

 Nous rassurons notre dévoué lecteur, le signe en question est en réalité strictement
négatif, mais comme cela ne sert strictement à rien…
c. Le développement limité de la première question, via le théorème de la partie
principale, livre l’équivalence :

ln(2 − ex ) ∼ − x
x→0
Ecricome première 173

Il s’ensuit que : ⎧
⎪ 1
⎪ ln(2 − e1/k ) ∼ −

⎨ k→+∞ k


⎪ 1
⎩ ∀k  2
0 −
k
la seconde partie de l’accolade se passant de tout commentaire. La série opposée de la
série harmonique est divergente. La règle des équivalents en signe négatif est catégorique.
Elle condamne à la divergence la série en question. En bref :

ln(2 − e1/k ) diverge
k2

Rappel : le théorème de la partie principale :


Soit u une fonction de variable réelle ayant au voisinage d’un certain point ω un
développement limité dont la partie régulière n’est pas nulle. Le premier terme non nul
de cette partie régulière — appelé partie principale de u en ω — est, au voisinage de ω,
un équivalent de la fonction u.
d. Pour chaque n supérieur ou égal à deux Vn n’est rien de plus que la somme partielle
d’ordre n de la série que nous venons d’étudier à l’instant. Or cette dernière est divergente
et à terme général localement(*) négatif. Il est alors temps de se rappeler que, fatalement :

Vn −−−−→ − ∞
n→+∞

Comme la limite en −∞ de la fonction exp est nulle, il s’ensuit sur-le-champ que :

un −−−−→ 0
n→+∞

3.a. Il faut sûrement comprendre que n est un entier supérieur ou égal à deux, ce que nous
empressons d’annoncer. Soit aussi k ∈ [[2, n]]. Nous écrivons :
 1
ln(2 − e1/k ) − ln 1 − = ln(2 − e1/k ) + ln k − ln(k − 1)
k
ce qui crée un gentil télescope sur la droite. L’addition membre à membre, l’entier k
batifolant à sa guise de 2 à n, révèle — physio, physio — que :
n $  %

1/k 1
ln(2 − e ) − ln 1 − = Vn + ln n
k
k=2

car, comme me le rappelait un jour un policier municipal, l’on a ln 1 = 0. D’autre part,


vu que n et un sont hautement strictement positifs, il ne fait aucun doute que :

ln(nun ) = ln n + ln un = ln n + Vn

(*) La question b indique que ce signe est globalement négatif mais le local — établi grâce à l’équivalence du c — suft largement
à cette question.
174 Concours 2007 voie scientifique

and Bob’s your uncle !


b. Nous avons appris en question 1 que lorsque x est au voisinage de zéro, l’on a :

ln(2 − ex ) = − x − x2 + o(x2 )

À coté de cela, nous savons usuellement que, dans les mêmes conditions :

x2
ln(1 − x) = − x − + o(x2 )
2
Le théorème d’addition — ou de soustraction ? — de deux développements limités assure
alors que, cerca de cero :

x2
ln(2 − ex ) − ln(1 − x) = − + o(x2 )
2
d’où il ressort principalement que :

x2
ln(2 − ex ) − ln(1 − x) ∼ −
x→0 2
Il s’ensuit comme supra que :
 1 1
ln(2 − e1/k ) − ln 1 − ∼ − 2
k k→+∞ 2k

c. La question est un peu brutale. Nous allons nous organiser un petit peu.
– Il ressort de la question précédente que :
⎧  1 1

⎪ ln(2 − e1/k
) − ln 1 − ∼ − 2

⎨ k k→+∞ 2k



⎩ ∀k  2 1
− 0
2k 2
la seconde partie de l’accolade se passant, à nouveau, de tout commentaire. La série de
Riemann de paramètre deux étant convergente, il en est de même, par équivalence en
signe négatif, de la série :
$  1
%
ln(2 − e1/k ) − ln 1 −
k
n2

– Le récent 3.a nous apprend quant à lui que, pour chaque entier n  2, ln(nun )
est exactement la somme partielle d’ordre n de la série convergente dont nous venons, à
l’instant, de faire connaissance.
– Il n’en faut pas plus pour afrmer que, lorsque n tend vers plus l’inni, ln(nun )
a une limite nie que nous noterons classiquement . La fonction exp étant continue sur
R — donc en — il s’ensuit que :

nun −−−−→ el
n→+∞
Ecricome première 175

Comme el n’est pas nul, les habitués de l’équivalence savent bien que l’on a également :

nun ∼ el
n→+∞

Il en découle alors immédiatement que :

el
un ∼
n→+∞ n

Il reste maintenant à proposer K = el — c’est bien un réel strictement positif — pour


terminer ce début de question.
Rappel : limite et équivalence :
Soit u une suite ou une fonction de variable réelle ayant en un certain point ω une limite
nie λ, c’est-à-dire vériant :
u −−−→ λ
ω

Si λ = 0, on a également l’équivalence :

u ∼λ
ω

Attention, si λ est nul, s’abstenir !


Nous venons de montrer l’existence d’un réel K vériant :
⎧ K

⎪ un ∼

⎨ n→+∞ n




⎩ ∀n  2 K
0
n
Nous avons déjà eu l’occasion de mentionner la divergence  de la série harmonique. Comme
K n’est pas nul, il en est évidemment de même de la série K/n ce qui, par équivalence
en signe positif, se transmet à la série de terme général un . En bref :

un diverge
n2

4.a. Soit n un entier supérieur ou égal à deux. Nous avons tout classiquement et tout
d’abord :

Vn+1 − Vn = ln 2 − e1/(n+1)
La question 2.b est alors sans appel. Ce nombre est à coup sûr négatif et du coup :

Vn+1  Vn

La fonction exp étant croissante sur R, il s’avère que :

un+1  un
176 Concours 2007 voie scientifique

et la suite (un )n2 est décroissante.


b. Avant de commencer, remarquons que la suite (Sn ) étant visiblement dénie à partir
du rang 2, les deux sous-suites (S2n ) et (S2n+1 ) sont effectivement dénies à partir du
rang 1. Cela dit, il nous faut sérieusement planier. Soit n ∈ N∗ .
– Toujours tout classiquement, nous avons :

S2n+2 − S2n = u2n+2 − u2n+1  0

la négativité provenant de la décroissance de la suite (un ). Ainsi :

(S2n )n1 est décroissante.

– Nous avons de même :

S2n+3 − S2n+1 = − u2n+3 + u2n+2  0

la positivité provenant encore une fois de la sempiternelle décroissance de la suite u. En


conséquence :
(S2n+1 )n1 est croissante.

– Pour nir, nous observons que :

S2n − S2n+1 = u2n+1

La question 2.d stipule que la suite (un ) est de limite nulle. Il en est alors a fortiori de
même de sa sous-suite impaire et par conséquent :

S2n − S2n+1 −−−−→ 0


n→+∞

chronique d’une « adjacence » annoncée.


c. Les deux suites (S2n ) et (S2n+1 ) sont adjacentes et sont, à ce titre, convergentes de
même limite. La synthèse « pair-impair » est alors catégorique. La suite (Sn )n2 converge
ce qui, par dénition, traduit la convergence de la série :

(−1)n un
n2

 Toute ressemblance avec le fameux théorème des séries alternées de Gottfried Leibniz
est plus qu’une pure coïncidence…

Exercice 2

1. Soit A et B deux matrices de Mn (R). Le produit AT · B manifestement carré (n, n)


est assuré de laisser une trace derrière lui et, via la formule du produit matriciel d’Arthur
Cayley, il semble que :

n 
n 
n 
n 
n
tr(AT · B) = (AT · B)ii = (AT )ij (B)ji = (A)ji (B)ji (1)
i=1 i=1 j=1 i=1 j=1
Ecricome première 177

la dernière égalité procédant d’une gentille gestion de transpositition. Poursuivons.

– Ce début de question montre déjà que ϕ est une authentique application de


Mn (R) × Mn (R) dans R.
– Vu l’égalité (1) la symétrie de ϕ ne pose aucun problème pas plus d’ailleurs que
la linéarité de :
B −→ ϕ(A, B)
lorsque A est xée.
– Soit A une matrice non nulle de Mn (R). Toujours grâce à la très pratique formule
(1), nous avons :
n  n
ϕ(A, A) = (A)2ji
i=1 j=1

Il s’agit d’une somme de réels positifs non tous nuls et nous ne craignons donc pas
d’afrmer que :
ϕ(A, A) > 0

 This scalar product s’appelle produit scalaire de Hilbert-Schmidt. D’aucuns le qualient


également de produit scalaire canonique sur Mn (R). En effet, si nous rangeons dans
une seule et même colonne les n2 éléments d’une matrice carrée (n, n), la formule (1)
2
stipule que ϕ n’est rien d’autre que le produit scalaire canonique sur Rn . Cela aurait
d’ailleurs pu constituer une preuve de notre question… Quant à la norme N elle s’appelle
« norme de Schur » et il semble que nous ayons à nous employer bientôt à démontrer qu’il
s’agit de ce que l’on appelle « une norme d’algèbre », préoccupation analogue à celle du
commencement du texte d’Hec en début d’ouvrage.
2.a. La matrice AT · A est symétrique réelle. Sa réalité est en effet translucide et quant
à sa symétrie, nous en voulons pour preuve le fameux dressing, undressing principle qui
assure que :

T T
A · A = AT · A
Comme elle est d’ordre supérieur ou égal à un, l’important théorème spectral assure
effectivement l’existence d’une matrice orthogonale P ∈ On (R) et d’une matrice
diagonale réelle D telles que :

P T · AT · A · P = D

b. Le Monsieur parle de deux méthodes différentes. Here we go !


– La première consiste à observer que, selon le délicieux dressing, undressing, nous
avons :
T
X T · AT · A · X = (A · X) · A · X
Oui mais — c’est un point crucial — le produit A · X est ouvertement une colonne de
hauteur n vu que, vecteur propre oblige, il en est de même de X. Dans ces conditions, et
en devançant la notation utilisée à la question e, il ne fait aucun doute que :

(A · X) · A · X = ||A · X||2
T
178 Concours 2007 voie scientifique

– La seconde méthode prote, à donf, de ce que X est λ-propre pour AT · A ce qui,


entre autres, amène à l’égalité :

AT · A · X = λ X

Il en découle sur-le-champ que :

X T · AT · A · X = λ X T · X = λ||X||2

où, pour la seconde fois, nous faisons usage de la norme euclidienne canonique des
colonnes de hauteur n. La comparaison des deux modes de calcul apporte sur un plateau
l’égalité :
||A · X||2 = λ||X||2
C’est presque ni. Vecteur propre oblige — never forget ! — la colonne X n’est pas nulle
et du coup :
||A · X||2
λ=
||X||2
La positivité de λ crève alors l’écran.
 Cette positivité n’est pas vraiment étonnante vu que AT · A est une matrice de Jorgen
Gram (n, n), c’est-à-dire un élément du fameux S+ n.

c. Prenons les choses les unes après les autres.


– La question a révèle que :


tr D = tr P T · AT · A · P

Le texte rappelle dans son châpeau la célèbre « tr(M N ) = tr(N M ) » qui permet ici
d’arriver à :

tr D = tr AT · A · P · P T
Oui mais voilà, comme P est orthogonale, l’on a P · P T = In , à telle enseigne que :

2
tr D = tr(AT · A) = N (A)

la dernière égalité reposant sur la dénition de la norme N .


– On démontre mutatis mutandis que :

2
tr S = tr(B · B T ) = tr(B T · B) = N (B)

l’avant dernière égalité procédant, encore une fois, du délicieux « tr(M N ) = tr(N M ) ».
– Grâce au miracle toujours apprécié du P · P T = In nous avons dans un premier
temps :
SD = P T · B · B T · AT · A · P
et comme nous l’avons déjà fait par deux fois, il s’ensuit déjà :



tr(SD) = tr B · B T · AT · A = tr B T · AT · A · B
Ecricome première 179

en usant bien sûr et très librement de l’incontournable « tr(M N ) = tr(N M ) ». Un autre


incontournable semble être le dressing, undressing principle selon lequel :
T
B T · AT = (A · B)

En bref, il s’avère que :



T
2
tr(SD) = tr (A · B) · A · B = N (AB)

ce qui termine cette technologique question.


d. Nous en protons pour rappeler, une fois pour toutes, l’effet d’une multiplication par
une matrice diagonale.
Le lemme prodiag :
Soit n et p deux entiers naturels non nuls et R une matrice rectangulaire de format (n, p).
i. Le préproduit : Soit D une matrice diagonale (n, n). On a :
 
DR = Dii Rij 1in (prediagli)
1jp

Autrement dit, les lignes de R ont « encaissé » les éléments diagonaux respectifs de D.
ii. Le postproduit : Soit ∆ une matrice diagonale (p, p). On a :
 
R∆ = Rij ∆jj 1in (postdiagco)
1jp

Autrement dit, les colonnes de R ont « encaissé » les éléments diagonaux respectifs de ∆.
Il résulte ici du posteffect que :
 
SD = λj Sij
1i,jn

et le reste n’est que littérature.


e. Soit i ∈ [[1, n]]. Nous avons :

Ei T · S · Ei = Ei T · P T · B · B T · P · Ei

Le principe « feuillage-effeuillage » — encore lui ! — stipule que :



T
E i T · P T · B = B T · P · Ei

ce qui amène à :

T
Ei T · S · Ei = B T · P · Ei · B T · P · Ei
Comme B T · P · Ei est manifestement une colonne de hauteur n, l’on a effectivement :

Ei T · S · Ei = ||B T · P · Ei ||2
180 Concours 2007 voie scientifique

Poursuivons. Les canoniciens de tout poil savent bien que :

S · Ei = Ci (S)

où Ci (S) désigne la ième colonne de S. De façon analogue, le produit Ei T · Ci (S) n’est


autre que la ième ligne de la colonne Ci (S), ligne qui se résume au seul élément Sii . En
bref :
Ei T · S · Ei = Sii
Le début de la question apporte alors, sur un plateau, l’égalité :

Sii = ||B T · P · Ei ||2

d’où il ressort que :


Sii  0

 La matrice S qui nalement n’est autre que :



T
BT · P · BT · P

est, elle aussi, une matrice de Gram (n, n), c’est-à-dire une matrice du famous S+ n . La
positivité des éléments diagonaux d’une telle matrice fait partie du patrimoine positiviste !
f. Nous avons en développant :


n  
n n 
n
λi Sjj = λi Sjj
i=1 j=1 i=1 j=1

Oui mais voilà, les questions 2.b et 2.e nous ont appris que les réels λi et Sjj sont tous
positifs ou nuls, à telle enseigne que notre double somme est manifestement supérieure
ou égale à sa partie « diagonale » ce qui s’écrit :


n 
n 
n
λi Sjj  λi Sii
i=1 j=1 i=1

ce qui ne peut que nous ravir. Si l’on en croit les récentes questions 2.c et 2.d, cela s’écrit
exactement :
2
2
2
N (AB)  N (A) N (B)

La fonction étant croissante sur R+ et au vu de la positivité(*) de la norme N il
s’ensuit effectivement que :

N (AB)  N (A)N (B)

(*) Le piège le plus redoutable — et redouté — de la classe de troisième. Combien de potaches ont raté leur B.E.P.C pour avoir
√ √
naïvement cru que, pour x réel, x2 =x alors qu’en réalité x2 =|x| ?
Ecricome première 181

Problème

1. Préliminaires

Avant de commencer, nous rappelons quelques points fondamentaux. Soit (Ω, T , p) un


espace probabilisé.
– L’ensemble V(Ω, R) de toutes les variables aléatoires réelles dénies sur (Ω, T , p)
est un R-espace vectoriel. Ce résultat est ofciellement admis.
– L’ensemble V2 (Ω, R) de celles qui possèdent une variance — et par là même, une
espérance — en est un sous-espace vectoriel.
– La covariance « cov » est une forme bilinéaire symétrique positive sur V2 (Ω, R)
vériant :
∀U ∈ V2 (Ω, R) cov(U, U ) = V (U )

– Enn, pour toute U ∈ V2 (Ω, R), l’on a l’équivalence :

V (U ) = 0 ⇐⇒ U est presque sûrement certaine

1. Soit λ ∈ R. La relation demandée n’est autre que la formule d’Al Kashi pour la
covariance.
2.a. Vu qu’une variance est assurément positive ou nulle, le trinôme :

λ −→ λ2 V (X) + 2λ cov(X, Y ) + V (Y )

est constamment positif ou nul sur R. Tout individu ayant assidûment fréquenté une
classe de première scientique se doit de savoir que le discriminant ∆ du dit trinôme doit
impérativement être négatif ou nul. Or :


∆ = 4 cov2 (X, Y ) − V (X)V (Y )

ce qui devrait satisfaire tout le monde.


 Pour ceux — ou celles — qui ne l’auraient pas reconnu, il s’agit de l’inégalité de
Cauchy-Schwarz-Bouniakowski pour la covariance…
b. Condition nécessaire et sufsante oblige, nous nous devons de planier un poqu´tin.
– Supposons que :
cov2 (X, Y ) = V (X)V (Y )
Si l’on en croit le calcul précédent, nous en déduisons que :

∆=0

Oui mais voilà, il est précisé que V (X) = 0. Dans ces conditions nous avons dû apprendre
en première S que le trinôme supra possède une racine double λ0 . Il s’ensuit alors que :

V (λ0 X + Y ) = 0
182 Concours 2007 voie scientifique

et, vu ce que nous avons rappelé plus haut, la variable λ0 X + Y est presque certaine.
– Supposons, réciproquement, qu’il existe un réel λ0 tel que λ0 X + Y soit presque
sûrement certaine. On a bien entendu :

V (λ0 X + Y ) = 0

et notre effé trinôme possède au moins une racine réelle. L’année de nos seize ans révèle
alors que fatalement :
∆0
Comme, quoi qu’il arrive, ∆  0, il s’avère que ∆ = 0 et du coup :

cov2 (X, Y ) = V (X)V (Y )

En résumé, nous avons la condition nécessaire et sufsante :

cov2 (X, Y ) = V (X)V (Y ) ⇐⇒ ∃λ0 ∈ R tel que λ0 X + Y est p. s certaine

Partie 1

Avant toute chose, il est bon de noter que Ln est farpaitement dénie sur le produit
R+ × R∗+ . C’est une simple affaire d’ouverture de mirette.
1. Nous allons tout d’abord établir que ]0, A[ × ]0, +∞[ est bien une partie ouverte de
R2 . Pour cela nous notons :
& ' & '
U = (a, b) ∈ R2 | a ∈ ]0, A[ et V = (a, b) ∈ R2 | b ∈ ]0, +∞[

de telle sorte que :


]0, A[ × ]0, +∞[ = U ∩ V

– L’ensemble U est l’image réciproque de l’ouvert ]0, A[ par la première application


coordonnée. Cette dernière étant légendairement continue sur R2 , le théorème des images
réciproques d’Hausdorff assure que U est un ouvert de R2 .
– On démontre mutatis mutandis que V est un ouvert de R2 .
Le théorème des intersections du même Hausdorff stipule alors que U ∩V est effectivement
un ouvert de R2 . Nous pouvons poursuivre.
– La fonction :
S − na
(a, b) −→ −
b
est rationnelle à deux variables et ouvertement dénie sur notre ouvert ]0, A[ × ]0, +∞[.
À ce titre, elle y est de classe C 1 .
– Pour à peu près les mêmes raisons, il en est de même de la fonction :

1
(a, b) −→
bn
Ecricome première 183

– Comme exp est de classe C 1 sur R, la conclusion appartient aux généreux


théorèmes généraux. La fonction Ln possède bien la classe C 1 sur notre ouvert.
Un calcul élémentaire signale que :

∂Ln n
∀(a, b) ∈ ]0, A[ × ]0, +∞[ (a, b) = n+1 e−(S−na)/b
∂a b
Vu que n n’est pas nul, cette dérivée partielle ne pourra jamais s’annuler sur notre ouvert
à telle enseigne que la fonction Ln n’y possèdera aucun point critique. La condition
nécessaire du premier ordre d’optimisation locale d’une fonction de classe C 1 sur un
ouvert est sérieusement mise en défaut ce qui devrait satisfaire tout le monde.
2. Soit b ∈ R∗+ .
– Soit tout d’abord a vériant 0  a < A. Comme n et b sont strictement positifs,
on vérie élémentairement que :

S − na S − nA
− < −
b b
La fonction exponentielle étant strictement croissante sur R, il s’ensuit que :

e−(S−na)/b < e−(S−nA)/b

La multiplication par le strictement positif 1/bn livre alors effectivement l’inégalité


stricte :
Ln (a, b) < Ln (A, b)

– Soit maintenant a ∈ ]A, +∞[. Il suft d’observer que Ln (a, b) = 0 alors que :

1 −(S−nA)/b
Ln (A, b) = e
bn
est un réel visiblement strictement positif.
Nous avons donc nalement :

∀b > 0 ∀a ∈ R+ \ {A} Ln (a, b) < Ln (A, b)

3. Nous avons :
1 −(S−nA)/b
∀b > 0 g(b) = e
bn
La fonction g est ouvertement dérivable sur R∗+ et l’on a :

S − nA − nb −(S−nA)/b
∀b > 0 g  (b) = e
bn+2
Comme il est précisé que n et S − nA sont strictement positif, le réel :

S − nA
b0 =
n
184 Concours 2007 voie scientifique

est situé dans R∗+ et il en résulte le tableau de variations :

b 0 b0 +∞

g + 0 −

g g(b0 )

ce qui ne peut que nous séduire.


Cependant, en vue de ce qui va suivre, nous apportons quelques utiles précisions.
– La fonction g est dérivable — donc continue — sur le semi-ouvert ]0, b0 ] et sa
dérivée est strictement positive sur l’ouvert ]0, b0 [. Il est alors bon de savoir que g est
strictement croissante sur le semi-ouvert ]0, b0 ].
– Le même genre d’argumentation montre que g est strictement décroissante sur
[b0 , +∞[.
Il en résulte que g n’atteint son maximum qu’au point b0 .
4. Soit (a, b) appartenant à [0, +∞[×]0, +∞[. Nous avons tour à tour :
Ln (a, b)  Ln (A, b)  Ln (A, b0 ) (∗)
ce qui montre déjà que Ln a un maximum absolu atteint, au moins, au point (A, b0 ).
Supposons pour nir que (a1 , b1 ) soit un point d’atteinte du maximum de Ln . Il devrait
s’ensuivre que :
Ln (a1 , b1 ) = Ln (A, b0 )
ce qui, à la lumière de l’encadrement (∗), impose :
Ln (a1 , b1 ) = Ln (A, b1 ) et Ln (A, b1 ) = Ln (A, b0 )
Oui mais voilà, nous avons vu à la question 2 que la première égalité ne peut avoir lieu que
si, et seulement si, a1 = A et la deuxième — précisions utiles ! — que si, et seulement
si, b1 = b0 . Il semble que nous puissions changer de partie.

Partie 2 Étude d’une loi

1. Il y a, dans l’air, comme un parfum de transfert afne. Soit en effet une variable
aléatoire T suivant la loi exponentielle de paramètre 1. Pour une fois, nous lui choisirons
pour densité la fonction fT dénie sur R par :
⎧ −x
⎨e si x  0
∀x ∈ R fT (x) =

0 si x<0
Comme b = 0, il est bien connu que b T + a est encore une variable à densité dont une
densité, as usual notée fb T +a , est dénie sur R par :
1 x − a
∀x ∈ R fbT +a (x) = f
|b| T b
Ecricome première 185

Comme b est positif, une facile gestion de facettes montre que :

fa,b = fbT +a

et l’affaire est dans le sac.


2. D’après de que nous venons de voir, il existe une variable T de loi E(1) telle que :

X = bT + a

Soit alors x ∈ R. Comme b est strictement positif, on a l’égalité :


x − a
FX (x) = FT
b
et comme nous connaissons par cœur les répartitions exponentielles, nous déduisons :

⎨ 1 − e−(x−a)/b si x  a
FX (x) =

0 si x<a

3. Grâce à nos notations nous avons Y = bT . Au risque de radoter, nous obervons que
b > 0 et que T suit la loi E(1). C’est alors tout à fait ofciellement que nous revendiquons :
1
Y → E
b
On sait désormais que Y possède une espérance et une variance et que :

E(Y ) = b et V (Y ) = b2

Il en résulte très classiquement que X possède également une espérance et une variance
et que :
E(X) = b + a et V (X) = b2

 Nous avions directement ces résultats via la relation X = bT + a sans passer par la
variable Y …
4. Il s’agit d’étudier l’intégrale :
+ +∞
xp e−(x−a)/b dx
a

Elle n’est impropre qu’une fois en plus l’inni et vu que b est strictement positif, une
incontournable prépondérance signale que :

xp+2 e−x/b −−−−→ 0


x→+∞

Il en résulte mentalement que :




x2 xp e−(x−a)/b −−−−→ 0
x→+∞
186 Concours 2007 voie scientifique

ce qui — x2 -shot pour les intimes — devrait sufre à assurer la convergence de notre
intégrale. On rappelle que pour les intégrales de type « moment » il y a équivalence
entre convergence et convergence absolue et nous pouvons alors conclure à l’existence
du moment d’ordre p.
Supposons maintenant p  1. Les deux fonctions :

u : x −→ xp et v : x −→ − e−(x−a)/b

sont de classe C 1 sur la demi-droite [a, +∞[ et, prépondérance classique oblige, le produit
uv a, en plus l’inni, la limite nie zéro. De plus :

1 −(x−a)/b
∀x  a u (x) = pxp−1 et v  (x) = e
b
la première égalité n’étant pas étrangère au fait que p soit supérieur ou égal à un. C’est
alors by parts qu’il en résulte :

E(X p ) = ap + pbE(X p−1 )

 Nous rappelons à notre ami lecteur étudiant qu’il n’est pas autorisé à pratiquer
l’intégration par parties directement sur l’impropre comme nous venons de le faire. Il
doit annoncer s  a puis, pratiquer l’intégration par parties sur la partielle :
+ s
xp e−(x−a)/b dx
a

et enn passer à la limite lorsque s tend vers plus l’inni.


5.i. Pour alléger la situation nous allons nous permettre de noter :

V = − b ln(1 − U ) + a

et nous observons que, vu l’égalité :

U (Ω) = [0, 1[

la variable 1 − U est à valeurs strictement positives ce qui, quelque part, rassure un peu
notre logarithme. Cela étant, soit x ∈ R. Grâce à la stricte positivité de b et aux croissances
respectives du logarithme et de l’exponentielle l’on a, par double inclusion, l’égalité :
   
V  x = U  1 − e−(x−a)/b

Il en résulte dans la foulée que :



FV (x) = FU 1 − e−(x−a)/b

et nous planions un poquit´n :


Ecricome première 187

– Si x < a, le réel u = 1 − e−(x−a)/b est négatif. Répartition U[0,1[ oblige, nous


avons FU (u) = 0 et par conséquent :
FV (x) = 0

– Si x  a le réel u = 1 − e−(x−a)/b appartient cette fois au semi-ouvert [0, 1[ et


nous savons alors que FU (u) = u. Autant dire que :

FV (x) = 1 − e−(x−a)/b
En résumé ⎧
⎨ 1 − e−(x−a)/b si xa
FV (x) =

0 si x<a
Si l’on en croit la récente question 2, la variable V suit effectivement la loi E(a, b).
5.ii. Il suft de demander !
function tirage (a, b : real) : real ;
begin
tirage:= −b ∗ ln(1 − random) + a ;
end ;

Partie 3 Estimation des paramètres a et b

Signalons une chose avant de commencer. La variable Yn n’est sûrement pas le minimum
des variables X1 , . . . , Xn pour la bonne et simple raison que la plupart du temps minimum
il n’y a pas ! En revanche Yn est la borne inférieure — l’inmum — de ces variables. En
d’autres termes :
Yn = inf(X1 , . . . , Xn )
En revanche, et toute la nuance est là, pour chaque ω ∈ Ω, l’on a :


Yn (ω) = min X1 (ω), . . . , Xn (ω)

1. Voici notre proposition :

begin
randomize ;
readln(a, b, n) ;
X := tirage(a, b) ;
S := X ;
Y := X ;
for i := 2 to n do begin
X := tirage(a, b) ;
S := S + X ;
if X < Y then Y := X ;
end ;
writeln(S, Y ) ;
end.
188 Concours 2007 voie scientifique

Rien de bien surprenant à cela. Ce sont de classiques gestions informatiques de sommes


et de minimum.
2. Les variables Xi possèdent espérance et variance. Il en est donc de même de la somme
Sn . De plus, grâce à la linéarité de l’espérance :

E(Sn ) = n(a + b)

et comme les Xi sont indépendantes :

V (Sn ) = nb2

3. Nous savons depuis la question 3 de la partie précédente que, pour chaque entier
i ∈ [[1, n]], la variable Xi − a suit la loi exponentielle E(1/b), c’est-à-dire la loi gamma :

Γ(b, 1)

Les Xi étant indépendantes, d’après le lemme des coalitions, les Xi − a le sont également
et le théorème de stabilité de la loi gamma par addition quand indépendance stipule que :


n
(Xi − a) → Γ(b, n)
i=1

Nous venons donc de démontrer que Sn − na est une variable Γ(b, n). Le théorème du
transfert afne indique alors que Sn est une variable à densité dont une densité fSn est
dénie sur R par :
∀x ∈ R fSn (x) = fSn −na (x − na)

On gère alors les facettes de la loi Γ(b, n) et voilà que :




⎪ (x − na)n−1 e−(x−na)/b

⎨ si x > na
bn (n − 1)!
∀x ∈ R fSn (x) =




0 si x  na

4. Soit x ∈ R. Vu que l’inmum fait bon ménage avec l’antirépartition, nous faisons état
de ce que :
  6 n
 
Yn > x = Xi > x
i=1

Nous passons allègrement sur les — faciles — problématiques tribales et vu que les
variables X1 , . . . , Xn sont indépendantes et équidistribuées, nous avons :

n
p( Yn > x ) = p( X1 > x )

d’où résulte l’égalité :


n
FYn (x) = 1 − 1 − FX1 (x)
Ecricome première 189

La répartition de la loi E(a, b) a déjà été rencontrée plus haut et voilà donc que :

⎪ 1 − e−n(x−a)/b si xa

∀x ∈ R FYn (x) =


0 si x<a

On reconnaît alors la répartition de la loi E(a, b/n) et nous proposons donc :

b
an = a et bn =
n
Il en résulte instantanément que :

b b2
E(Yn ) = a + et V (Yn ) =
n n2

i. Nous avons d’une part :

b
bYn (a) = E(Yn ) − a =
n
Quant au risque quadratique il vaut la variance plus le carré du biais et par conséquent :

2b2
rYn (a) =
n2

ii. On nous demande de rappeler, rappelons !


L’inégalité d’Andreı̈ Markov :
Soit (Ω, T , p) un espace probabilisé et X une variable aléatoire dénie sur cet espace.
On suppose que X possède un moment d’ordre deux. L’on a alors :

E(X 2 )
∀ > 0 p( |X|  ) 
2
Vu ce que nous avons trouvé au i, nous pouvons afrmer que :

bYn (a) −−−−→ 0


n→+∞

ce qui fait que notre suite (Yn ) est effectivement asymptotiquement sans biais. Soit
maintenant > 0. L’inégalité de Markov appliquée à la variable Yn − a qui, entre nous
soit dit, possède bien un moment d’ordre deux, signale que :

rYn (a)
p( |Yn − a|  ) 
2
c’est-à-dire :
2b2
p( |Yn − a|  ) 
n2 2
190 Concours 2007 voie scientifique

Il y a alors un très sympathique squeeze qui montre que :

p( |Yn − a|  ) −−−−→ 0
n→+∞

Autant dire alors que :


P
Yn −−−−→ a
n→+∞

ce qui est la dénition de la convergence ou de la consistance.


5. Nous savons depuis longtemps que toutes les variables en présence possèdent espérance,
variance et autres moments du monde… Il ne s’agit donc ici que de calcul.
i. Nous avons :
1 b
E(Zn ) = E(Sn ) − E(Yn ) = b −
n n
et dans la foulée :
b
bZn (b) = E(Zn ) − b = −
n
ii. La variance étant une forme quadratique, nous revendiquons :
1 2
V (Zn ) = V (Sn ) − cov(Sn , Yn ) + V (Yn )
n2 n
Mais nous avons appris en cours de route que :

b2
V (Sn ) = nb2 et V (Yn ) =
n2
à telle enseigne que, déjà :

b b2 2
V (Zn ) = 2
+ 2
− cov(Sn , Yn )
n n n
Comme il est bien connu que :

2
rZn (b) = V (Zn ) + bZn (b)

compte tenu du i l’on a bien :

b 2b2 2
rZn (b) = 2
+ 2 − cov(Sn , Yn )
n n n

iii. Grâce à la question 1 du préliminaire, en y prenant « le carré par la racine », semble


se dessiner que :
  b2
cov(Sn , Yn )  σ σ = √
Sn Yn n
Notre covariance ne peut donc lutter contre l’inéluctable squeeze qui l’amène à une limite
nulle et qui devrait sufre à convaincre tout le monde de ce que :

rZn (b) −−−−→ 0


n→+∞
Ecricome première 191

Nous en déduirons alors comme supra que :


P
Zn −−−−→ b
n→+∞

et comme à l’évidence :
bZn (b) −−−−→ 0
n→+∞
nous pouvons attaquer la dernière question.
6.i. Soit (a, b) ∈ R+ × R∗+ . Le calcul explicite de L(a, b) demande une solide gestion de
facettes.
– Si tous les xi sont supérieurs ou égaux à a, ce qui revient à :
0  a  min(x1 , . . . , xn )
l’on a :
1 −(x1 +···+xn −na)/b
L(a, b) = e
bn
– Dans le cas contraire, l’un des xi est strictement inférieur à a ce qui entraîne
instantanément :
L(a, b) = 0
Si l’on résume :
⎧ 1


−(x1 +···+xn −na)/b
0  a  min(x1 , . . . , xn )
⎨ bn e si
L(a, b) =



0 si a > min(x1 , . . . , xn )
Tout à l’air de bien se mettre en place si l’on propose :
A = min(x1 , . . . , xn ) et S = x1 + · · · + xn
Encore faut-il pour que tout soit dans l’ordre que S > na, mais cela provient tout bêtement
de l’hypothèse :
min(x1 , . . . , xn ) = max(x1 , . . . , xn )
Elle assure en effet que les xi ne sont pas tous égaux et qu’en conséquence leur somme
est strictement plus grande que n fois le plus petit d’entre-eux.
ii. Nous notons simplement que :
Yn (x1 , . . . , xn ) = min(x1 , . . . , xn ) = A = a0
et :
x1 + · · · + xn S
Zn (x1 , . . . , xn ) = − min(x1 , . . . , xn ) = − A = b0
n n
Le couple :

Yn (x1 , . . . , xn ), Zn (x1 , . . . , xn )
est donc celui qui maximise la fonction Ln .
 La fonction Ln s’appelle fonction de vraisemblance — likelihood in english — relative
à l’échantillon observé (x1 , . . . , xn ). Les estimateurs Yn et Zn sont dits obtenus par la
méthode du maximum de vraisemblance, méthode dûe au mathématicien anglais Ronald
Aylmer Fisher en 1921.
Publication Espace Études Éditions

Coordination éditoriale
Bernard Cier

Révision/Correction
Marie-Claire Vitale

Couverture
Stéphane Mac Donald

Achevé d’imprimer sur les presses


de l’imprimerie TAAG
à Grigny 91350
Tél. : 01 69 25 40 40
Dépôt légal : Premier trimestre 2008

ISBN n° 9-782845-551893
Intégrale,
des prépas, des stages www.prepaintegrale.com
Des prépas
❚ aux Grandes Ecoles de Commerce : ❚ aux IEP Paris - Province
- voie S, voie ES - préparation annuelle et intensive d’été
❚ Admissions parallèles (intégration en 1re et ❚ Préparation au cycle du Master de l’IEP de Paris
2e années) aux Grandes Ecoles de Commerce

❚ Préparation aux concours des IEP


Des stages d’intégration Paris – Province (Bac + 0, Bac +1) vacances de Pâques
❚ Préparation au concours Message (Maîtrise de
❚ Préparation aux Concours des Grandes Ecoles
de Commerce en admission parallèle Sciences de Gestion)
❚ Préparation aux concours des écoles de ❚ Préparation au concours CELSA
commerce : Sésame, Acces, Ipag, Pass, Team ❚ Préparation aux concours des Grandes Écoles de
Commerce pour les voies littéraires

Des stages de perfectionnement et de révisions


❚ Révision et soutien intensifs : ❚ Révision et soutien pour les prépas commerciales :
- pour les Terminales en Maths, Physique, - pré-rentrée et vacances scolaires
Philosophie, Économie ❚ Langues à l’étranger (Londres et Garmisch
- pour les classes de Premières en Français, Partenkirchen)
Maths, Physique, Économie ❚ Formation aux entretiens de personnalité :
❚ Préparation au test d’Anglais d’entrée en Licence 1 - tous niveaux
d’Économie et gestion ou de Droit et Sciences - toutes sections
Politiques (Paris X)

Partenariat, édition, culture


❚ Annales – Méthodologie – Chroniques dans revues
spécialisées
Institut d'enseignement supérieur privé ❚ Cycles de conférences, de concerts 15 €
53, avenue Paul Doumer 75016 Paris 01 40 72 74 60
17, rue Saint Saëns 75015 Paris 01 45 77 35 80