Académique Documents
Professionnel Documents
Culture Documents
en tête
ALGÈBRE
PROBABILITÉS
3e
édition
Xavier GOURDON
les maths
en tête
ALGÈBRE
PROBABILITÉS
3e
édition
Xavier GOURDON
Ancien élève de l’école polytechnique
Du même auteur chez le même éditeur
ISBN 9782340-056763
© Ellipses Édition Marketing S.A., 2021
8/10 rue la Quintinie 75015 Paris
Avant-propos de la troisième édition
Cette troisième édition du tome Algèbre accompagne celle du tome Analyse des maths
en tête. L'évolution principale est un nouveau chapitre portant sur les probabilités, do-
maine qui a enrichit le programme de mathématiques des classes préparatoires scienti-
ques. Comme dans le reste de l'ouvrage, il contient les rappels de cours et des complé-
ments à connaitre ; l'accent a été mis sur les techniques et les thèmes les plus classiques des
probabilités, dans l'esprit des épreuves proposées aux concours des grandes écoles scienti-
ques. Cette nouvelle édition comporte également des extensions d'exercices, renforçant
les thèmes que l'étudiant doit connaître, des améliorations de preuves, de nouveaux exer-
cices et problèmes, toujours dans l'esprit du programme. Enn, malgré le soin porté à la
rédaction de cet ouvrage, il reste toujours des coquilles et je remercie les internautes (par
le biais d'un forum) et Daniel Khoshnoudirad pour les compilations d'erreurs que j'ai pu
récupérer, et qui ont été prises en compte.
xavier.gourdon_livres@yahoo.fr
Avant-propos de la deuxième édition
Plus de dix ans après la sortie de la première édition, cet ouvrage est encore largement
utilisé pour la préparation des concours (grandes écoles, agrégation). Les retours de mes
lecteurs (grâce à internet notamment) sont nombreux et m'ont encouragé à réaliser cette
deuxième édition. Cette dernière contient des corrections de coquilles, quelques retouches
et améliorations de preuves et solutions, ainsi que quelques exercices et problèmes supplé-
mentaires dans l'esprit de l'édition précédente. Une nouvelle annexe (annexe C) propose
une introduction aux fractions continues.
J'espère que les améliorations de cette deuxième édition seront utiles à mes lecteurs
pour la préparation de leur concours. Je remercie chaleureusement les personnes qui m'ont
aidé à apporter ces améliorations, en particulier les internautes dont les commentaires
ont étés nombreux. Enn, cette deuxième édition doit beaucoup à la patience de ma
femme Laurence et de mes enfants, Gaspard, Anne-Sybille et Léopoldine ; je suis inniment
reconnaissant de leur support pendant les longues journées et soirées passées à cette mise
à jour.
Avant-propos de la première édition
Cet ouvrage propose aux étudiants des classes de mathématiques spéciales (programme
M') des rappels et des compléments de cours assez complets, ainsi que des exercices et
des problèmes corrigés. Il pourra également intéresser les élèves préparant l'agrégation.
L'ouvrage est orienté sur la relation étroite qui existe entre le cours et les exercices.
Dans le fond, une bonne lecture du cours amène à s'interroger sur chaque résultat présenté :
à quel niveau intervient-il dans l'articulation du cours, quelles en sont les conséquences,
que se passe-t-il si on modie les hypothèses ? Dans cet esprit, de multiples remarques
ponctuent les parties de cours, mettant en avant ses subtilités, et faisant le lien avec les
exercices qui suivent.
Les parties de cours ne sont pas un substitut au cours du professeur, mais plutôt un
résumé exhaustif qui l'éclaire d'une façon diérente. Les compléments sont des résultats
très classiques qui ne gurent pas au programme mais dont la connaissance est utile
et parfois indispensable pour mener à bien un exercice ou un problème. Les résultats
présentés sont démontrés lorsqu'ils sont à la limite du programme ou lorsqu'ils constituent
un point important dont la démonstration met en place des techniques instructives que
l'étudiant doit connaître et savoir maîtriser.
À la n de chaque section, on trouve une liste d'exercices de dicultés progressives,
classiques ou parfois originaux, qui constituent une illustration du cours qui les précède.
Je me suis eorcé à chaque fois de passer en revue tous les problèmes qui tournent autour
du thème de l'exercice. Les nombreuses références au cours sont là pour inviter le lecteur
à s'y reporter, le but étant de savoir et de comprendre précisément les résultats que l'on
utilise.
Une liste de problèmes ponctue la n de chaque chapitre, ces problèmes étant des
exercices plus longs, plus diciles ou plus originaux que les précédents et faisant appel à
l'ensemble du cours du chapitre. à la n de certains chapitres, on trouve des sujets d'étude
introduisant des théories élégantes dans le thème du chapitre. Deux annexes présentent
des curiosités mathématiques liées au programme d'algèbre.
Les résultats du cours ou les exercices les plus importants sont indiqués par une èche
dans la marge de gauche.
Je tiens enn à remercier toutes les personnes qui m'ont aidé, Erwan Berni, Georges
Papadopoulo et Alexia Stefanou pour la relecture de certains chapitres, le projet Al-
gorithmes grâce à qui j'ai pu donner à mon ouvrage sa version typographique actuelle
et la collection ellipses pour avoir accueilli mon travail.
Je serais reconnaissant à ceux de mes lecteurs qui me feront parvenir leurs remarques
sur cette première édition.
Xavier Gourdon
Table des matières
Chapitre 1. Arithmétique, Groupes et Anneaux 9
1. Arithmétique sur les entiers 9
2. Groupes 19
3. Anneaux 31
4. Problèmes 36
5. Sujets d'étude 47
Chapitre 2. Corps, Polynômes et Fractions Rationnelles 57
1. Corps, polynômes et arithmétique dans K[X] 57
2. Fonction polynôme, racines d'un polynôme 63
3. Fractions rationnelles 75
4. Polynômes à plusieurs indéterminées 82
5. Problèmes 87
6. Sujets d'étude 105
Chapitre 3. Algèbre linéaire : généralités 115
1. Espaces vectoriels 115
2. Applications linéaires 119
3. Matrices 125
4. Dualité 132
5. Formes multilinéaires, déterminants 140
6. Problèmes 155
Chapitre 4. Réductions d'endomorphismes 171
1. Diagonalisation, trigonalisation 171
2. Polynômes d'endomorphismes 184
3. Topologie sur les endomorphismes 192
4. sous-espaces caractéristiques - Réduction de Jordan 201
5. Problèmes 214
Chapitre 5. Espaces euclidiens 239
1. Formes quadratiques - Formes hermitiennes 239
2. Espaces préhilbertiens 252
3. Compléments de cours 267
4. Problèmes 281
Chapitre 6. Probabilités 299
1. Dénombrement 299
2. Espaces probabilisés 318
3. Variables aléatoires discrètes 334
4. Problèmes 364
Annexe A. Résolution des équations du troisième et du quatrième degré 393
1. Introduction 393
2. Techniques historiques 393
7
8 Table des matières
Remarque 1. Des entiers premiers entre eux deux à deux sont premiers entre eux
dans leur ensemble.
Il résulte de la dénition du pgcd que les diviseurs communs à une famille d'entiers
sont les diviseurs du pgcd.
Lorsque a1 , . . . , an sont des entiers, on a
∀a ∈ Z, pgcd (aa1 , . . . , aan ) = |a| pgcd (a1 , . . . , an ).
Le pgcd de deux entiers a et b se note aussi a ∧ b.
Théorème 1 (Bezout). Des entiers a1 , . . . , an sont premiers entre eux dans leur en-
semble si et seulement s'il existe des entiers u1 , . . . , un tels que u1 a1 + · · · + un an = 1.
Remarque 2. Lorsque deux entiers a et b sont premiers entre eux, le théorème de Bezout
assure l'existence d'un couple (u, v) ∈ Z2 tel que au + bv = 1. Il existe un moyen pratique
de calculer un tel couple (u, v), appelé algorithme d'Euclide (voir l'exercice 2).
Théorème 2 (Gauss). Soient a, b et c trois entiers. Si a divise le produit bc et si a et
b sont premiers entre eux, alors a divise c.
Proposition 2. Si un entier a est premier avec des entiers b1 , . . . , bn , alors a est premier
avec le produit b1 . . . bn .
Proposition 3. Soient a1 , . . . , an n entiers premiers entre eux deux à deux et b un
entier. Le produit a1 · · · an divise b si et seulement si pour tout i, ai divise b.
PPCM.
Définition 5. Soient a1 , . . . , an des entiers. Il existe un unique entier naturel d tel que
a1 Z ∩ · · · ∩ an Z = dZ. Ainsi déni, d s'appelle le ppcm de a1 , . . . , an et on note d =
ppcm (a1 , . . . , an ). L'entier d est aussi le plus petit entier naturel non nul multiple de tous
les ai (1 ≤ i ≤ n).
Remarque 3. Il résulte de cette dénition que les multiples communs à une famille
d'entiers sont les multiples de leur ppcm.
On a facilement
∀a ∈ Z, ppcm (aa1 , . . . , aan ) = |a| ppcm (a1 , . . . , an ).
Le ppcm de deux entiers a et b se note aussi a ∨ b.
Proposition 4. Soient a1 , . . . , an des entiers premiers entre eux deux à deux. Alors
ppcm (a1 , . . . , an ) = |a1 · · · an |.
Proposition 5. Pour deux entiers a et b, on a pgcd (a, b) × ppcm (a, b) = |ab|.
1.2. Nombres premiers
Définition 6. On dit qu'un entier naturel p ≥ 2 est un nombre premier si ses seuls
diviseurs sont p, −p, 1 et −1.
Théorème 3 (Théorème fondamental de l'arithmétique). Tout entier naturel
n ≥ 2 s'écrit de manière unique à l'ordre prés sous la forme
n = pα1 1 · · · pαk k , (∗)
où les pi sont des nombres premiers distincts et les αi des entiers naturels non nuls. La
relation (∗) s'appelle la décomposition de n en facteurs premiers .
Remarque 4. Tout entier n, |n| ≥ 2, est divisible par un nombre premier.
1. ARITHMÉTIQUE SUR LES ENTIERS 11
Si n = pα1 1 · · · pαk k et m = pβ1 1 · · · pβkk , où les pi sont des nombres premiers distincts
et les αi , βi des entiers naturels, alors pgcd (n, m) = pγ11 · · · pγkk et ppcm(n, m) =
pδ11 · · · pδkk où γi = inf(αi , βi ) et δi = sup(αi , βi ).
Proposition 6. Si un nombre premier p ne divise pas un entier a, alors p et a sont
premiers entre eux.
Proposition 7. Si un nombre premier divise un produit d'entiers a1 · · · an , il divise au
moins l'un des facteurs ai de ce produit.
Proposition 8. L'ensemble des nombres premiers est inni.
Démonstration. Raisonnons par l'absurde et supposons qu'il y ait un nombre ni de nombres
premiers. Soit N le plus grand d'entre eux. Posons M = N ! + 1 et désignons par p un nombre
premier divisant M . Comme p ≤ N , on a p | (N !), donc p | (M − N !) = 1, ce qui est absurde.
p
Proposition 9. Soit p un nombre premier et k un entier, 1 ≤ k ≤ p − 1. Alors p | .
k
Proposition 10. Soit n ≥ 2 un entier. L'anneau Z/nZ est un corps si et seulement si
n est premier.
Théorème 4 (Fermat). Soit p ≥ 2 un nombre premier. Alors
∀a ∈ Z, ap ≡ a (mod p)
et
∀a ∈ Z, p a, ap−1 ≡ 1 (mod p).
Théorème 5 (Wilson). Un entier p ≥ 2 est un nombre premier si et seulement si
(p − 1)! ≡ −1 (mod p).
Démonstration. Condition nécessaire. Si p = 2 ou p = 3, c'est évident. Pour traiter le cas p > 3,
on commence par rechercher les éléments x du groupe multiplicatif (Z/pZ)∗ égaux à leur inverse.
Ils vérient x2 = 1, c'est-à-dire (x − 1)(x + 1) = 0. Les seuls éléments de (Z/pZ)∗ égaux à leurs
inverses sont donc x = 1 et x = −1. On range les autres 2, 3, . . . , p − 2 en p−3
2 paires d'éléments
{xi , yi } telles que xi yi = 1. Si k = p−3
2 , on peut écrire
k
2 · 3···p − 2 = (xi yi ) = 1 donc (p − 1)! ≡ −1 (mod p).
i=1
Condition susante. Supposons p non premier, et notons a un diviseur de p vériant 1 < a < p.
On a a | [(p − 1)! + 1] par hypothèse, et a | (p − 1)! puisque 1 < a < p, donc a | 1 ce qui est
absurde.
1.3. Exercices
Exercice 1. Déterminer les triplets (a, b, c) ∈ (N∗ )3 tels que
(i) ppcm(a, b) = 42 (ii) pgcd(a, c) = 3 (iii) a + b + c = 29.
Nécessairement, on a donc (a, b, c) = (21, 2, 6), (3, 14, 12) ou (6, 14, 9). Réciproquement, on vérie
facilement que ces triplets sont solution.
Exercice 2. 1/ Soient a et b ≥ 2 deux entiers naturels non nuls premiers entre eux.
Montrer que
∃!(u0 , v0 ) ∈ N2 , u0 a − v0 b = 1, avec u0 < b et v0 < a (∗)
et exprimer en fonction de u0 , v0 , a et b tous les couples (u, v) ∈ Z2 solutions de ua−vb = 1.
2/ Déterminer deux entiers u et v vériant 47u + 111v = 1.
Solution. 1/ Le théorème de Bezout assure l'existence de deux entiers u1 et v1 vériant u1 a −
v1 b = 1. On eectue ensuite la division euclidienne de u1 par b : u1 = bq +u0 , avec 0 ≤ u0 < b. On
obtient (bq + u0 )a − v1 b = 1 = u0 a − v0 b, avec v0 = v1 − aq . Donc −1 ≤ v0 b = u0 a − 1 < u0 a < ba,
et en divisant par b ≥ 2, on tire 0 ≤ v0 < a. Ainsi, notre couple (u0 , v0 ) vérie l'assertion (∗).
Ceci étant, considérons un couple (u, v) vériant ua − vb = 1. En retranchant à (∗), on obtient
(u − u0 )a = (v − v0 )b. (∗∗)
Ceci montre que a | (v − v0 )b et comme a et b sont premiers entre eux, le théorème de Gauss
entraîne a | (v − v0 ). Soit k ∈ Z tel que v = v0 + ka. En remplaçant dans (∗∗), on obtient
(u, v) = (u0 + kb, v0 + ka). Ceci prouve que le couple (u0 , v0 ) est bien l'unique couple vériant
la propriété (∗), et réciproquement, on vérie facilement que les couples de cette forme sont
solutions de ua − vb = 1.
2/ Les nombres 47 et 111 sont premiers entre eux, u et v existent donc. Nous allons les déterminer
grâce à l'algorithme d'Euclide. On eectue d'abord la division euclidienne de 111 par 47
111 = 47 × 2 + 17,
puis on itère en divisant toujours le dividende par le reste, jusqu'à ce que le reste égale 1 :
47 = 17 × 2 + 13, 17 = 13 × 1 + 4, 13 = 4 × 3 + 1.
On part maintenant de 1 = 13 − 4 × 3 et on remonte :
1 = 13 − 4 × 3 = 13 − (17 − 13 × 1) × 3 = 4 × 13 − 3 × 17 = 4 × (47 − 17 × 2) − 3 × 17 =
4 × 47 − 11 × 17 = 4 × 47 − 11 × (111 − 47 × 2) = 26 × 47 − 11 × 111, d'où le résultat avec u = 26
et v = −11.
Remarque. Il existe des résultats analogues sur les polynômes (voir l'exercice 3 page 60).
(mod 6) permet d'obtenir, par récurrence sur n, la relation 4n ≡ 4 (mod 6), vraie pour tout n.
En particulier, 21000 ≡ 4500 ≡ 4 (mod 6), donc il existe un entier naturel q tel que 21000 = 6q + 4.
Il ne reste qu'à écrire
N ≡ 26q+4 ≡ (26 )q · 24 ≡ 1q 24 ≡ 24 ≡ 2 (mod 7),
et le reste recherché est 2.
et pensait que 22 + 1 était premier pour tout n. Mais Euler montra que 22 + 1 =
n 5
Exercice 5. Soit A la somme des chires de 44444444 (écrit dans le système décimal) et
B la somme des chires de A. Que vaut C , la somme des chires de B ?
Solution. L'exercice repose essentiellement sur la remarque suivante.
Tout entier naturel N est congru à la somme de ses chires (en base 10)
modulo 9. (∗)
14 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX
En eet. On peut écrire N = a0 + a1 · 10 + · · · + ap · 10p , où les ai sont des entiers compris entre
0 et 9. La congruence 10 ≡ 1 (mod 9) entraîne 10i ≡ 1 (mod 9) pour tout i donc
p
p
N= ai 10i ≡ ai (mod 9).
i=0 i=0
ce qui montre que b divise an . Les entiers a et b étant premiers entre eux, ceci n'est possible que
si b = 1, d'où le résultat.
Remarque. On en déduit en particulier que la racine n-ième de tout entier N est soit
entière, soit irrationnelle (considérer le polynôme X n − N ).
Malheureusement, ce résultat n'a encore jamais pu être obtenu par des moyens élémen-
taires et simples. On peut cependant le démontrer dans certains cas particuliers (voir le
problème 5 page 40, la partie 6/ du sujet d'étude 2 page 49 ou le problème 11 page 99).
En notant πa,b (x) le nombre de nombres premiers ≤ x de la forme ak + b, le théorème
de Dirichlet assure également que lorsque a ∧ b = 1, on a πa,b (x) ∼x→+∞ π(x)/ϕ(a) (où
π(x) désigne le nombre de nombres premiers ≤ x et ϕ(a) l'indicateur d'Euler de a).
a) Montrer que les nombres (Fn )n∈N sont premiers entre eux deux à deux.
b) En déduire une autre démonstration du fait qu'il y a une innité de nombres premiers.
donc Fn | (Fn+k − 2). Ainsi, le pgcd d de Fn et Fn+k divise Fn+k − 2. Comme de plus d | Fn+k ,
d divise 2, et Fn étant impair, on a nécessairement d = 1.
b) Pour tout n ∈ N, notons pn un facteur premier de Fn . Les Fn étant premiers entre eux deux à
deux, les (pn )n∈N sont distincts deux à deux. On a donc trouvé une innité de nombres premiers.
Remarque. Protons en ici pour rappeler quelques résultats dans l'histoire des nombres
premiers. Les grecs savaient déjà qu'il y en avait une innité. Le gros résultat suivant fut
le théorème des nombres premiers.
Si ∀x > 0, π(x) désigne le nombre de nombres premiers inférieurs à x,
on a π(x) ∼ x/ log(x) lorsque x tend vers l'inni.
Il fut démontré pour la première fois et presque simultanément par J. Hadamard et C. De
la Vallée Poussin en 1896. Les démonstrations les plus classiques de ce résultat font appel
à la fonction ζ de Riemann. Une preuve en est proposée en annexe du tome d'Analyse (à
partir de la deuxième édition).
Exercice 10 (Nombres parfaits). 1/a) Pour tout entier naturel non nul n, on note
σ(n) la somme des diviseurs de n. Exprimer σ(n) en fonction des termes intervenant dans
la décomposition de n en facteurs premiers. Montrer que
n∧m=1 =⇒ σ(nm) = σ(n)σ(m). (∗)
b) On dit qu'un entier naturel non nul n est parfait s'il est égal à la somme de ses diviseurs
autres que lui même (i. e. si σ(n) = 2n). Si 2p − 1 est un nombre premier, montrer que
n = 2p−1 (2p − 1) est un nombre parfait.
c) Réciproquement, démontrer qu'un nombre parfait pair n est de la forme 2p−1 (2p − 1),
où 2p − 1 est nécessairement un nombre premier.
2/ (Nombres parfaits impairs). a) (Théorème d'Euler). Montrer que s'il existe un nombre
parfait impair n, alors il est nécessairement de la forme
n = p1+4α Q2 avec p premier, p ≡ 1 (mod 4), α ∈ N, et Q ∈ N∗ avec p ∧ Q = 1.
(Indication : à partir de la décomposition en facteurs premiers n = pαi i , étudier la valeur
de σ(pαi i ) modulo 4.)
b) Montrer qu'un nombre parfait impair a au moins 3 facteurs premiers distincts.
Solution. 1/a) Si n = pα1 1 · · · pαk k est la décomposition de n en facteurs premiers, on a
k k
pαi i +1 − 1
σ(n) = pβ1 1 pβ2 2 · · · pβk k = (1 + pi + · · · + pαi i ) = .
pi − 1
0≤β1 ≤α1 i=1 i=1
···
0≤βk ≤αk
c) La réciproque est plus délicate. Comme n est pair, il existe un entier p ≥ 2 tel que n =
2p−1 m avec m impair. Le fait que 2p−1 ∧ m = 1 nous autorise à utiliser (∗), de sorte que
σ(n) = σ(2p−1 )σ(m) = (2p − 1)σ(m). Or σ(n) = 2n = 2p m donc (2p − 1) | 2p m, et comme
(2p − 1) ∧ 2p = 1, d'après le théorème de Gauss on a (2p − 1) | m. Autrement dit, il existe ∈ N∗
tel que m = (2p −1). La relation 2p m = 2n = σ(n) = (2p −1)σ(m) entraîne σ(m) = 2p = m+.
Si > 1, m a au moins trois diviseurs distincts qui sont 1, et m, d'où σ(m) ≥ m + + 1,
ce qui est absurde. Donc = 1, m = 2p − 1 et σ(m) = m + = m + 1 ; on en déduit que
1. ARITHMÉTIQUE SUR LES ENTIERS 17
les seuls diviseurs de m sont 1 et m, donc m est un nombre premier. En résumé, on doit avoir
n = 2p−1 (2p − 1) où 2p − 1 est un nombre premier.
2/a) Considérons la décomposition de n en facteurs premiers n = pα1 1 · · · pαk k . D'après 1/a), on a
σ(n) = σ(pα1 1 ) · · · σ(pαk k ). Comme n est un nombre impair, on a 2n ≡ 2 (mod 4). Si n est parfait,
alors σ(n) = 2n donc σ(pα1 1 ) · · · σ(pαk k ) ≡ 2 (mod 4). Ceci implique forcément qu'il existe un et
un seul indice i pour lequel σ(pαi i ) ≡ 2 (mod 4) et que les autres vérient σ(pαi i ) ≡ ±1 (mod 4).
Quitte à renuméroter les pi , on peut donc supposer que
σ(pα1 1 ) ≡ 2 (mod 4) et ∀i ≥ 2, σ(pαi i ) ≡ ±1 (mod 4). (∗∗)
Les pi sont des nombres premiers impairs car n est impair. Nous traitons deux cas selon que
pi ≡ −1 ou 1 (mod 4).
(i) Si pi ≡ −1 (mod 4), alors l'égalité σ(pαi i ) = 1 + pi + · · · + pαi i entraîne
0 (mod 4) si αi est impair,
σ(pαi i ) ≡ 1 + (−1) + · · · + (−1) αi
≡
1 (mod 4) si αi est pair.
D'après (∗∗) on en déduit i ≥ 2 et αi est forcément un nombre pair.
(ii) Lorsque pi ≡ 1 (mod 4), on a
σ(pαi i ) = 1 + pi + · · · + pαi i ≡ αi + 1 (mod 4).
Avec (∗∗), on en déduit que α1 ≡ 1 (mod 4) et que αi est pair pour i ≥ 2.
En résumé, on a forcément p1 ≡ 1 (mod 4), α1 ≡ 1 (mod 4) et dans tous les cas, αi est pair
lorsque i ≥ 2. Le résultat en découle avec p = p1 , α = (α1 − 1)/4 et Q = pα2 2 /2 · · · pαk k /2 .
b) Soit n = pα1 1 · · · pαk k la décomposition en facteurs premiers de n, avec p1 < p2 < . . . < pk . Si
n est parfait, l'égalité σ(n) = 2n entraîne
k k k
σ(n) σ(pαi i ) 1 1 1
2= = αi = 1 + + · · · + αi ≤ . (∗∗∗)
n pi pi pi 1 − 1/pi
i=1 i=1 i=1
Si k = 1, on a p1 ≥ 3 et (∗∗∗) entraîne 2 ≤ (1 − 1/p1 )−1 ≤ 3/2 ce qui est absurde. Si k = 2, alors
p1 ≥ 3 et p2 ≥ 5, donc d'après (∗∗∗) on a 2 ≤ (1 − 1/p1 )−1 (1 − 1/p2 )−1 ≤ (3/2) · (5/4) = 15/8
ce qui est absurde. Donc k ≥ 3.
Remarque. On ne connaît aucun nombre parfait impair, on ne sait même pas s'il y en a.
Outre le résultat 2/a), on sait que s'il en existe un alors il a au moins 1500 chires
décimaux et il a au moins 10 facteurs premiers distincts dont le plus grand est supérieur
à 108 .
Solution. a) Posons
p−1
N = 2(p−1)/2 ! = 2(p−1)/2 (2k + 1)!.
2
L'astuce est de donner une autre expression de N modulo p. On écrit
p−1
N ≡ 2(p−1)/2 (1 · 2 · · · ) ≡ 2 · 4 · · · (p − 1) (mod p),
2
ou encore
N ≡ (2 · 4 · · · (2k)) · ((2k + 2) · · · (4k) · (4k + 2)) (mod p).
Les congruences
2k + 2 ≡ −(2k + 1) (mod p)
2k + 4 ≡ −(2k − 1) (mod p)
..................................
4k + 2 ≡ −1 (mod p)
entraînent
(2k + 2) · (2k + 4) · · · (4k) · (4k + 2) ≡ (−1)k+1 (2k + 1) · (2k − 1) · · · 3 · 1 (mod p)
donc
N ≡ (2 · 4 · · · (2k)) · (−1)k+1 ((2k + 1) · · · 3 · 1) (mod p),
d'où
2(p−1)/2 (2k + 1)! ≡ N ≡ (−1)k+1 (2k + 1)! (mod p),
d'où le résultat car comme p est premier et 2k + 1 < p, on a (2k + 1)! ≡ 0 (mod p).
b) Supposons p = 4k + 3 premier, ainsi que q = 2p + 1 = 8k + 7. Le résultat précédent appliqué
à q = 4(2k + 1) + 3 donne
2(q−1)/2 ≡ 2p ≡ (−1)2k+2 ≡ 1 (mod q)
donc 2p − 1 ≡ 0 (mod 2p + 1). Autrement dit, 2p + 1 divise Mp > 2p + 1 et Mp n'est pas premier.
Remarque. En appliquant b) aux petits nombres premiers, on montre que Mp n'est pas
un nombre premier pour p = 11, 23, 83, 131, 179, 191, 239, 251.
z−y z+y
l'existence d'un nombre premier p divisant z−y
z+y z−y 2 et z+y
2 . L'entier p diviserait 2 + 2 =z
et 2 − 2 = y ce qui est impossible car y ∧ z = 1.
Finalement, il existe (n, m) ∈ N2 , tel que z−y
2 = n et 2 = m . On en déduit x = 2mn,
2 z+y 2
2. Groupes
2.1. Généralités
Définition 1. On appelle groupe un ensemble G muni d'une loi interne ∗ telle que
(i) La loi ∗ est associative (i. e. pour tous x, y, z dans G, (x ∗ y) ∗ z = x ∗ (y ∗ z)).
(ii) Il existe un élément neutre e (i. e. pour tout x ∈ G, x ∗ e = e ∗ x = x).
(iii) Tout élément a un symétrique (i. e. pour tout x ∈ G, il existe y ∈ G tel que x ∗ y =
y ∗ x = e).
Si la loi ∗ est commutative, on parle de groupe commutatif (ou abélien).
Remarque 1. L'élément neutre e de (G, ∗) est unique.
Pour tout x ∈ G, x a un unique symétrique, souvent noté x−1 .
Définition 2. Soit (G, ∗) un groupe ; on dit que H ⊂ G est un sous-groupe de G si la
restriction de la loi ∗ à H lui confère une structure de groupe.
Exemple 1. L'ensemble Z des entiers, muni de la loi d'addition, est un groupe. Pour tout
n ∈ N, nZ est un sous-groupe de (Z, +). Réciproquement, on peut démontrer que tous les
sous-groupes de (Z, +) sont de la forme nZ avec n ∈ N.
Dorénavant, la loi ∗ d'un groupe sera notée multiplicativement (la notation additive
est réservée aux groupes abéliens).
Proposition 1. Soit G un groupe et H ⊂ G. L'ensemble H est un sous-groupe de G si
∅ et pour tout couple (x, y) ∈ H on a xy −1 ∈ H .
et seulement si H =
Proposition 2. Une intersection de sous-groupes d'un groupe G est un sous-groupe de
G.
Remarque 2. Le résultat est faux dans le cas d'une réunion (voir l'exercice 2).
Définition 3. Soit (G, ·) un groupe. On appelle centre de G, noté Z(G), l'ensemble des
éléments de G commutant avec tous les éléments de G. L'ensemble Z(G) est un sous-
groupe de G.
20 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX
Remarque 3. Les classes utilisées dans la preuve du théorème (de la forme Hx) sont
appelées classes à droite suivant le sous-groupe H . On aurait aussi pu considérer
la relation d'équivalence dénie par x R y ⇐⇒ x−1 y ∈ H , dont les classes sont de
la forme xH et sont appelées classes à gauche suivant H .
L'entier Card(G/ R ) est appelé indice de H dans G, et noté [G : H]. On a
Card(G) = [G : H] × Card(H).
Sous-groupes distingués.
Définition 5. Soit G un groupe. Un sous-groupe H de G est dit distingué (ou normal,
ou invariant) dans G si pour tout x ∈ G, xH = Hx.
Exemple 2. Tout sous-groupe d'un groupe abélien G est distingué dans G.
Le centre Z(G) d'un groupe G est distingué dans G. Plus généralement, tout sous-
groupe de Z(G) est un sous-groupe distingué dans G.
Remarque 4. Lorsque H est un sous-groupe distingué de G, on note parfois H G. Il
faut prendre garde à cette notation qui n'est pas transitive. Autrement dit, si L H et si
H G, il est faux d'écrire L G.
Le résultat qui suit est parfois un moyen pratique de montrer qu'un sous-groupe est
distingué.
Proposition 3. Soit G un groupe. Un sous-groupe H de G est distingué dans G si et
seulement si pour tout x ∈ G, xHx−1 ⊂ H .
Groupes quotient. Soit G un groupe. On recherche les relations d'équivalence R sur
G telles que G/R soit un groupe. Un moyen naturel de faire de G/R un groupe est de le
munir de la loi x · y = (xy) (la notation x désigne la classe de l'élément x). Encore faut-il
que (xy) ne dépende pas des représentants x et y des classes x et y , c'est-à-dire que si
x R x et y R y , on veut (xy) R (x y ). Si tel est le cas, on dit que R est compatible avec
la structure de groupe .
On montre que les relations d'équivalence compatibles avec la structure de groupe sont
les relations x R y ⇐⇒ xy −1 ∈ H , où H est un sous-groupe distingué de G (dans ce cas,
les classes à gauche suivant H coïncident avec les classes à droite suivant H ). Muni de la
loi quotient dénie plus haut, l'ensemble quotient G/R est alors un groupe appelé groupe
quotient et noté G/H . Si G est ni, on a Card(G) = Card(G/H) · Card(H).
Exemple 3. Si n est un entier naturel non nul, nZ est un sous-groupe du groupe additif
(Z, +). Ce dernier étant commutatif, on est même assuré du fait que nZ est un sous-groupe
distingué de Z. Ainsi, on peut dénir le groupe quotient Z/nZ (déni tel quel, Z/nZ ne
possède qu'une structure additive ; la structure d'anneau de Z/nZ n'est introduite que
lorsque l'on parle d'anneau quotient voir l'exemple 3 de la partie 3.2).
2. GROUPES 21
( ak = G ) ⇐⇒ ( k ∧ n = 1 ).
Démonstration. Comme G = a, l'assertion ak = G est équivalente à l'existence d'un entier
v tel que akv = a. Ceci s'écrit aussi akv−1 = e, ou encore n | (kv − 1), c'est-à-dire ∃u, v ∈
Z | kv − 1 = un, ce qui équivaut d'après le théorème de Bezout à k ∧ n = 1.
L'orbite Oγ (a) est appelé support du cycle, son cardinal la longueur du cycle, et on note
γ = (a, γ(a), . . . , γ p−1 (a)).
Exemple 5. Une transposition
1 2 3 4 est
un cycle de longueur 2.
Dans S5 , s = (1,
3, 5) =
3 2 5 4
5 est un cycle de support {1, 3, 5} et de longueur 3.
1
L'élément s = 12 21 34 43 de S4 n'est pas un cycle (deux orbites, {1, 2} et {3, 4}).
Remarque 8. Des cycles à supports disjoints commutent.
L'ordre d'un cycle dans le groupe Sn est sa longueur.
d'où le théorème car les (Sx )x∈Θ constituent une famille nie de sous-groupes stricts de G (ce
sont des sous-groupes d'après la proposition 8, diérents de G car x ∈ Z(G), diérents de {e}
car {e, x} ⊂ Gx ).
Remarque 10. Ce dernier résultat est très puissant car il permet d'avoir des renseignements
sur Card(Z(G)) connaissant a priori la forme des ordres des sous-groupes de G (voir
l'exercice 11 page 29, le problème 9 page 44 et le problème 11 page 45). Cependant, cette
formule n'est pas au programme de mathématiques spéciales et il faut au besoin savoir la
redémontrer.
2.5. Exercices
Exercice 1. Soit G un groupe quelconque, soient x, y ∈ G. On suppose que xy est
d'ordre ni p dans G. Montrer que yx est également ni d'ordre p.
Solution. Si x et y commutent, c'est bien sûr évident. Plaçons nous maintenant dans le cas
général. On commence par remarquer que pour tout n ∈ N∗ ,
(xy)n = (xy) · · · (xy) = x (yx) · · · (yx) y = x(yx)n−1 y.
n termes n−1 termes
2. GROUPES 25
Exercice 5. Soit G un groupe, e son élément neutre. On suppose que tout élément x de
G vérie x2 = e.
a) Montrer que G est un groupe abélien.
b) Si G est ni et si G = {e}, montrer qu'il existe un entier n tel que G soit isomorphe
au groupe [(Z/2Z)n , +].
Solution. a) Si x ∈ G l'égalité x2 = e s'écrit aussi x = x−1 . Si x et y sont dans G, on a donc
xy = (xy)−1 = y −1 x−1 = yx.
b) Soit (x1 , . . . , xn ) un système de générateurs minimal de G (il en existe car G est ni). Si α̇ = β̇
dans Z/2Z, alors 2 | α − β donc pour x ∈ G, xα = xβ . Ceci permet d'armer que l'application
ϕ : [(Z/2Z)n , +] → G (α˙1 , . . . , α˙n ) → xα1 1 · · · xαnn
est bien dénie. Le groupe G étant abélien, ϕ est un morphisme de groupe, et il est surjectif
par dénition d'un système de générateurs. Montrons que ϕ est injectif. Soit (α˙1 , . . . , α˙n ) ∈
αn−1
Ker ϕ. S'il existe i tel que α̇i = 1̇, par exemple α˙n = 1̇, l'égalité xα1 1 · · · xn−1 xn = e entraîne
α
xn = xn = x1 · · · xn−1 . Donc (x1 , . . . , xn−1 ) est un système de générateurs, ce qui est absurde
−1 α 1 n−1
puisque (x1 , . . . , xn ) est un système de générateurs minimal. Finalement Ker ϕ = {(0̇, . . . , 0̇)} et
ϕ est injectif. C'est un isomorphisme.
le sous-groupe γ d'ordre p (voir le théorème 4 page 22), ce qui entraîne γ ∈ γ j−i ⊂ H .
Montrons maintenant que H contient tous les cycles d'ordre 3. Comme p > 3, il sut de
remarquer que H contenant tous les cycles d'ordre p, on a
(i, j, k) = (k, j, i, a1 , a2 , . . . , ap−3 )(i, k, j, ap−3 , . . . , a2 , a1 ) ∈ H.
est de cardinal Card(H) . Or (H1 /H) ∩ (H2 /H) = (H1 ∩ H2 )/H est réduit à l'élément neutre de
n
donc Card(H)
n
= 2. Finalement, Card(G) = 2n = 4 Card(H), d'où le résultat.
Exercice 10 (Exposant d'un groupe abélien fini). Soit G un groupe abélien ni.
a) Si x, y sont deux éléments de G d'ordres respectifs m et n, avec m ∧ n = 1, quel est
l'ordre de xy ?
b) On appelle exposant de G le plus grand des ordres des éléments de G et on le note r.
Montrer que r divise Card(G) et que si x ∈ G, l'ordre de x divise r.
c) Montrer que r a les mêmes facteurs premiers que Card(G). En déduire que pour tout
facteur premier p de Card(G), il existe un élément de G d'ordre p.
Solution. a) Si (xy)p = e alors xp = (y −1 )p donc xp ∈ y, d'où (xp )n = xpn = e, donc m | pn.
Or m ∧ n = 1 donc d'après le théorème de Gauss, m | p. De même n | p et les entiers m et n
étant premiers entre eux, mn | p. Or (xy)mn = (xm )n (y n )m = e, l'ordre de xy est donc mn.
b) Par dénition de r, il existe un élément x de G d'ordre r et on a r | Card(G) d'après le
théorème 2 page 21.
Soit y ∈ G, q son ordre. Il s'agit de montrer que q | r. Supposons q r. En écrivant la
décomposition en facteurs premiers de q et r, on voit qu'il existe un nombre premier p vériant
q = pα q
avec α > β ≥ 0 et p ∧ q = p ∧ r = 1.
r = pβ r
Or a = xp est d'ordre r et b = y q est d'ordre pα . D'après a), ab est donc d'ordre r pα > r, ce
β
un sous-groupe de Z(G) et il est donc distingué dans G. Le groupe quotient G/H est d'ordre pα
et d'après l'hypothèse de récurrence, il existe un sous-groupe K de G/H d'ordre pm−1 . Soit π la
surjection canonique de G dans G/H et considérons F = π −1 (K). Comme π est un morphisme de
groupes, F est un sous-groupe de G, et par ailleurs K = π(F ) est isomorphe à F/ Ker π = F/H
ce qui entraîne Card(F ) = Card(K) × Card(H) = pm . D'où le résultat.
Remarque. Ce résultat est un cas particulier du théorème de Sylow (voir le problème 9
page 44).
Exercice 12 (Un théorème de Cauchy sur les groupes finis). On suppose que
la théorie des groupes opérant sur un ensemble est connue (voir la partie 2.4).
Soit G un groupe ni (non forcément abélien) d'ordre h, et soit p un nombre premier
divisant h. On note
S = {(a1 , . . . , ap ) ∈ Gp | a1 · · · ap = e},
Solution. a) Pour tout x ∈ S , on note Gx l'orbite de x et Sx son stabilisateur. On sait que l'on
a p = Card(γ) = Card(Gx ) × Card(Sx ), et p étant premier, Card(Gx ) = 1 ou Card(Gx ) = p.
b) L'application f : S → Gp−1 (a1 , . . . , ap ) → (a1 , . . . , ap−1 ) est bijective puisque chaque élé-
ment (a1 , . . . , ap−1 ) de Gp−1 a un unique antécédent par f qui est (a1 , . . . , ap−1 , (a1 · · · ap−1 )−1 ).
Donc Card(S) = Card(Gp−1 ) = hp−1 .
Soit Θ une partie de S contenant exactement un représentant de chaque orbite Gx . Soit
A = {x ∈ S | Card(Gx ) = 1}. Soit Θ = Θ A. D'après a), ∀x ∈ Θ , Card(Gx ) = p. Or
hp−1 = Card(S) = Card(Gx ) = Card(A) + Card(Gx ).
x∈Θ x∈Θ
3. Anneaux
3.1. Dénitions
Définition 1. Soit A un ensemble muni de deux lois internes notées + et ·. On dit
que (A, +, ·) est un anneau si :
(i) (A, +) est un groupe abélien,
(ii) la loi · est associative,
(iii) le loi · est distributive par rapport à la loi +.
Si la loi · admet un élément neutre, on parle d'anneau unitaire ; si la loi · est commutative,
on parle d'anneau commutatif ; un élément de A est dit inversible s'il l'est pour la loi ·.
Notation. Le neutre de la loi + est souvent noté 0, celui de la loi · est noté 1 (ou e).
Dans toute la suite, (A, +, ·) désigne un anneau.
Définition 2. Un élément a de A est dit diviseur de 0 à droite (resp. à gauche) si a = 0
et s'il existe b = 0 tel que ab = 0 (resp. ba = 0).
Définition 3. Un anneau A est dit intègre s'il est sans diviseur de zéro, autrement dit
si (a = 0, b = 0 =⇒ ab = 0).
Définition 4. Un élément a ∈ A est dit nilpotent s'il existe un entier naturel non nul n
tel que an = 0. L'indice (ou l'ordre) de nilpotence de a est le plus petit entier naturel non
nul n tel que an = 0.
Définition 5. Un sous-ensemble B de A est dit un sous-anneau de A si (B, +, ·) est un
anneau.
Exemple 1. Z est un anneau unitaire intègre.
Z/8Z est un anneau non intègre ( 2̇ · 4̇ = 0̇), dans lequel 2̇ est nilpotent d'indice 3.
L'ensemble des matrices carrées Mn (R), muni des opérations classiques d'addition
et de multiplication de matrices, est un anneau unitaire non intègre.
3.2. Idéaux
Définition 6. Soit I ⊂ A. On dit que I est un idéal de l'anneau A si
(i) (I, +) est un sous-groupe de (A, +),
(ii) ∀(x, a) ∈ I × A, ax ∈ I et xa ∈ I .
Remarque 1. Un idéal est un sous-anneau.
La notion d'idéal est en quelque sorte l'analogue pour les anneaux de la notion de
sous-groupe distingué. En revanche, la notion de sous-anneau est beaucoup moins
utilisée que la notion de sous-groupe.
Si A est commutatif et si x ∈ A, l'ensemble xA = {xa, a ∈ A} est un idéal de A.
Si A est unitaire et si 1 ∈ I où I est un idéal de A, la propriété (ii) d'un idéal
entraîne que I = A. Si un idéal I de A possède un élément inversible x de A, alors
1 = x−1 x ∈ I d'après (ii) et donc I = A.
Lorsque I ⊂ A vérie (i) et vérie seulement ax ∈ I (resp. xa ∈ I ) pour tout
(x, a) ∈ I × A, on dit que I est un idéal à gauche (resp. à droite) de A. Si I est à
la fois idéal à gauche et idéal à droite de A, I est donc un idéal de A (on précise
parfois en disant que I est un idéal bilatère).
Proposition 1. Une intersection d'idéaux de A est un idéal de A. Une somme nie
d'idéaux de A est un idéal de A.
32 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX
Définition 7. Soit (A, +, ·) un anneau commutatif. Un idéal I de A est dit principal s'il
existe x ∈ A tel que I = xA. On note alors I = (x) et on dit que I est engendré par x.
L'anneau A est dit principal s'il est commutatif, unitaire, intègre et si tous les idéaux
de A sont principaux.
Exemple 2. Les anneaux Z et R[X] sont principaux.
Anneaux quotients. Comme pour les groupes, on peut dénir la notion de quotient sur
les anneaux. Étant donnée une relation d'équivalence R sur A, on cherche à faire de A/R
un anneau en le munissant des lois x + y = x + y et x · y = x · y (où x désigne la classe
de x). Si ces lois sont bien dénies (c'est-à-dire que x + y et xy ne dépendent pas des
représentants choisis de x et y ), on dit que R est compatible avec la structure d'anneau.
On montre que les relations d'équivalence compatibles avec la structure d'anneau sont de
la forme x R y ⇐⇒ x − y ∈ I , où I est un idéal de A. Si tel est le cas, A/R est un
anneau (muni des lois dénies plus haut) appelé anneau quotient et noté A/I .
Exemple 3. Pour tout entier n > 0, nZ est un idéal de Z et on peut dénir l'anneau
quotient Z/nZ.
Morphismes d'anneaux.
Définition 8. Soient A et A deux anneaux. On appelle morphisme d'anneaux de A dans
A toute application f : A → A telle que f (x+y) = f (x)+f (y) et f (xy) = f (x)f (y) pour
tous x, y ∈ A. Lorsque f est bijective, on parle d' isomorphisme d'anneaux. L'ensemble
noté Ker f = f −1 ({0}) est appelé noyau de f . C'est un idéal de A qui vérie : (f est
injective ⇐⇒ Ker f = {0}).
Proposition 2. Soient A et A deux anneaux et f : A → A un morphisme d'anneaux.
Si I est un idéal de A et si f est surjectif, alors f (I) est un idéal de A .
Si I est un idéal de A , f −1 (I ) est un idéal de A.
L'image et l'image réciproque par f d'un sous-anneau est un sous-anneau.
Le sous-anneau f (A) est isomorphe à l'anneau quotient A/ Ker f .
Remarque 2. La dernière assertion de la proposition est importante. C'est souvent le
moyen le plus pratique pour montrer qu'un anneau est isomorphe à un anneau quotient.
Caractéristique d'un anneau.
Définition 9. Soit A un anneau unitaire dont l'élément neutre pour la loi · est noté e.
Soit le morphisme d'anneaux f : Z → A n → ne.
Si Ker f = {0}, (i. e. ne = 0 =⇒ n = 0), on dit que A est caractéristique 0.
Si Ker f = {0}, alors Ker f étant un idéal de l'anneau principal Z, il existe un
unique entier naturel non nul c tel que Ker f = cZ. L'image f (Z) est isomorphe à
Z/cZ. L'entier c est aussi le plus petit entier > 0 tel que ce = 0. On dit alors que
A est de caractéristique c. On a d'ailleurs ne = 0 ⇐⇒ c | n.
Proposition 3. La caractéristique d'un anneau unitaire intègre est 0 ou un nombre
premier.
Démonstration. Si la caractéristique c d'un anneau A unitaire intègre est non nulle et si c n'est
pas premier, on peut écrire c = ab avec 1 < a < c et 1 < b < c. Donc 0 = ce = (ae)(be), et A
étant intègre on en déduit ae = 0 ou be = 0, absurde car c est le plus petit entier > 0 tel que
ce = 0.
Définition 10. L'ensemble des inversibles d'un anneau unitaire A, muni de la loi multi-
plicative, est un groupe appelé groupe des inversibles de A.
Proposition 4. Soit un entier n ≥ 2 et k un entier. L'élément k̇ (classe de k dans
Z/nZ) est inversible dans Z/nZ si et seulement si k ∧ n = 1.
Théorème 1 (des Chinois). Soient m et n deux entiers naturels non nuls premiers
entre eux. Les anneaux (Z/mZ) × (Z/nZ) et Z/mnZ sont isomorphes.
Démonstration. On considère l'application
f : Z → Z/mZ × Z/nZ x → (ẋ, x).
C'est un morphisme d'anneaux, de noyau Ker f = {x ∈ Z | m | x et n | x}. Comme m ∧ n = 1,
on a aussi Ker f = {x ∈ Z | mn | x} = mnZ. Donc f (Z) et Z/mnZ sont isomorphes. En
particulier, Card(f (Z)) = Card(Z/mnZ) = mn et donc f (Z) = Z/mZ × Z/nZ. Finalement, on
vient de montrer que Z/mnZ et Z/mZ × Z/nZ sont isomorphes.
Si m et n sont premiers entre eux, d'après le théorème des Chinois, Z/mZ×Z/nZ est isomorphe
à Z/mnZ. En restreignant l'isomorphisme à Gm × Gn , on voit que Gm × Gn est isomorphe à
Gmn . Donc ϕ(mn) = ϕ(m)ϕ(n) (∗∗).
Si maintenant n ≥ 2 est un entier dont la décomposition en facteurs premiers est n = pα1 1 · · · pαk k ,
on a d'après (∗∗) ϕ(n) = ϕ(pα1 1 ) · · · ϕ(pαk k ), d'où le résultat d'après (∗).
3.4. Exercices
Exercice 1. Soit A un anneau unitaire dont l'élément neutre pour la loi · est noté 1.
a) Soit x ∈ A nilpotent. Montrer que 1 − x est inversible.
b) Si n ∈ N∗ (et x toujours nilpotent), simplier l'expression
n
2 2n k
Un = (1 + x)(1 + x ) · · · (1 + x ) = (1 + x2 ).
k=0
Remarque. Le résultat a) appliqué aux matrices carrées entraîne que si N est une matrice
nilpotente, alors I − N est inversible (ceci reste vrai dès que N < 1 où · est une
norme d'algèbre sur les matrices, voir le tome analyse sur les espaces vectoriels normés).
Exercice 2 (Anneau de Boole). Soit A un anneau tel que tout élément de A soit
idempotent (i. e. ∀x ∈ A, x2 = x).
a) Si x ∈ A, montrer que 2x = 0. Montrer que A est commutatif.
b) Montrer que si x, y ∈ A alors xy(x + y) = 0. Que dire si A est intègre ?
Solution. a) Si x ∈ A, alors (2x)2 = 2x donc 4x2 = 2x, ce qui entraîne 4x = 2x puis 2x = 0.
Ceci s'écrit encore x = −x.
Si x, y ∈ A, (x + y)2 = x + y donc x2 + xy + yx + y 2 = x + y = x2 + y 2 , d'où on tire
xy + yx = 0, donc xy = −yx = yx.
b) Si x, y ∈ A, alors xy(x + y) = xyx + xy2 = x2 y + xy2 = 2xy = 0.
Si A est intègre, alors A a au plus deux éléments. En eet, sinon il existe x, y ∈ A distincts et
diérents de 0. Donc (x + y) = 0 (sinon x = −y = y ) et A étant intègre xy(x + y) = 0, absurde.
3. ANNEAUX 35
m−1
m + n − 1 k m−1−k m + n − 1
m+n−1
(x + y)m+n−1 = y n · x y + xm · xk−m y m+n−1−k
k k
k=0 k=m
√
et puisque I est un idéal, ce terme appartient à I . Donc x + y ∈
I.
√
Enn, si a ∈ A et si x ∈ √ I , il existe n ∈ N
√ tel que x ∈ I et donc A étant commutatif,
∗ n
b) Condition nécessaire. Soit M un idéal maximal. Soit x ∈ A tel que ẋ (classe de x dans A/M)
vérie ẋ = 0. Alors x ∈ M de sorte que M + (x) = A (en eet, I = M + (x) est un idéal
contenant M, diérent de M puisque x ∈ M, donc I = A). Donc il existe a ∈ A et m ∈ M tels
que 1 = m + ax, ce qui s'écrit 1̇ = ȧẋ. L'anneau A/M est donc un corps.
Condition susante. Soit I un idéal de A tel que M ⊂ I et M = I . Soit a ∈ I , a ∈ M. On
a ȧ = 0̇ de sorte que A/M étant un corps, il existe b ∈ A, ȧḃ = 1̇. Donc il existe m ∈ M,
ab = 1 + m, d'où 1 = ab − m ∈ I . Donc I = A et M est maximal.
c) Soit M un idéal de A maximal. L'anneau quotient A/M est un corps donc un anneau intègre,
donc M est premier.
36 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX
d) Soit I un idéal de A tel que P ⊂ I et P = I . Comme A est principal, il existe m ∈ P tel que
P = (m) et il existe a ∈ I , I = (a). Comme m ∈ I , il existe q ∈ A tel que m = aq . L'idéal P
étant premier, on a a ∈ P ou q ∈ P . Or a ∈ P sinon P = I . Donc q ∈ P , de sorte qu'il existe
p ∈ A tel que q = mp. Donc m = aq = amp d'où m(1 − ap) = 0 d'où ap = 1 (car A est principal
donc intègre et m = 0 sinon P = 0). Or ap ∈ I , donc 1 ∈ I , donc I = A, d'où le résultat.
Solution. D'après le théorème d'Euler, on sait que aϕ(n) ≡ 1 (mod n) où ϕ désigne l'indicateur
d'Euler. Le résultat sera donc démontré si on prouve ϕ(n) | n!, ce qui est immédiat car ϕ(n) ≤ n.
Solution. Condition nécessaire. Soit (In )n∈N une suite croissante d'idéaux de A. On vérie fa-
cilement que I = ∪n∈N In est un idéal de A. Il est donc engendré par un nombre ni d'éléments
x1 , . . . , xp ∈ I . Or chaque xi appartient à I = ∪n∈N In et donc il existe ni tel que xi ∈ Ini . Si
N = sup1≤i≤p ni , la suite (In ) étant croissante, tous les xi (1 ≤ i ≤ p) appartiennent à IN , et
donc I = (x1 ) + · · · + (xp ) ⊂ IN . Par ailleurs IN ⊂ I puisque I = ∪i∈N In . Donc IN = I , ce qui
entraîne que la suite (In ) est stationnaire pour n ≥ N .
Condition susante. Soit I un idéal de A. Supposons que I ne puisse pas être engendré par un
nombre ni d'éléments. Sous cette hypothèse, nous allons construire une suite (xn ) d'éléments
de I tels que xn+1 ∈ (x1 ) + · · · + (xn ).
- On choisit un élément x1 ∈ I .
- x1 , . . . , xn ∈ I étant supposés construits, on sait que (x1 ) + · · · + (xn ) = I car I ne peut pas
être engendré par un nombre ni d'éléments. On choisit alors xn+1 ∈ I , xn+1 ∈ (x1 ) + · · · + (xn ).
Ainsi, si on pose In = (x1 ) + · · · + (xn ), la suite (In ) est une suite d'idéaux de A strictement
croissante au sens de l'inclusion, ce qui est contraire aux hypothèses. Donc I peut être engendré
par un nombre ni d'éléments, d'où le résultat.
Remarque. Tout anneau principal est noethérien.
4. Problèmes
Problème 1 (Cryptographie : le système de chiffrement RSA). On se donne
deux nombres premiers p et q distincts et on pose n = pq . Soient c, d deux entiers tels que
cd ≡ 1 (mod ϕ(n)) où ϕ désigne l'indicateur d'Euler. Montrer que pour tout t ∈ Z, on a
tcd ≡ t (mod n).
Solution. Les nombres p et q étant premiers et distincts, on a ϕ(n) = (p − 1)(q − 1). Soit k ∈ Z
tel que cd = 1 + kϕ(n). Soit t ∈ Z. Pour prouver que tcd ≡ t (mod n), il sut de prouver
tcd ≡ t (mod p) et tcd ≡ t (mod q) (conséquence de l'isomorphisme de Z/pZ × Z/qZ et Z/pqZ).
Prouvons par exemple tcd ≡ t (mod p) (le calcul modulo q est analogue).
4. PROBLÈMES 37
D'après le théorème de Fermat, p | (ap−1 − 1) puisque par hypothèse p ne divise pas a. On a donc
p | (a2 − 1)(n − 1). Or p ne divise pas a2 − 1, donc p est premier avec a2 − 1 (car p est premier)
et d'après le théorème de Gauss, p | n − 1. Or n − 1 = a2p−2 + · · · + a4 + a2 est une somme paire
de termes de même parité, donc 2 | n − 1. Comme 2 et p sont premiers entre eux, on en déduit
2p | n − 1, donc n est pp-a d'après (∗).
38 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX
Il n'y a qu'un nombre ni de nombres premiers p divisant a(a2 − 1). Comme il y a une innité
de nombres premiers, on en déduit qu'il y a une innité de nombres premiers p > 2 ne divisant
pas a(a2 − 1), donc une innité de nombres pp-a.
2/ a) Soit a un entier et soit i, 1 ≤ i ≤ k. Si pi a, le théorème de Fermat entraîne api −1 ≡ 1
(mod pi ), et comme pi − 1 divise n − 1, on en déduit an−1 ≡ 1 (mod pi ), donc an ≡ a (mod pi ).
Cette dernière égalité reste évidemment vraie si pi | a. Ainsi, pour tout entier a on a montré
an ≡ a (mod pi ). Ceci s'écrit aussi pi | (an − a). Ceci étant vrai pour tout i, on en déduit
n = p1 · · · pk | (an − a) puisque les pi sont premiers entre eux deux à deux. On a donc bien
an ≡ a (mod n).
b) Soit n un nombre de Carmichael et p un nombre premier divisant n. Comme n est un nombre
de Carmichael, n divise pn − p, et comme p2 pn − p (car n ≥ 2), on en déduit p2 n.
On peut donc écrire n = p1 · · · pk , où les pi sont des nombres premiers distincts. Soit i, 1 ≤ i ≤ k.
Il est bien connu que (Z/pi Z)∗ est un groupe cyclique, donc il existe un entier a tel que ȧ soit
d'ordre pi − 1 dans (Z/pi Z)∗ . Comme n est un nombre de Carmichael, on a n | an − a donc
pi | an − a, ou encore an ≡ a (mod pi ). Comme ȧ ∈ (Z/pi Z)∗ , on en déduit an−1 ≡ 1 (mod pi ).
Or l'ordre ȧ dans (Z/pi Z)∗ est pi − 1, donc pi − 1 | n − 1. Ceci est vrai pour tout i, d'où le
résultat.
c) Supposons que n = (a + 1)(b + 1) soit un nombre de Carmichael avec a + 1 et b + 1 premiers
et a = b. On a n = ab + a + b + 1. Or a | n − 1 donc a | b = (n − 1 − ab − a) ; de même b | a.
Donc a = b, ce qui impossible d'après la question précédente.
d) Comme n est un nombre de Carmichael, on a q − 1 | n − 1, et donc q − 1 | (n − 1) − (q − 1) =
q(pr − 1). Or q ∧ (q − 1) = 1 donc d'après le théorème de Gauss, q − 1 | pr − 1. De même
r − 1 | pq − 1, donc nalement (q − 1)(r − 1) | (pr − 1)(pq − 1). Ceci entraîne
(q − 1)(r − 1) | (pr − 1)(pq − 1) − p2 (q − 1)(r − 1) = p2 (r + q) − p(r + q) + 1 − p2 ,
d'où on tire (q − 1)(r − 1) < p2 (r + q). Comme q < r, on a donc (q − 1)2 < 2p2 r (∗). Nous avons
vu plus haut que r − 1 | pq − 1, ce qui entraîne r ≤ pq donc r2 ≤ p2 q 2 , et d'après (∗)
√ r 3 < p 4p r,
2 2 2
Solution. a) Soit m l'ordre de ȧ dans le groupe des inversibles de Z/nZ. Nous allons montrer
que m = n − 1. Supposons m < n − 1. Comme an−1 ≡ 1 (mod n), m | n − 1 et donc il existe un
nombre premier q divisant n − 1 tel que m | (n − 1)/q . Ceci entraîne que a(n−1)/q ≡ 1 (mod n),
ce qui est contraire aux hypothèses.
Donc m = n − 1, ce qui prouve que le groupe des inversibles de Z/nZ admet au moins n − 1
éléments, ce qui n'est possible que si n est premier. D'où le résultat.
b) Pour tout i, notons mi l'ordre de ȧi dans le groupe des inversibles de Z/nZ. Comme an−1 i ≡
α (n−1)/pi
1 (mod n), on a mi | n − 1 = j pj j . Comme de plus ai ≡ 1 (mod n), on a aussi
α
mi pαi i −1 j=i pj j . Ces relations concernant mi permettent d'armer que pαi i | mi , et donc
pαi i | ϕ(n) (où ϕ désigne l'indicateur d'Euler) puisque l'ordre de ai divise l'ordre du groupe des
inversibles de Z/nZ quiest ϕ(n). Ceci étant vrai pour tout i, on en déduit, les pi étant premiers
distincts, que n − 1 = i pαi i | ϕ(n), donc que ϕ(n) ≥ n − 1. Donc le groupe des inversibles de
Z/nZ comporte au moins n − 1 éléments, ce qui n'est possible que si n est premier.
c) Soit m l'ordre de 2̇ dans le groupe des inversibles de Z/nZ. On a 2n−1 ≡ 1 (mod n) donc
m | n − 1 = hp2 . Or 2h ≡ 1 (mod n) donc m h. Finalement, p | m (si p m, alors p étant
premier m ∧ p2 = 1 et donc m | h d'après le théorème de Gauss). Comme m divise l'ordre du
groupe des inversibles de Z/nZ qui est ϕ(n), on en déduit p | ϕ(n) (∗).
Si n = pα1 1 · · · pαk k désigne la décomposition de n en facteurs premiers, on sait que ϕ(n) =
pα1 1 −1 · · · pαk k −1 (p1 − 1) · · · (pk − 1). Comme p n = 1 + hp2 , on a p = pi pour tout i donc il existe
d'après (∗) un indice i tel que p | pi − 1. Autrement dit, il existe un facteur premier q de n tel
que q ≡ 1 (mod p). Soit r l'entier vériant qr = n. On a qr ≡ n ≡ 1 + hp2 ≡ 1 (mod p), donc
r ≡ 1 (mod p). En résumé, on a montré qu'il existe q premier, q | n et r entier tels que qr = n
avec q = 1 + up, r = 1 + vp, u, v ∈ N. Le nombre q étant premier on a d'ailleurs u ≥ 2 (si u = 0,
q = 1 et si u = 1, q est pair).
Supposons r > 1. Alors v ≥ 1. Or on a 1 + hp2 = n = qr = (1 + up)(1 + vp) donc hp =
(uv)p + (u + v), ce qui entraîne
Comme u ≥ 2, (i) entraîne v < (p − 1)/2, et d'après (ii) u ≥ 1 + p/2, donc toujours d'après (i),
v < (p − 1)/(1 + p2 ) < 2. Finalement v = 1, ce qui est absurde car (i) entraînerait u < p − 1 et
(ii) entraînerait u ≥ p − 1.
On a donc forcément r = 1, ce qui entraîne que n = q est premier.
Remarque. Le test c) fut utilisé avec le nombre premier p = 2127 − 1 pour montrer que
n = 1 + 190p2 est premier (Miller et Wheeler, 1951). Les tests de primalité de ce type
permettent de prouver de manière ecace la primalité de nombres entiers ayant une forme
particulière. Par exemple, le record du plus grand nombre premier connu en 2020 est un
nombre de Mersenne (de la forme 2p − 1 avec p premier), d'un peu moins de 25 millions de
chires, établi en 2018 en utilisant le test de Lucas (décrit dans la remarque de l'exercice 4
page 13). Tester la primalité d'un nombre entier donné, sans forme particulière, est un
problème algorithmique beaucoup plus dicile (jusqu'en 2020, les records de tests de
primalité de nombres sans forme particuliere, établissent la primalité d'entiers de quelques
dizaines de milliers de décimales).
Solution. On va prouver que la condition nécéssaire et susante recherchée est que m divise a.
La condition est bien susante, si m | a, il sut de choisir pour f la fonction f (n) = n + (a/m).
40 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX
d'après a). Donc q ≤ p, donc q | p!, donc q | 1 = N − (p!)2 , ce qui est absurde. Il y a donc une
innité de nombres premiers de la forme 4k + 1, k ∈ N.
2/ Supposons Pm ni. Suivons l'indication en considérant
l'entier N = (M p + 1)/(M + 1) =
M p−1 − M p−2 + · · · − M + 1 avec M = K 2 où K = p( n∈Pm n). Comme N > 1, il existe un
m−1
0 ≡ (M 2 )p−1 + · · · + M 2 + 1 ≡ p (mod q)
donc q | p, donc q | M , ce qui est absurde vu que q | M p + 1.
Ainsi, r = 2m p et comme l'ordre de
tout élément de (Z/qZ) divise q − 1, on a 2 p | q − 1 c'est-à-dire q ∈ Pm . Ceci entraîne q | M
∗ m
(∗) entraîne f (b) ≤ f (r ) < f (b), ce qui est absurde. Si r = 0 et r = 0, alors (∗) entraîne
f (b) ≤ sup{f (r), f (r )} < f (b), ce qui est également absurde. On a donc forcément q = q et
donc r = r .
c) Soit α = inf{f (x) | x ∈ A∗ }. Nous allons montrer que x ∈ A∗ est inversible si et seulement si
f (x) = α.
Condition nécessaire. Si x est inversible, alors il existe y ∈ A∗ , xy = 1. Donc ∀z ∈ A∗ , f (z) =
f [x(yz)] ≥ f (x) d'après (i), donc f (x) = α.
Condition susante. Appliquant (ii) à (a, b) = (1, x), on voit qu'il existe (q, r) ∈ A2 tel que
1 = qx + r avec r = 0 ou f (r) < f (x). Cette dernière assertion est impossible car f (x) = α, donc
r = 0 et donc bx = 1. L'élément x est donc inversible (on a aussi xb = 1 car A est commutatif).
2/ a) Soit z = x + iy ∈ C, (x, y) ∈ R2 . En désignant par x0 , y0 ∈ Z les entiers les plus proches
de x et y , on a |x − x0 | ≤ 1/2 et |y − y0 | ≤ 1/2. Ainsi l'entier de Gauss z0 = x0 + iy0 ∈ Z[i]
vérie |z − z0 |2 = (x − x0 )2 + (y − y0 )2 ≤ 1/2, donc |z − z0 | < 1.
b) D'après le résultat de la question 1/a), il sut de montrer que Z[i] est euclidien. Soit (a, b) ∈
Z[i] × Z[i]∗ . D'après la question précédente, il existe q ∈ Z[i] tel que |q − a/b| < 1. En posant
r = a − bq , on a donc a = bq + r avec |r| = |b||a/b − q| < |b|, ce qui montre qu'en prenant
f (z) = |z|2 = x2 + y 2 pour z = x + iy ∈ Z[i]∗ , (ii) est vérié. Or pour tout x ∈ Z[i]∗ , f (x) ≥ 1,
donc ∀y ∈ Z[i]∗ , f (xy) = f (x)f (y) ≥ f (y). La condition (i) est donc vériée. Finalement, Z[i]
est euclidien.
c) D'après 1/c), les inversibles de Z[i] sont les éléments z vériant f (z) = |z|2 = 1. Ce sont donc
1, −1, i et −i.
Remarque. Les anneaux euclidiens généralisent les propriétés de la division euclidienne
des anneaux Z et K[X] (on a f (x) = |x| pour Z et f (P ) = deg(P ) pour K[X]).
Problème 7. Soit G un groupe ni tel que pour tout entier d ≥ 1, l'équation xd = e
(où e désigne le neutre de G) a au plus d solutions dans G. Montrer que G est un groupe
cyclique.
Solution. Notons n l'ordre du groupe G. Pour tout entier d divisant n, notons Ψd l'ensemble des
éléments de G d'ordre d. L'ordre de tout élément de G divise n, donc la famille (Ψd )d|n forme
une partition de G. Si ψd = Card(Ψd ), on a donc d|n ψd = n (∗).
Nous allons maintenant montrer que si d | n, ψd ≤ ϕ(d) (∗∗) où ϕ désigne l'indicateur
d'Euler. Si ψd = 0, c'est terminé. Sinon ψd ≥ 1 et donc il existe x0 ∈ Ψd . Tous les éléments x de
x0 vérient alors xd = 1. Or x0 a d éléments et l'équation xd = e a au plus d solutions. Les
éléments qui vérient xd = e sont donc les éléments de x0 . Donc Ψd ⊂ x0 et Ψd correspond
donc à l'ensemble des générateurs de x0 qui, d'après la proposition 5 page 22, est de cardinal
ϕ(d). Donc
ψd = ϕ(d), d'où (∗∗).
Or d|n ϕ(d) = n (voir proposition 6 page 34). De (∗) et (∗∗) on en déduit que pour tout
diviseur d de n, on a ψd = ϕ(d). En particulier ψn = ϕ(n) > 0, donc il existe au moins un
élément d'ordre n, d'où le résultat.
Remarque. Il découle de ce problème le résultat annoncé dans la remarque de l'exercice 10
page 28.
b) Déterminer le centre de Dn .
2/a) Soit G un groupe ni non-abélien. Montrer que G/Z(G) est non-cyclique. Montrer
que G/Z(G) peut être abélien.
b) Montrer que la probabilité p que deux éléments de G commutent est inférieur à 5/8,
et exhiber un cas où on a p = 5/8.
Solution. 1/a) Le sous-groupe Dn+ de Dn formé de ses isométries directes, est constitué des
rotations qui conservent Pn , c'est donc l'ensemble des rotations rk d'angle 2kπ/n pour 0 ≤ k ≤
n − 1. Par ailleurs, Pn est conservé par la symétrie σ par rapport à l'axe y = 0. On en déduit
{σ j r1k | j ∈ {0, 1}, 0 ≤ k < n} ⊂ Dn . Réciproquement si µ ∈ Dn , alors soit µ est une isométrie
directe donc µ = rk = r1k pour 0 ≤ k < n, soit σµ est une isométrie directe, donc σµ = r1k pour
0 ≤ k < n, donc µ = σr1k . On a donc Dn = {σ j r1k | j ∈ {0, 1}, 0 ≤ k < n} et comme les σ j r1k
pour j ∈ {0, 1}, 0 ≤ k < n sont tous distincts, on a bien |Dn | = 2n.
Dn est non-abélien, car σr1 (S0 ) = σ(S1 ) = Sn−1 et r1 σ(S0 ) = r1 (S0 ) = S1 , donc σr1 = r1 σ .
b) Soit µ ∈ Z(Dn ). On a σµ = µσ, en particulier σµ(S0 ) = µσ(S0 ) = µ(S0 ), donc µ(S0 ) est
invariant par σ , donc µ(S0 ) est sur l'axe y = 0.
Si n est impair, ceci entraîne µ(S0 ) = S0 (car µ(S0 ) ∈ Pn , et le seul point de Pn sur y = 0
est S0 ). Les seules isométries de Dn qui conservent S0 sont Id et σ ; comme µ ∈ Z(Dn )
et σr1 = r1 σ (vu plus haut), on a donc forcément µ = Id, donc Z(Dn ) = {Id}.
Si n est pair, les points Sk de l'axe y = 0 sont S0 et Sn/2 donc µ(S0 ) ∈ {S0 , Sn/2 }.
Si µ(S0 ) = S0 on a vu plus haut que µ = Id. Si µ(S0 ) = Sn/2 , alors µ = σ j r1n/2 avec
j ∈ {0, 1}. Comme r1 µ = µr1 ceci entraîne
r1 σ j (Sn/2−1 ) = r1 µ(Sn−1 ) = µr1 (Sn−1 ) = µ(S0 ) = Sn/2 .
Comme G est non-abélien, d'après 2/a) le groupe quotient G/Z(G) n'est pas cyclique, donc
son ordre n'est pas un nombre premier, donc |G/Z(G)| ≥ 4. On en déduit |Z(G)| ≤ n/4. En
remplaçant dans (*) on en déduit p ≤ 5/8.
L'égalité se produit lorsque |Z(G)| = n/4 et |Ga | = n/2 pour tout a ∈ Z(G), ce qui est le
cas pour le groupe diédral G = D4 .
44 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX
résultat.
Ainsi, l'application
σg : X → X x → gx
est bien dénie, et il est facile de vérier que c'est une permutation de X . Comme σgg = σg ◦ σg ,
l'application
ϕ : G → S g → σg
(où S désigne le groupe des permutations de X ) est un morphisme de groupes. On en déduit que
Im ϕ est isomorphe à G/ Ker ϕ, donc que Card(Im ϕ) = Card(G)/Card(Ker ϕ). De plus Im ϕ est
un sous-groupe de S , donc Card(Im ϕ) | Card(S) = p!. Finalement,
Card(G)
| p! .
Card(Ker ϕ)
Comme p est premier et que c'est le plus petit facteur premier de Card(G), on en déduit facile-
ment que Card(G)/Card(Ker ϕ) divise p. Ainsi, Card(Ker ϕ) ≥ Card(G)/p = Card(H). Un peu
d'attention montre que
Ker ϕ = {g ∈ G | ∀x ∈ G, x−1 gx ∈ H}, (∗)
en particulier Ker ϕ ⊂ H . Comme Card(Ker ϕ) ≥ Card(H), ceci entraîne Ker ϕ = H . D'après
(∗), ceci s'écrit ∀g ∈ H, ∀x ∈ G, x−1 gx ∈ H , c'est-à-dire que H est distingué dans G.
β ) L'ordre de D étant un nombre premier, D est cyclique donc il existe x0 ∈ D tel que D = x0 .
Pour tout entier p, m p, on note ϕp : D → D x → xp . Comme D est abélien (car
cyclique), ϕp est un morphisme de groupe. Or si xp = e alors x = e (sinon x est d'ordre m donc
m | p, contradictoire). En d'autres termes, Ker ϕp = {e}. Le morphisme ϕp est donc injectif,
donc bijectif (ϕp va de D dans D et D est ni). En résumé, on a montré que ϕp ∈ A(D).
Soit f : (Z/mZ)∗ → A(D) ṗ → ϕp .
f est bien dénie (si ṗ = q̇ , alors m | (p − q) donc ϕp = ϕq ).
f est un morphisme de groupe : ϕpq = ϕp ◦ ϕq .
f est injective. En eet, si ṗ ∈ Ker f , alors ϕp =IdD donc xp0 = x0 donc p ≡ 1 (mod m).
Ainsi, Ker f = {1̇}.
f est surjective. En eet. Soit ϕ ∈ A(D). Il existe p, 1 ≤ p ≤ m − 1, tel que ϕ(x0 ) = xp0 (car
si ϕ(x0 ) = e alors ∀k, ϕ(xk0 ) = e et ϕ n'est pas bijective). Soit y ∈ D. Il existe q ∈ Z tel que
y = xq0 , donc ϕ(y) = ϕ(xq0 ) = ϕ(x0 )q = xpq 0 = y . Donc ϕ = ϕp = f (ṗ).
p
S'il n'existe aucun sous-groupe de G d'ordre q , alors pour tout i on a forcément Card(Hi ) = p
(car Card(Hi ) | pq , = 1, = pq et = q ). L'équation aux classes s'écrit donc pq = 1 + qCard(I),
donc 1 = q(p − Card(I)), absurde. Il existe donc au moins un sous-groupe de G d'ordre q .
c) Supposons qu'il existe deux sous-groupes distincts K1 et K2 d'ordre q. Alors K1 ∩ K2 = {e}
(car K1 ∩ K2 est un sous-groupe de K1 , son cardinal divise donc q , donc vaut 1 ou q car q est
premier . Si son ordre est q , c'est que K1 = K2 ). L'application f : K1 ×K2 → G (x1 , x2 ) → x1 x2
est donc injective (si x1 x2 = y1 y2 , alors x−1
1 y1 = x2 y2 ∈ K1 ∩ K2 donc x1 y1 = x2 y2 = e).
−1 −1 −1
Donc Card(G) ≥ Card(K1 × K2 ) = q , absurde car p < q . Il n'y a donc qu'un seul sous-groupe
2
K d'ordre q .
Montrons que K est distingué dans G. Si x ∈ K et si a ∈ G, alors (axa−1 )q = axq a−1 =
aea−1 = e, donc axa−1 est d'ordre q ou 1 (q est premier), donc axa−1 ∈ K d'après l'unicité d'un
sous-groupe d'ordre q . Le sous-groupe K est donc distingué dans G.
d) Le sous-groupe K étant cyclique (car d'ordre q premier), il est commutatif. Donc K ⊂ K .
Or K est un sous-groupe de G, donc Card(K ) | pq . Or Card(K ) ≥ Card(K) = q > p > 1 donc
Card(K ) ∈ {q, pq}. Si Card(K ) = pq , c'est que K = G et en retournant à la dénition de K ,
ceci entraîne K ⊂ Z(G) = {e}, ce qui est absurde. Donc Card(K ) = q , donc K = K .
D'après 1/b), K = K étant distingué dans G, G/K est isomorphe à un sous-groupe de A(K).
Donc p = Card(G)/K divise Card(A(K)). Or d'après 1/b)β ), A(K) est isomorphe à (Z/qZ)∗ .
Donc Card(A(K)) = q − 1, donc p | (q − 1).
3/ Comme p (q − 1), G est abélien d'après 2/. D'après la question a) du problème 9, on peut
donc trouver deux sous-groupes H1 et H2 de G d'ordre p et q . Les nombres p et q étant premiers,
H1 et H2 sont cycliques et donc il existe x ∈ H1 d'ordre p et y ∈ H2 d'ordre q . L'élément z = xy
est alors d'ordre pq (si z m = e alors xm = y −m donc xmq = e donc p | mq donc p | m d'après le
théorème de Gauss ; de même q | m donc pq | m), donc G = z est cyclique.
5. SUJETS D'ÉTUDE 47
Remarque. Le résultat de cet exercice est un cas particulier du résultat suivant : si G est
un groupe ni d'ordre n et si n et ϕ(n) sont premiers entre eux (où ϕ désigne l'indicateur
d'Euler), alors G est cyclique.
Nous avons redémontré dans 2/a) le résultat de la question 2/a) du problème 8 page 42,
qui arme que pour G non abélien, G/Z(G) ne peut pas être cyclique.
5. Sujets d'étude
Sujet d'étude 1 (Théorème de Tchébycheff). Pour tout x ∈ R, on note [x] sa
partie entière. Si n ≥ 2, on note P(n) l'ensemble des nombres premiers ≤ n, et π(n) =
Card(P(n)). Enn, si n ∈ N∗ et si p est un nombre premier, on note vp (n) le plus grand
entier naturel α tel que pα | n (valuation p-adique de n).
1/ Montrer que si n est un entier, n ≥ 2, le coecient binomial C2n
n
vérie
4n n
√ < C2n < 4n .
2 n
2/a) Si k ∈ N∗ , montrer C2k+1
k
< 4k .
b) En déduire que pour n ≥ 2, Pn = p∈P(n) p < 4n .
3/ Montrer que si n ≥ 14, π(n) ≤ n/2 − 1.
4/ Si n ∈ N et p est premier, montrer
∞
n
vp (n!) = .
i=1
pi
2n
n k
C2n < C2n = (1 + 1)2n = 4n .
k=0
Montrons
√ l'autre inégalité par récurrence sur n ≥ 2. Pour n = 2, c'est vrai car C4 = 6 >
2
n+1 2n + 1 n 2(2n + 1) 4n 2n + 1
C2n+2 =2 C2n > · √ = √ 4n+1 ,
n+1 n+1 2 n 2 4n(n + 1) n + 1
et il sut alors de voir que 4n(n + 1) < (2n + 1)2 = 1 + 4n(n + 1).
48 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX
n n
∞ ∞
n
vp (n!) = vp (k) = δki = δki .
k=1 k=1 i=1 i=1 k=1
Pour tout i, nk=1 δki représente le nombre d'entiers k, 1 ≤ k ≤ n tels que pi | k. Ces
entiersi sont
de la forme pi où ∈ N∗ et ≤ n/pi , donc au nombre de [n/pi ]. Donc vp (n!) = ∞ i=1 [n/p ].
5/ Notre point de départ est la formule suivante (conséquence immédiate du résultat de la
question précédente) :
∞
n 2n n
r = vp (C2n ) = vp [(2n)!] − 2vp (n!) = −2 . (∗)
pk pk
k=1
Lorsque x ∈ R, les inégalités 2x−1 < [2x] ≤ 2x et x−1 < [x] ≤ x entraînent −1 < [2x]−2[x] < 2,
et comme [2x] − 2[x] est entier, on a
0 ≤ [2x] − 2[x] ≤ 1. (∗∗)
Lorsque pk > 2n, [2n/pk ] = [n/pk ] = 0 donc on peut se restreindre dans la somme (∗) aux indices
k tels que pk ≤ 2n, ou encore k ≤ log(2n)/ log p, ce qui entraîne
n 2n n log(2n)
r = vp (C2n )= k
− 2 ≤ 1≤ .
p pk log p
1≤k≤log(2n)/ log p 1≤k≤log(2n)/ log p
6/ Les hypothèses sur p s'écrivent aussi 2n/p < 3 et n ≥ p, donc [2n/p] ≤ 2 et [n/p] ≥ 1.
Les inégalités (∗∗) entraînent alors nécessairement [2n/p] − 2[n/p] = 0. Lorsque k ≥ 2, on a
pk ≥ p2 > 4n2 /9, ce qui pour n ≥ 5 donne pk > 2n et donc [2n/pk ] = [n/pk ] = 0. Ainsi
∞
n 2n n
∀n ≥ 5, vp (C2n )= −2 = 0,
pk pk
k=1
et comme Rn Qn = C2n
n , on tire de 1/
4n 4n/3
Rn Q n > √ donc Rn > √ √ .
2 n 2 n(2n) n/2
8/ La première partie de cette question se résout facilement (en utilisant par exemple une étude
de fonctions
√
ou une récurrence
√
sur
√
x). Traitons maintenant la seconde partie. Lorsque n ≥ 450,
on a 2n/6 ≥ 5 donc 2 2n/6 > 2n, d'où
√ √ √√ √
2n/3 = (2 2n/6 2n
> ( 2n) 2n = (2n) n/2 .
) (∗∗∗)
√
On a aussi 2n/9 ≥ 7, donc 22n/9 > 4n donc 2n/3 > (4n)3/2 > 4n n. En combinant cette dernière
inégalité avec (∗∗∗), on obtient
4n/3 √
√ > 2n/3 > 4n n,
(2n) n/2
d'où le résultat d'après 7/.
9/a) D'après 8/ et 7/, si n ≥ 450, on a (2n)π(2n)−π(n) > Rn > 2n, donc π(2n) − π(n) ≥ 2.
Il reste à vérier le résultat pour 6 ≤ n ≤ 450. Les nombres premiers 7, 11, 13, 19, 23, 37,
43, 73, 83, 139, 163, 277, 317, 547, 631 susent à l'armer.
b) Pour n = 4 c'est vrai (4 < 5 < 6) ainsi que pour n = 5 (5 < 7 < 8). Pour n ≥ 6, il existe
d'après 9/a) deux nombres premiers p tels que n < p < 2n, donc il en existe au moins un vériant
n < p < 2n − 2.
Remarque. Ce résultat fut conjecturé par J. Bertrand en 1845 et démontré pour la pre-
mière fois par Tchébyche en 1850.
Application 1. 5/a) (Un test de primalité.) Soient h et m deux entiers tels que m ≥ 2 et
1 ≤ h ≤ 2m − 1. On pose n = h2m + 1. Soit p > 2 premier tel que ( np ) = −1. Montrer que
n est premier si et seulement si p(n−1)/2 ≡ −1 (mod n).
b) (Test de Pépin). On rappelle que les nombres de Fermat sont les nombres de la forme
Fk = 22 + 1 où k ∈ N∗ (voir l'exercice 4 page 13). Montrer que Fk est un nombre premier
k
b) On écrit
a p
ṡ = ȧ (1̇ · 2̇ · · · ṗ ) = ȧ(2̇ȧ) · · · (ṗ ȧ) = es (a) ṡa .
p
ṡ∈S ṡ∈S ṡ∈S
Comme f est bijective, ṡ∈S ṡ = ṡ∈S ṡa , et ce terme étant non nul, on obtient
a
≡ es (a) ≡ (−1)µa (mod p),
p
ṡ∈S
d'où le résultat.
4/a) Nous allons établir la preuve à l'aide d'un dessin (voir la gure ci contre). Remarquons déjà
que p et q étant premiers et distincts, ils sont premiers entre eux. Autrement dit, dans la gure,
aucun point à coordonnées (i, j) entières (1 ≤ i ≤ p , 1 ≤ j ≤ q ) ne rencontre la diagonale
OC . Soit s ∈ N, 1 ≤ s ≤ p . [sq/p] représente le nombre de points à coordonnées entières,
d'abscisse s, d'ordonnée > 0, se trouvant sous la diagonale OC . Le nombre Sq,p = ps=1 [sq/p]
représente donc le nombre de points à coordonnées entières d'ordonnées > 0 dans le rectangle
OP RQ se trouvant sous la diagonale OC . Pour des raisons analogues, Sp,q représente le nombre
de points à coordonnées entières d'abscisse > 0 dans le rectangle OP RQ se trouvant au dessus
de la diagonale OC . La somme Sp,q + Sq,p est donc le nombre de points à coordonnées entières
dans le rectangle OP RQ d'abscisse et d'ordonnées > 0, c'est-à-dire Sp,q + Sq,p = p q .
B C
q
Q
q
R
P A
O p p
Supposons qu'il y ait un nombre ni de nombres premiers de la forme 10n − 1, n ∈ N∗ . Nous
les notons p1 , · · · , pk . Posons N = −1 + 22 32 5(p1 · · · pk )2 . Soit p un nombre premier divisant N .
Comme (2 · 3 · 5) | N + 1, p > 5. Par ailleurs,
1 ≡ 22 32 5(p1 · · · pk )2 (mod p) donc 5 ≡ (2 · 3 · 5p1 · · · pk )2 (mod p),
donc 5̇ est un carré dans Fp . Donc p ≡ ±1 (mod 10). Si p ≡ −1 (mod 10), alors il existe i tel
que p = pi et donc p | N + 1, ce qui est absurde puisque p | N . Nous venons donc de montrer
que tout diviseur premier p de N vérie p ≡ 1 (mod 10), ce qui en écrivant la décomposition
en facteurs premiers de N entraîne N ≡ 1 (mod 10). Ceci est absurde puisque la forme de N
entraîne N ≡ −1 (mod 10). Il y a donc une innité de nombres premiers de la forme 10n − 1,
n ∈ N∗ .
Remarque. On retrouve avec la question 2/b) le résultat 1/a) du problème 5 (page 40).
Le résultat de 6/a) est un cas particulier de la question 2/ de ce même problème.
Les nombres de Fermat Fk sont premiers pour k ≤ 4. On n'a jusqu'ici jamais trouvé
d'autres nombres de Fermat premiers, et on ne sait pas s'il y en a. On sait que Fk n'est
pas premier pour 5 ≤ k ≤ 32. Le test de Pépin a été utilisé en 1999 pour montrer que F24
n'est pas premier.
Sujet d'étude 3 (Sur les entiers somme de deux carrés). Le but de ce sujet
d'étude est de donner une condition nécessaire et susante sur n pour qu'un entier n soit
somme de deux carrés.
On note A2 = {x2 + y 2 | (x, y) ∈ Z2 }. On suppose connu le résultat 1/a) du problème 3 :
Si p > 2 est premier, alors
−1̇ est un carré dans Z/pZ ⇐⇒ p≡1 (mod 4) (∗).
Solution. 1/ Soit X = x21 + x22 et Y = y12 + y22 deux éléments de A2 . On peut écrire X et Y
comme le carré des modules des nombres complexes x = x1 + ix2 et y = y1 + iy2 . Il sut ensuite
de remarquer que XY = |xy|2 = (x1 x2 + y1 y2 )2 + (x1 y2 − x2 y1 )2 .
2/a) D'après (∗), −1̇ est un carré dans Z/pZ. Autrement dit, il existe x ∈ Z,tel que −1 ≡ x2
(mod p). On peut même choisir x tel que 0 ≤ x ≤ p − 1. Comme x2 + 1 ≡ 0 (mod p), il existe
m ∈ Z tel que x2 + 1 = mp, et comme 0 ≤ x ≤ p − 1, on a 0 < m < p, d'où le résultat.
b) Par hypothèse, il existe x, y ∈ Z tels que x2 + y2 = m0 p (∗∗). Si m0 divise x et y , alors
m20 | (x2 + y 2 ) donc m0 | p, ce qui est absurde puisque 1 < m0 ≤ m < p. Donc m0 ne divise pas
x ou ne divise pas y . En désignant par c et d les entiers les plus proches de x/m0 et y/m0 , les
entiers x1 = x − cm0 et y1 = y − dm0 vérient
1 1
|x1 | ≤ m0 , |y1 | ≤ m0 et x21 + y12 > 0.
2 2
54 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX
3/ En déduire le théorème de Lagrange : tout entier naturel est somme de quatre carrés
d'entiers.
Solution. 1/ Pour la première partie de la question, il sut d'écrire
|xz + yt|2 + |xt − yz|2 = (xz + yt)(xz + yt) + (xt − yz)(xt − yz)
= (|xz|2 + |yt|2 + xzyt + xzyt) + (|xt|2 + |yz|2 − xtyz − xtyz)
= |xz|2 + |yt|2 + |xt|2 + |yz|2 = (|x|2 + |y|2 )(|z|2 + |t|2 ).
Maintenant, considérons X = x21 + x22 + x23 + x24 et Y = y12 + y22 + y32 + y42 deux éléments de A4 .
Appliquons la relation précédente avec x = x1 + ix2 , y = x3 + ix4 , z = y1 + iy2 et t = y3 + iy4 .
On a X = |x|2 + |y|2 et Y = |z|2 + |t|2 . Le carré du module d'un élément de Z[i] étant la somme
de deux carrés d'entiers, on en déduit que XY = |xz + yt|2 + |xt − yz|2 est somme de quatre
carrés d'entiers, d'où le résultat.
2/a) D'après la question 1/ du sujet d'étude 2, on a Card{x2 | x ∈ (Z/pZ)∗ } = (p − 1)/2. En
comptant 0̇, on voit donc que Γ = {x2 | x ∈ Z/pZ} a (p + 1)/2 éléments. De l'injectivité de
l'application Z/pZ → Z/pZ y → −1−y , on voit que Γ = {−1−y 2 | y ∈ Z/pZ} a aussi (p+1)/2
éléments. Donc Γ∩Γ = ∅ (car si Γ∩Γ = ∅, alors p = Card(Z/pZ) ≥ Card(Γ)+Card(Γ ) = p+1,
absurde), ce qui entraîne l'existence de x, y ∈ Z/pZ tels que −1̇ − y 2 = x2 , d'où le résultat.
b) D'après la question précédente, il existe x, y ∈ Z tels que −1 ≡ x2 + y2 (mod p). On peut
même supposer 0 ≤ x < p et 0 ≤ y < p, et quitte à changer x en p − x, y en p − y , supposer
0 ≤ x ≤ (p − 1)/2 et 0 ≤ y ≤ (p − 1)/2. Comme p | 1 + x2 + y 2 , il existe m ∈ Z tel que
1 + x2 + y 2 = mp. Donc 0 < mp ≤ 1 + 2( p−1 2 ) < p , d'où 1 ≤ m < p.
2 2
c) Supposons m0 pair. Soient x1 , x2 , x3 , x4 ∈ Z tels que m0 p = x21 + x22 + x23 + x24 . Comme m0
est pair, les éléments x1 , x2 , x3 , x4 sont (i) soit tous pairs, (ii) soit tous impairs, (iii) soit deux
d'entre eux sont pairs et deux sont impairs, et quitte à renuméroter, on peut supposer x1 , x2
pairs et x3 , x4 impairs. Dans tous les cas, les éléments
x 1 − x2 x 1 + x2 x 3 − x4 x 3 + x4
, , ,
2 2 2 2
sont des entiers. Comme
2 2 2 2
m0 x1 − x 2 x1 + x 2 x3 − x 4 x3 + x 4
p= + + + ,
2 2 2 2 2
l'hypothèse de minimalité de m0 est contredite. Donc m0 est impair.
d) Si x1 , x2 , x3 , x4 ∈ Z sont tels que m0 p = x21 +x22 +x23 +x24 , si x = x1 +ix2 et y = x3 +ix4 ∈ Z[i],
alors m0 p = |x|2 + |y|2 .
e) Montrons auparavant le résultat suivant :
1
∀Z = a + ib ∈ C, ∃Z ∈ Z[i] tel que |Z − Z |2 ≤ . (∗)
2
Il sut en eet de prendre Z = a + ib où a et b sont des entiers tels que |a − a | ≤ 1/2 et
|b − b | ≤ 1/2. On a alors |Z − Z |2 = |a − a |2 + |b − b |2 ≤ (1/2)2 + (1/2)2 = 1/2.
D'après (∗), il existe c ∈ Z[i] tel que |x/m0 − c|2 ≤ 1/2. Autrement dit, si z = x − m0 c, on a
|z|2 ≤ m20 /2. Comme |z|2 est un entier et que m0 est impair, on a même |z|2 < m20 /2. De même,
il existe d ∈ Z[i] tel que t = y − dm0 vérie |t|2 < m20 /2. Or
|z|2 + |t|2 = |x|2 + |y|2 − m0 [(xc + xc) + (yd + yd)] = m0 (p − [(xc + xc) + (yd + yd)],
donc m0 divise |z|2 + |t|2 . Soit m1 ∈ N tel que |z|2 + |t|2 = m1 m0 . On tire des majorations de |z|2
et |t|2 que m1 < m0 . Par ailleurs m1 > 0 car si m1 = 0, alors z = t = 0 donc x = cm0 et y = dm0
donc pm0 = |x|2 + |y|2 = |m0 |2 (|c|2 + |d|2 ), donc m0 | p ce qui est absurde car 1 < m0 < p
(d'après 2/a)). Donc 1 ≤ m1 < m0 d'où le résultat.
f) En multipliant les égalités m0 p = |x|2 + |y|2 et m0 m1 = |z|2 + |t|2 , on obtient d'après 1/
m20 m1 p = |xz + yt|2 + |xt − yz|2 . (∗∗)
56 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX
Or
xz + yt = x(x − cm0 ) + y(y − dm0 ) = |x|2 + |y|2 − m0 (xc + yd) = m0 α, α = p − xc − yd ∈ Z[i].
Par ailleurs, xt − yz = −dm0 x + cm0 y = m0 β où β = −dx + cy ∈ Z[i]. D'après (∗∗), on peut
écrire m1 p = |α|2 + |β|2 , et comme le carré du module d'un élément de Z[i] est la somme de deux
carrés d'entiers, m1 p ∈ A4 . Ceci contredit l'hypothèse de minimalité faite sur m0 . On a donc
m0 = 1, c'est-à-dire p ∈ A4 .
3/ D'après 2/, tout nombre premier p > 2 est somme de quatre carrés. Il en est de même
de p = 2 = 12 + 12 + 02 + 02 . Tout nombre premier est donc élément de A4 . Si n est un
entier, n peut s'écrire comme le produit de nombres premiers d'après le théorème fondamental
de l'arithmétique, et donc n ∈ A4 d'après 1/. D'où le résultat.
Remarque. Il faut au minimum additionner quatre carrés d'entiers pour représenter tout
entier naturel n, comme le montre le cas de n = 7.
On peut se poser le problème plus général suivant. Étant donné un entier k ≥ 2, que
vaut g(k), le plus petit entier m > 0 tel que tout entier est somme de m puissances k -ièmes
d'entiers, et que vaut G(k), le plus petit entier m > 0 tel que tout entier susamment
grand est somme de m puissances k -ièmes d'entiers ? La recherche (et l'existence) de g(k)
et G(k) s'appelle le problème de Waring. Nous venons de montrer que g(2) = 4. On peut
montrer que G(2) = 4. On sait par exemple que g(3) = 9 et 4 ≤ G(3) ≤ 7, g(4) = 19 et
G(4) = 16, g(5) = 37 et 6 ≤ G(5) ≤ 17.
Chapitre 2
Remarque 4. Ceci est faux sur A[X] lorsque A n'est pas un corps (voir l'exercice 1).
Définition 7. Soient P1 , . . . , Pn des polynômes de K[X]. L'unique polynôme unitaire P
engendrant l'idéal (P1 ) + · · · + (Pn ) s'appelle le pgcd des polynômes P1 , . . . , Pn . Il est noté
pgcd (P1 , . . . , Pn ). C'est aussi le diviseur unitaire de plus haut degré divisant tous les Pi .
Définition 8. Des polynômes P1 , . . . , Pn ∈ K[X] sont dits premiers entre eux dans leur
ensemble si on a pgcd(P1 , . . . , Pn ) = 1. Ils sont dits premiers entre eux deux à deux si
∀i = j, pgcd(Pi , Pj ) = 1.
On dénit également, comme dans Z, la notion de ppcm de n polynômes.
Théorème 3 (Bezout). Des polynômes P1 , . . . , Pn ∈ K[X] sont premiers entre eux dans
leur ensemble si et seulement s'il existe U1 , . . . , Un ∈ K[X] tels que U1 P1 + · · · + Un Pn = 1.
Remarque 5. Lorsque P, Q ∈ K[X] sont premiers entre eux, on peut même avoir
U P + V Q = 1 avec deg(U ) < deg(Q) et deg(V ) < deg(P ) (voir la remarque de
l'exercice 3, page 60).
Comme dans Z, il découle du théorème de Bezout le théorème de Gauss : Si P | QR
et si pgcd (P, Q) = 1, alors P | R.
Ce qui dans Z joue le rôle des nombres premiers est ici appelé polynôme irréductible.
Plus précisément :
Définition 9. Un polynôme P ∈ K[X] est dit irréductible dans K[X] si P n'est pas
constant (i. e. deg(P ) ≥ 1) et si ses seuls diviseurs dans K[X] sont les constantes non
nulles et les polynômes associés à P .
Remarque 6. Attention. Un polynôme irréductible dans K[X] ne l'est pas forcément dans
L[X] où L est un surcorps de K. Par exemple, P = X 2 + 1 est irréductible dans R[X],
mais pas dans C[X] puisque P = (X − i)(X + i).
Comme dans Z, on a le résultat suivant.
Théorème 4. Soit P ∈ K[X] un polynôme non nul. Alors P se décompose de manière
unique à l'ordre prés sous la forme
P = λP1α1 · · · Pkαk
où λ ∈ K∗ , αi ∈ N∗ et les Pi des polynômes distincts, unitaires et irréductibles dans K[X].
Rappelons enn le théorème de division selon les puissances croissantes (l'algorithme
associé peut être utilisé sur une fraction rationnelle, pour calculer son développement
limité, ou pour calculer la partie principale relative à un pôle multiple dans sa décompo-
sition en éléments simples, dont un exemple est donné page 76).
Théorème 5 (Division selon les puissances croissantes). Soient A, B ∈ K[X],
le coecient du terme constant de B étant non nul. Soit k ∈ N∗ . Alors
(∃!(Qk , Rk ) ∈ K[X]2 ), A = BQk + X k+1 Rk avec deg(Qk ) ≤ k.
1.4. Exercices
Exercice 1. Soit A un anneau commutatif unitaire intègre. Montrer que A est un corps
si et seulement si A[X] est un anneau principal.
Solution. La condition nécessaire est une question de cours. Montrons la condition susante.
Soit a ∈ A, a = 0. Il s'agit de montrer que a est inversible. Comme A[X] est principal, il existe
P ∈ A[X] tel que (a) + (X) = (P ). Comme a ∈ (P ), il existe Q ∈ A[X] tel que a = P Q. On en
déduit, A[X] étant intègre, que P ∈ A.
60 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES
c(P1 ) = c(Q1 ) = 1. Si c(P1 Q1 ) > 1, alors il existe un nombre premier p divisant c(P1 Q1 ).
D'après 1/a), on a donc p | c(P1 ) ou p | c(Q1 ), ce qui est absurde. Donc c(P1 Q1 ) = 1, ce qui
entraîne c(P Q) = c(P )c(Q)c(P1 Q1 ) = c(P )c(Q).
2/ Soient P, Q ∈ Q[X] tels que Φ = P Q. Soient α, β ∈ N∗ tels que P1 = αP et Q1 = βQ ∈ Z[X].
On a αβΦ = P1 Q1 donc d'après le lemme de Gauss
αβ · c(Φ) = c(P1 )c(Q1 ).
Posons P2 = 1
c(P1 ) P1 et Q2 = c(Q1 ) Q1 .
1
Ces polynômes sont à coecients entiers. Par ailleurs,
αβΦ = c(P1 )c(Q1 )P2 Q2 = αβ · c(Φ)P2 Q2 .
Si P3 = c(Φ)P2 , on a donc Φ = P3 Q2 avec P3 , Q2 ∈ Z[X]. Comme Φ est irréductible dans Z[X],
on a nécessairement deg(P3 ) = 0 ou deg(Q2 ) = 0, donc deg(P ) = 0 ou deg(Q) = 0, ce qui prouve
que Φ est bien irréductible dans Q[X].
3/ a) Supposons P réductible dans Q[X]. D'après la question précédente, Φ est réductible dans
Z[X] et donc il existe Q, R ∈ Z[X] tels que P = QR, avec a = deg(Q) ≥ 1 et b = deg(R) ≥ 1.
Dans Z/pZ, on a, d'après les hypothèses, P = an X n . Écrivons Q = ai=0 qi X i et R = bi=0 ri X i .
Dans Z/pZ[X], on a P = QR donc an X n = QR, donc Q = q a X a et R = rb X b . Ceci entraîne
q 0 = r0 = 0, donc p | q0 et p | r0 , donc p2 | q0 r0 = a0 , ce qui est contraire aux hypothèses.
Finalement, P est irréductible dans Q[X].
b) L'astuce est d'utiliser le critère d'Eisenstein en considérant Φ(X +1). L'identité (X −1)Φ(X) =
X p − 1 entraîne X Φ(X + 1) = (X + 1)p − 1, d'où on tire
p
p
Φ(X + 1) = X k−1 .
k
k=1
Il est maintenant facile de vérier que Φ(X + 1) satisfait les hypothèses du critère d'Eisenstein
avec le nombre premier p (rappelons que si p est premier et si 1 ≤ k ≤ p − 1, alors p | kp ), donc
Φ(X + 1) est irréductible dans Q[X]. Donc Φ(X) est irréductible dans Q[X].
Remarque. Le résultat 3/ b) est un cas particulier d'un résultat général concernant les
polynômes cyclotomiques (voir le problème 10, page 97).
2. FONCTION POLYNÔME, RACINES D'UN POLYNÔME 63
Si F, G ∈ K[X], on a F et F
+ G = F + G G = FG.
Si A = K[X], on note F ◦ G = F(G). Pour toute K-algèbre A, on a alors F ◦G=
F ◦ G.
Remarque 4. Deux polynômes F et G de K[X] scindés sur K sont premiers entre eux si
et seulement s'ils n'ont aucune racine commune.
En particulier
n
n
a1 a2 an
σ1 = xi = − , σ2 = xi xj = , σn = xi = (−1)n .
i=1
a0 1≤i<j≤n
a0 i=1
a0
existe U, V ∈ K[X] tels que U P + V A = 1, d'où V̇ Ȧ = 1̇. Donc Ȧ est inversible, et ceci dès que
Ȧ = 0̇. Finalement, K[X]/(P ) est un corps.
Remarque 9. Ce résultat est analogue à la proposition 10 page 11 (ici aussi, on voit que
les propriétés arithmétiques de Z et de K[X] sont semblables.)
2.6. Corps des racines d'un polynôme
Toutes les extensions de corps considérées dans cette sous partie seront commutatives.
Notation. Si L est une extension de corps de K, pour tout A ⊂ L on note K(A) le
plus petit sous-corps de L contenant K et A (il existe, c'est l'intersection des sous-corps
de L contenant K et A). Lorsque A = {a1 , · · · , an } est ni, on note souvent K(A) =
K(a1 , . . . , an ) pour alléger les notations.
Remarque 11. Une telle extension L de K dans laquelle F soit scindé s'appelle un corps
de dissociation de F . Dans ce corps, on peut écrire
F = λ(X − a1 ) · · · (X − an ) avec λ ∈ K∗ et a1 , . . . , an ∈ L.
Le corps L1 = K(a1 , . . . , an ) est le plus petit sous-corps de L sur lequel F soit scindé.
On peut montrer que L1 ainsi déni est unique à un isomorphisme près (l'unicité n'est
pas immédiate car il n'y a pas unicité du corps de dissociation L). On l'appelle corps des
racines du polynôme F .
Définition 5. Un corps K est dit algébriquement clos si tout polynôme de K[X] de degré
≥ 1 a au moins une racine dans K.
Remarque 12. Une récurrence immédiate sur le degré montre que si K est un corps algé-
briquement clos, tout polynôme de K[X] est scindé sur K.
On peut montrer que tout corps K admet une extension L algébriquement close (théo-
rème de Steinitz). La plus petite extension L vériant cette propriété est unique à un
isomorphisme près, et on l'appelle clôture algébrique de K. Nous ne démontrerons pas ce
résultat. On a cependant le résultat suivant.
2. FONCTION POLYNÔME, RACINES D'UN POLYNÔME 67
Remarque 13. Deux preuves diérentes de ce résultat sont proposées dans le problème 4
page 90.
Le théorème fondamental de l'algèbre entraîne que les polynômes irréductibles de C[X]
sont de degré 1. On montre que les polynômes irréductibles de R[X] sont les polynômes
de degré 1 et les polynômes de la forme aX 2 + bX + c avec b2 − 4ac < 0.
2.7. Exercices
Exercice 1. Montrer qu'un corps ni n'est pas algébriquement clos.
Solution. Soit K = {a1 , . . . , an } un corps ni. Le polynôme P = 1 + (X − a1 ) · · · (X − an ) ∈ K[X]
vérie P (ai ) = 1 pour tout i. Donc P n'a pas de racine dans K, et K n'est pas algébriquement
clos.
Solution. a) Il s'agit de trouver les racines de Pn . Comme 1 n'est pas racine de Pn , on peut
écrire
n
z+1 z−1
Pn (z) = 0 ⇐⇒ =1 ⇐⇒ ∃k, 0 ≤ k ≤ n − 1, = e2ikπ/n .
z−1 z+1
Le cas k = 0 est à exclure car on ne peut pas avoir = 1. Si 1 ≤ k ≤ n − 1, l'équivalence
z−1
z+1
z+1 e2ikπ/n + 1 eikπ/n + e−ikπ/n kπ
= e2ikπ/n ⇐⇒ z = 2ikπ/n = ikπ/n = −i cot ,
z−1 e −1 e − e−ikπ/n n
montre que
z est une racine de Pn si et seulement s'il existe k ∈ {1, . . . , n − 1} tel que z =
n . Ainsi on a trouvé n − 1 racines distinctes de Pn . Le monôme de plus haut degré de
−i cot kπ
Pn étant 2nX n−1 , Pn est de degré n − 1 et
n−1
kπ
Pn = 2n X + i cot .
n
k=1
b) Notons
kπ
ck = cot .
2p + 1
2p
La relation de symétrie c2p+1−k = −ck montre que Ap = 1
2 k=1 ck .
2 Les racines de P2p+1 sont
les uk = −ick (avec 1 ≤ k ≤ 2p). Comme
2p 2p + 1
P2p+1 (X) = 2(2p + 1)X +2 X 2p−2 + · · ·
3
les relations entre coecients et racines (voir le théorème 1 page 64) montrent que
2p
2 2p+1 p(2p − 1)
σ1 = uk = 0 et σ2 = uk ul = 3
= .
2(2p + 1) 3
k=1 1≤k<≤2p
68 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES
Donc
2p 2p
1 2 1 2 1 p(2p − 1)
Ap = ck = − uk = − (σ12 − 2σ2 ) = .
2 2 2 3
k=1 k=1
Par ailleurs, le terme constant de P2p+1 est 2 et son coecient dominant est 2(2p + 1), donc le
produit de ses racines est 2/(2(2p + 1)) = 1/(2p + 1), donc
p 2p 1/2 2p
1/2
kπ kπ 1
p
Bp = cot = (−1) cot = uk =√ .
2p + 1 2p + 1 2p + 1
k=1 k=1 k=1
Exercice 4. 1/ Soit P ∈ Q[X] irréductible dans Q[X]. Montrer que P n'a que des
racines simples dans C.
2/ (Deux applications) a) Soit P ∈ Q[X] un polynôme ayant une racine λ ∈ C d'ordre
de multiplicité µ > deg(P )/2. Montrer que λ ∈ Q.
b) Soit P ∈ Q[X], deg(P ) = 2n + 1 avec n ∈ N∗ , tel que P admette une racine d'ordre n.
Si n ≥ 2, montrer que P admet une racine dans Q.
Solution. 1/ Il sut de montrer d'après le théorème 3 que P et P n'ont aucune racine commune,
ce qui équivaut (voir la remarque 4) à montrer que P et P sont premiers entre eux dans C[X],
ce qui n'est qu'un cas particulier du résultat plus général suivant (d'ailleurs utile !).
Lemme. Soit K un corps commutatif, L un surcorps commutatif de K. Soient
P et Q ∈ K[X] deux polynômes premiers entre eux dans K[X]. Alors P et Q
sont premiers entre eux dans L[X].
En eet, cela provient de l'égalité de Bezout. Il existe U et V ∈ K[X] tel que U P + V Q = 1,
égalité qui reste évidemment vraie dans L[X], d'où le lemme. Maintenant le polynôme P étant
irréductible dans Q[X], P et P sont premiers entre eux dans Q[X] (car deg(P ) < deg(P )) donc
dans C[X] d'après le lemme précédent.
2/a) Soit P = αP1 · · · Pk la décomposition de P en facteurs irréductibles de Q[X]. Parmi
P1 , . . . , Pk , il y a r polynômes dont λ soit racine, par exemple P1 , . . . , Pr . Si λ ∈ Q, comme
2. FONCTION POLYNÔME, RACINES D'UN POLYNÔME 69
Solution. Soit P ∈ C[X] vériant (∗) avec deg(P ) ≥ 1. Soit α une racine de P .
Comme P (α2 ) = P (α)P (α + 1) = 0, α2 est une racine de P . En itérant le procédé, on voit
que α2 , α4 , . . . , α2 , . . . sont des racines de P . Le polynôme P n'ayant qu'un nombre ni de
n
Soit a une racine de P . Si a est une racine de P , le résultat est évident. Sinon
n n
P (a) 1 a − ai
0= = = ,
P (a) a − ai |a − ai |2
i=1 i=1
et en passant au conjugué
n
n
n
a − ai 1 ai
= 0 donc a= ,
|a − ai |2 |a − ai |2 |a − ai |2
i=1 i=1 i=1
d'où le résultat.
b) D'après a), les racines de P sont réelles. On a même plus de renseignements sur leur locali-
sation. Soient a1 , . . . , ap les racines de P avec a1 < · · · < ap , d'ordre de multiplicité α1 , · · · , αp ,
de sorte que si β est le coecient dominant de P , P = β(X − a1 )α1 · · · (X − ap )αp . D'après le
théorème de Rolle, pour tout i ∈ {1, . . . p − 1}, il existe bi ∈ ]ai , ai+1 [ tel que P (bi ) = 0. On a
ainsi trouvé p − 1 racines de P .
Pour tout i tel que αi ≥ 2, ai est racine de P d'ordre de multiplicité αi −1 (voir le théorème
3).
Comptées avec leur ordre de multiplicité, on a ainsi localisé (p−1)+ pi=1 (αi −1) = ( i αi )−1 =
deg(P )−1 = deg(P ) racines. On a donc localisé toutes les racines de P : ce sont les bi ∈ ]ai , ai+1 [
et les ai tels que αi ≥ 2.
Solution. a) Notons Pn le s.e.v des polynômes de K[X] de degré < n, et considérons l'application
linéaire
ϕ : Pn → K n P → (P (x1 ), . . . , P (n1 −1) (x1 ); . . . ; P (xp ), . . . , P (np −1) (xp )).
Il s'agit de montrer que ϕ est bijective. Calculons son noyau Ker ϕ. Supposons ϕ(P ) = 0 avec
P ∈ Pn . Pour i = 1, . . . , p, on a P (k) (xi ) = 0 pour 0 ≤ k < ni , donc xi est une racine d'ordre
2. FONCTION POLYNÔME, RACINES D'UN POLYNÔME 71
hi ≥ ni d'après le théorème 3 page 64. Ceci étant vrai pour tout i, on peut donc écrire P sous la
forme
p
P =Q (X − xi )hi avec Q ∈ K[X].
i=1
Si Q = 0, on a deg P ≥ pi=1 hi ≥ pi=1 ni = n, ce qui est impossible puisque P ∈ Pn .
Donc Q = 0, ce qui entraîne Ker ϕ = {0}. Donc ϕ est injective. Comme l'e.v d'arrivée Kn de
l'application linéaire ϕ a même dimension que son e.v de départ Pn , on en déduit d'après le
théorème du rang que ϕ est bijective.
b) Soit x ∈ I . S'il existe i tel que x = xi le résultat (∗) est immédiat puisque f (xi ) = P (xi ).
Dans le cas contraire, on considère A ∈ R tel que
p
ϕx : I → R t → f (t) − P (t) − A (t − xi )ni
i=1
vérie ϕx (x) = 0. La fonction ϕx est de classe C n . En comptant avec les ordres de multiplicité,
(l'ordre de multiplicité k d'un zéro α d'une fonction g de classe C n est le plus grand entier k ≤ n
tel que g(α) = . . . = g (k−1) (α) = 0) ϕx a au moins n + 1 zéros car ϕx (x) = 0 par construction,
et ϕ(k)
x (xi ) = 0 pour 1 ≤ i ≤ p et 0 ≤ k < ni . On remarque maintenant que pour toute fonction
g : I → R de classe C m , qui a au moins m + 1 zéros sur I , la fonction g a au moins m zéros sur I
(la preuve est immédiate en remarquant qu'un zéro de g d'ordre k ≥ 2, est un zéro de g d'ordre
k − 1, et qu'entre deux zéros de g il y a au moins un zéro de g d'après le théorème de Rolle).
Ainsi ϕx a au moins n zéros sur I , ϕx au moins n − 1 zéros, . . ., ϕ(n) x a au moins 1 zéro sur I .
Donc il existe ξ ∈ I tel que ϕ(n)x (ξ) = 0 , ce qui s'écrit aussi f (n) (ξ) − n!A = 0, d'où le résultat.
Solution. Nous allons montrer que les polynômes vériant la condition sont ceux de degré 2. Si
P = α(X − a1 )(X − a2 ) est de degré 2 (avec a1 < a2 et α ∈ R), on a P = α(2X − a1 − a2 ) donc
P vérie la condition (∗).
Si maintenant P = α ni=1 (X − ai ) est de degré n ≥ 3 (a1 < · · · < an , α = 0), on écrit
P = (X − a1 )(X − a2 )Q avec Q = α ni=3 (X − ai ). Par dérivation, on obtient
P (X) = (2X − a1 − a2 )Q(X) + (X − a1 )(X − a2 )Q (X).
Si P vérie (∗), on a donc Q ( a1 +a2 ) = 0, ce qui est impossible car
2
Si deg(Q) ≥ 2, Q s'annule au moins une fois sur chaque intervalle ]ai , ai+1 [ (2 ≤ i ≤ n−1)
d'après le théorème de Rolle, donc Q a au moins n − 3 racines distinctes dans l'intervalle
]a2 , an [. Comme deg(Q ) = n − 3, on en déduit que toutes les racines de Q sont dans
]a2 , an [ et comme a1 +a
2
2
∈ ]a2 , an [, on aboutit à une contradiction.
Il existe ρ , 0 < ρ < ρ tel que ∀z ∈ C, |z| ≤ ρ , |ϕ(z)| ≤ 1/2. Écrivons qk = |qk |eiθ , θ ∈ R. Soit
z0 = ρ e−iθ/k . On a Q(z0 ) = q0 + |qk |ρ k [1 + ϕ(z0 )], donc comme q0 ∈ R+ :
1 1
k k k k k
|Q(z0 )| ≥ q0 + |qk |ρ − |qk |ρ ϕ(z0 ) ≥ q0 + |qk |ρ − |qk |ρ = q0 + |qk |ρ > q0 = |Q(0)|.
2 2
Si b = a + z0 , on a donc |b − a| = ρ < ρ et |P (b)| = |Q(z0 )| > |Q(0)| = |P (a)|, d'où le lemme.
Montrons maintenant le résultat demandé. L'ensemble C = {z ∈ C, |z| ≤ r} est compact, et
l'application z → |P (z)| étant continue
∃z1 ∈ C, |z1 | ≤ r, |P (z1 )| = sup |P (z)|. (∗)
|z|≤r
Si |z1 | < r, le lemme entraîne l'existence de z2 ∈ C, |z2 | < r tel que |P (z2 )| > |P (z1 )|, ce qui
est absurde d'après (∗). Donc |z1 | = r et donc sup|z|≤r |P (z)| = sup|z|=r |P (z)|, d'où : Si z0 ∈ C,
|z0 | < r, |P (z0 )| < sup|z|≤r |P (z)| = sup|z|=r |P (z)|.
Remarque. On trouve dans le tome d'analyse (voir le chapitre sur les fonctions de plusieurs
variables) un résultat équivalent sur les fonctions harmoniques.
Plus généralement, le lemme permet également de montrer que pour tout compact
◦
C ⊂ C, on a : ∀z0 ∈ C , |P (z0 )| < supz∈Fr(C) |P (z)| où Fr(C) désigne la frontière de C .
(à rapprocher de l'identité (*) de la remarque 18 page 348, sur les fonctions caractéris-
tiques). La preuve est immédiate, il sut d'écrire
2π n
2π n
2π
iθ −ikθ ijθ −ikθ
P (e )e dθ = aj e e dθ = aj ei(j−k)θ dθ
0 j=0 0 j=0 0
2. FONCTION POLYNÔME, RACINES D'UN POLYNÔME 73
puis de remarquer que 02π eiθ dθ = 2π si = 0, = 0 si ∈ Z∗ . On peut également prouver
l'inégalité (*) à partir de l'identité P (0) = m1 m−1
k=0 P (ω ) avec ω = e
k 2iπ/m
(qu'on retrouve
dans le problème 1 page 87 sur la transformée de Fourier discrète d'un polynôme) vraie
dès que m > n, qui montre l'existence de k tel que |P (0)| ≤ |P (ω k )|. .
1/ Si P ∈ Z[X], unitaire, est tel que P ∈ Z/pZ[X] est irréductible dans Z/pZ[X], montrer
que P est irréductible dans Z[X]. La réciproque est elle vraie ?
2/ Montrer que F = X 4 + X + 1 est irréductible dans Z[X].
3/ Soit p ∈ N∗ un nombre premier et F = X p − X − 1 ∈ Z[X].
a) Soit α une racine de F dans le corps des racines de F . Montrer que les racines de F
sont exactement α, α + 1, · · · , α + p − 1.
b) En déduire que F est irréductible dans Z/pZ[X], et que F est irréductible dans Z[X].
Solution. 1/ C'est immédiat. Si P = F G avec F, G ∈ Z[X], unitaires, alors P = F G dans
Z/pZ[X]. Comme P est irréductible dans Z/pZ[X], ceci entraîne deg(F ) = 0 ou deg(G) = 0.
Les polynômes F et G étant unitaires, on a deg(F ) = deg(F ) et deg(G) = deg(G) et donc F
ou G est constant, ce qui prouve l'irréductibilité de P dans Z[X] (P est alors irréductible dans
Q[X], voir l'exercice 4 page 62). La réciproque est fausse. Par exemple, P = X 2 − 2X − 1 est
irréductible dans Z[X] et pourtant P = (X − 1)2 n'est pas irréductible dans Z/2Z[X].
2/ On va montrer que F est irréductible dans Z/2Z[X], ce qui prouvera le résultat en vertu de
1/. Supposons F = P Q avec P, Q ∈ Z/2Z[X], deg(P ) ≥ 1, deg(Q) ≥ 1.
Le polynôme F n'a aucune racine dans Z/2Z, donc deg(P ) = deg(Q) = 2.
Le coecient dominant et le coecient constant de F étant égaux à 1, P et Q sont néces-
sairement de la forme
P = X 2 + aX + 1 et Q = X 2 + bX + 1, a, b ∈ Z/2Z.
Donc F = X 4 + X + 1 = P Q = X 4 + (a + b)(X 3 + X) + (2 + ab)X 2 + 1, et donc le coecient
de X 3 est égal à celui de X dans F , ce qui est absurde étant donnée la forme de F .
3/a) Notons K le corps des racines de F , α une racine de F dans K. Le corps K étant de
caractéristique p (car surcorps de Z/pZ), on a
∀x ∈ K, F (x) = F (x) − F (α) = xp − αp − (x − α) = (x − α)p − (x − α)
Ceci montre l'existence et l'unicité de Tn , dont la forme polynomiale est donnée par le dernier
membre de (∗). D'après (∗), Tn est de degré n et son coecient dominant est [n/2] 2k
k=0 Cn = 2
n−1 .
b) Remarquons déjà que l'identité Tn (cos θ) = cos nθ entraîne Tn ∞ = 1. Donc le polynôme
unitaire Un = 21−n Tn vérie Un ∞ = 21−n . Soit P ∈ R[X] unitaire et de degré n. Raisonnons
par l'absurde et supposons P ∞ < 21−n = Un ∞ . Le polynôme Q = Un − P est de degré
≤ n − 1 (car P et Un sont unitaires et de degré n). En posant xk = cos kπ/n, on remarque
maintenant que Tn (xk ) = cos kπ = (−1)k pour 0 ≤ k ≤ n. Donc Q(xk ) = (−1)k 21−n − P (xk ), et
comme |P (xk )| ≤ P ∞ < 21−n ceci montre que Q(xk ) est non nul et a le signe de (−1)k . Ainsi,
les n + 1 points (xk )0≤k≤n vérient −1 = xn < xn−1 < . . . < x1 < x0 = 1 et Q change de signe
entre xk+1 et xk (pour 0 ≤ k ≤ n − 1). Donc Q a au moins n racines, et comme deg(Q) < n on
a forcément Q = 0, donc P = Un ce qui est absurde puisque P ∞ < 21−n par hypothèse.
Remarque. La propriété de mini-max P ∞ ≥ Un ∞ pour tout P ∈ R[X] unitaire et de
degré n est remarquable, et fait de la famille (Tn ) des polynômes de Tchébyche une base
commode pour l'interpolation polynomiale.
3. Fractions rationnelles
Dans toute cette partie, K désigne un corps commutatif.
3.1. Généralités
L'anneau K[X] étant intègre, son corps des fractions existe bien. On le note K(X).
Proposition 1. Soit F ∈ K(X), F = 0. On peut écrire F = P/Q avec P et Q ∈ K[X], Q
unitaire, P et Q premiers entre eux, et ceci de manière unique. L'écriture P/Q s'appelle
la forme réduite de F .
Définition 1. Soit F ∈ K(X), F = 0, F = N/D sa forme réduite. Un élément a ∈ K est
dit pôle de F d'ordre h si a est racine de D d'ordre h.
De la même que pour les fonctions polynômes, on peut associer à toute fraction ra-
tionnelle F = N/D une fonction rationnelle dénie en tout point x de K qui n'est pas un
pôle de F , par x → F (x) = N (x)/D(x). Si F, G ∈ K(X) et x ∈ K n'est pas pôle de F ou
G, on a (F + G)(x) = F (x) + G(x), (F G)(x) = F (x)G(x)<.
avec E ∈ K[X], Ai,j ∈ K[X] et deg(Ai,j ) < deg(Di ). Le polynôme E s'appelle la partie
entière de F et s'obtient comme le quotient de la division euclidienne de N par D.
Les deux parties suivantes s'attachent à donner des méthodes de calcul des éléments
simples Ai,j /Dij pour K = C et K = R.
3.2. Pratique de la décomposition dans C(X)
Il est indispensable de bien savoir décomposer en éléments simples (on s'en sert en
particulier pour le calcul de primitives de fractions rationnelles).
76 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES
Nous avons déjà vu plus haut que E s'obtient comme le quotient de la division euclidienne
αi
ai,j
de N par D. Pour tout i, le terme s'appelle partie principale de F relative
j=1
(X − ai ) j
au pôle ai . Nous allons donner des méthodes pratiques de calcul des ai,j .
Partie principale relative à un pôle simple. Soit F ∈ C(X), F = 0, N/D sa forme
réduite. Soit a un pôle simple de F . La partie principale de F relative à a est de la forme
λ N λ
avec λ ∈ C, et on peut écrire F = = + G avec G ∈ C(X), a n'étant pas
X −a D X −a
un pôle de G. On peut également écrire D = (X − a)D1 avec D1 ∈ C[X] et D1 (a) = 0,
de sorte que
N N (a)
= λ + (X − a)G donc λ = . (∗)
D1 D1 (a)
Par ailleurs, l'égalité D = D1 + (X − a)D1 donne D (a) = D1 (a), ce qui donne un autre
moyen de calculer λ :
N (a)
λ= . (∗∗)
D (a)
Remarque 1. (∗) et (∗∗) s'utilisent dans des circonstances diérentes : (∗) quand on connaît
une forme explicite de D1 , (∗∗) sinon (voir les exemples qui suivent).
X +3 a b
Exemple 1. Soit F = , et F = + sa décomposition
(X − 1)(X + 2) X −1 X +2
en éléments simples. Grâce à (∗), on trouve a = 4/3 et b = −1/3.
P
Soit F = n , avec P ∈ C[X], deg(P ) < n. Notons ω = e2iπ/n . On a X n − 1 =
X −1
n−1
n−1
ak
(X − ω k ), donc F = k
, ak ∈ C. Grâce à (∗∗), on trouve
k=0 k=0
X − ω
n−1
P (ω k ) ωk 1 ω k P (ω k )
ak = = P (ω k ), donc F = .
n(ω k )n−1 n n k=0 X − ω k
Partie principale relative à un pôle multiple. Soit F ∈ C[X], N/D sa forme réduite,
et a ∈ C un pôle d'ordre h ≥ 2 de F . On peut écrire D = (X − a)h D0 avec D0 ∈ C[X] et
D0 (a) = 0. Posons D1 (T ) = D0 (T + a), N1 (T ) = N (T + a) et F1 (T ) = F (T + a). On a
N1 (T )
F1 (T ) = . Ainsi, si N1 = (ah + · · · + a1 T h−1 )D1 + T h S , (S ∈ C[X]) est la division
T h D1 (T )
selon les puissances croissantes de N1 par D1 à l'ordre h − 1, on a :
a1 a2 ah S(T )
F1 (T ) = + 2 + ··· + h +
T T T D1 (T )
et donc
a1 ah S(X − a)
F (X) = + ··· + + .
X −a (X − a)h D0 (X)
On a ainsi obtenu la partie principale relative au pôle a.
3. FRACTIONS RATIONNELLES 77
X +3
Exemple 2. Recherchons la partie principale de F = relative au pôle 1
(X − 1)4 (X + 1)
d'ordre 4. On a, avec les notations précédentes, N1 (T ) = T + 4 et D1 (T ) = T + 2. On
eectue la division euclidienne de T +4 par T +2 selon les puissances croissantes à l'ordre 3,
ce qui donne
4 +T 2+T
−T 2 − 12 T + 14 T 2 − 18 T 3
1 2
2
T
−1 3
4
T
On en déduit que la partie principale de F relative au pôle 1 est
−1 1 1 2
+ 2
− 3
+ .
8(X − 1) 4(X − 1) 2(X − 1) (X − 1)4
En pratique, on n'utilise cette méthode que si l'ordre du pôle est grand (typiquement
supérieur à 3 ou 4). La plupart du temps, on procède par identication en donnant à X
certaines valeurs particulières et en utilisant certaines propriétés de F comme la parité,
le fait que F est à coecients réels, et en utilisant la remarque suivante : Si a est un pôle
N
d'ordre h de F , on peut écrire F = , D0 (a) = 0, et
(X − a)h D0
a1 ah
F = + ··· + + G,
X −a (X − a)h
a n'étant pas un pôle de G. En multipliant cette dernière égalité par (X − a)h , on obtient
N
= ah + (X − a) ah−1 + · · · + a1 (X − a)h−2 + (X − a)h−1 G .
D0
En donnant à X la valeur a, on trouve un moyen commode de calculer ah :
N (a)
ah = . (∗∗∗)
D0 (a)
X +2
Exemple 3. F = se décompose en éléments simples sous la forme
(X + 1)2 (X − 2)2
a b c d
F = + 2
+ + .
X − 2 (X − 2) X + 1 (X + 1)2
En utilisant la relation (∗∗∗), on trouve b = 4/9 et d = 1/9.
Par ailleurs, en multipliant F par X , en regardant X comme un nombre réel et en le
faisant tendre vers +∞, on trouve (i) 0 = a + c. Or F (0) = 12 = −a 2
+ 4b + c + d, donc
(ii) 9 = −a + 2c. De (i) et (ii), on trouve a = 27 et c = 27 .
5 −5 5
Soit procéder par identication, en utilisant les propriétés de F (parité, . . .). Des
exemples sont traités dans l'exercice 2.
3.4. Exercices
Exercice 1. Décomposer en éléments simples dans C(X) les fractions rationnelles sui-
vantes :
X X4
a) F = . b) F = .
(X 2 − 1)2 (X 2 + 1) X5 + 1
Exercice 2. Décomposer en éléments simples dans R(X) les fractions rationnelles sui-
vantes.
X2 1
a) F = . b) F = .
(X 4
+ X 2 + 1)2 X(X 2 + 1)2
X7 + 2 1
c) F = . d) F = 2n , n ∈ N∗ .
(X 2 + X + 1)3 X −1
On a F (i) = −1 = ai+b
i − (ci + d) − i − (gi + h), donc −1 = 2a + i − i(c + g) − (d + h) =
ei+f (b−f )
2a − 2d = 2a − 2 , d'où a = − 4 .
1 1
Finalement on a trouvé
1 1 1 1 1 1
a=− , b=− , c = 0, d= , e= , f =− , g = 0, h= .
4 4 4 4 4 4
a bX + c dX + e
b) Il existe a, b, c, d, e ∈ R tels que F + 2
= + . La fraction F est impaire,
X X +1 (X 2 + 1)2
donc c = e = 0. D'après la relation (∗) de la partie 3.2, on a a = 1. Multiplions F par (X 2 + 1)2
puis remplaçons X par i. On obtient 1i = di + e = di donc d = −1.
Multipliant F par X , regardant X comme un nombre réel et en le faisant tendre vers +∞,
on obtient 0 = a + b, donc b = −a = −1.
c) Il s'agit d'un cas classique, qui se traite par divisions euclidiennes successives. On trouve
X 7 + 2 = (X 2 + X + 1)(X 5 − X 4 + X 2 − X) + (X + 2), d'où
X7 + 2 X +2 X5 − X4 + X2 − X
F = = + . (∗)
(X 2 + X + 1)3 (X 2 + X + 1)3 (X 2 + X + 1)2
On recommence, en divisant cette fois ci X 5 − X 4 + X 2 − X par X 2 + X + 1. On obtient
X 5 − X 4 + X 2 − X = (X 2 + X + 1)(X 3 − 2X 2 + X + 2) − 4X − 2, donc
X5 − X4 + X2 − X 4X + 2 X 3 − 2X 2 + X + 2
2 2
=− 2 2
+ . (∗∗)
(X + X + 1) (X + X + 1) X2 + X + 1
De même la division X 3 − 2X 2 + X + 2 = (X 2 + X + 1)(X − 3) + (3X + 5) entraîne
X 3 − 2X 2 + X + 2 3X + 5
= 2 + X − 3. (∗∗∗)
X2 + X + 1 X +X +1
De (∗), (∗∗) et (∗∗∗), on tire
X +2 4X + 2 3X + 5
F = − + 2 + (X − 3).
(X 2 + X + 1) 3 2
(X + X + 1) 2 X +X +1
Ce procédé est facile et à retenir.
2n−1
d) On décompose d'abord dans C(X). On pose ω = eiπ/n , de sorte que X 2n −1 = k=0 (X −ω k ).
2n−1
ak 1 ωk
Donc F = , où d'après l'identité (∗∗) page 76, ak = = .
X − ωk 2n(ω k )2n−1 2n
k=0
Il ne reste plus qu'à regrouper les termes conjugués. Lorsque 1 ≤ k ≤ n − 1, on a
ωk ω (2n−k) ωk ωk 2 cos(kπ/n)X − 2
+ = + = 2 ,
X − ωk X − ω (2n−k) X − ωk X −ω k X − 2 cos(kπ/n)X + 1
donc
2n−1
n−1
1 ωk 1 1 1 2 cos(kπ/n)X − 2
F = = − + .
2n X − ωk 2n X −1 X +1 X 2 − 2 cos(kπ/n)X + 1
k=0 k=1
Il ne reste plus qu'à remarquer, après dérivation de la relation Pn (X + 1/X) = X n + 1/X n , que
1 1 n n n
1− 2 Pn ωk + = nωkn−1 − = (ω − ωk−n )
ωk ωk ωkn+1 ωk k
donc
n −n sin (2k+1)π n
Pn (xk ) = −1 (ω n
k − ω k ) = n 2
(2k+1)π
= (−1)k (2k+1)π
,
ωk − ωk sin 2n sin 2n
d'où la décomposition en éléments simples de Fn en reportant cette égalité dans (∗).
Solution. a) Soit F = N/D la forme réduite de F . Par hypothèse, F est non constante donc l'un
au moins des polynômes N, D est non constant. Pour tout λ ∈ C, l'équation F (z) = λ (z ∈ DF )
est équivalente à (N − λD)(z) = 0 (z ∈ C). (En eet, si (N − λD)(z) = 0 alors on doit avoir
D(z) = 0 sinon N et D ont une racine commune, donc z ∈ DF ). Deux cas se présentent :
3. FRACTIONS RATIONNELLES 81
(i) Pour tout λ ∈ C, le polynôme N − λD est non constant. Le corps des nombres complexes
étant algébriquement clos, N − λD admet une racine zλ pour tout λ ∈ C. Ainsi, pour tout
λ ∈ C, F (zλ ) = λ et on en déduit F (DF ) = C.
(ii) Il existe α ∈ C tel que N − αD est constant. Pour tout λ = α, le polynôme N − λD est
non constant (si N − λD est constant pour λ = α, il est facile de voir que l'on doit avoir
N et D constants, ce qui est contraire aux hypothèses) donc admet au moins une racine
zλ qui vérie F (zλ ) = λ. Ainsi, C {α} ⊂ F (DF ). De plus, le polynôme N − αD est une
constante non nulle (si elle est nulle, F est constant égal à α), donc l'équation N − αD = 0
n'a pas de solution. Finalement, F (DF ) = C {α}.
Les fractions rationnelles F = N/D vériant (ii) sont celles vériant ∃c ∈ C∗ | N − αD = c.
Ainsi, F = N/D = (αD + c)/D = α + c/D est de la forme F = α + 1/P où P est un polynôme
non constant et réciproquement, une fraction rationnelle de cette forme vérie (ii).
b) Si F est constant, F ◦ G = F est toujours un polynôme. De même, si G est constant et si G
n'est pas un pôle de F , F ◦ G est une constante donc un polynôme.
Supposons maintenant F et G non constants. Si α est un pôle de F , on a lim z→α
z=α
|F (z)| = +∞,
donc si α = G(β) ∈ G(DG ), le théorème de composition des limites entraîne
lim |F ◦ G(z)| = +∞
z→β
z=β
Exercice 5. 1/ Déterminer les polynômes de C[X] qui laissent stable le cercle unité
U = {z ∈ C | |z| = 1} de C.
2/ Déterminer les fractions rationnelles de C(X) qui laissent stable U.
Solution. 1/ Pour tout polynôme P = a0 + · · · + an X n ∈ C[X] de degré n ∈ N, on note P ∗ le
polynôme déni par
P ∗ (X) = a0 X n + a1 X n−1 + · · · + an = X n P (1/X).
Lorsque z ∈ U, on a 1/z = z donc P ∗ (z) = z n P (z) = z n P (z), et lorsque P stabilise U on a
donc P (z)P ∗ (z) = z n |P (z)|2 = z n . Ainsi, le polynôme P (X)P ∗ (X) − X n s'annule sur U, donc
une innité de fois, donc c'est le polynôme nul. On en déduit P (X)P ∗ (X) = X n , et comme
deg(P ) = n il existe λ ∈ C∗ tel que P (X) = λX n et P ∗ (X) = 1/λ. Comme |P (1)| = 1 on a
forcément |λ| = 1, donc nalement P (X) = λX n avec |λ| = 1.
Réciproquement, il est immédiat que tout polynôme de cette forme stabilise le cercle unité.
2/ Soit F ∈ C(X) laissant stable U. On peut écrire F sous la forme F = X n P/Q où n ∈ Z et
P, Q ∈ C[X] sont premiers entre eux, avec P (0) = 0 et Q(0) = 0. Soit a = deg P , b = deg Q.
Pour tout z ∈ U qui n'est pas un zéro de Q ou de Q∗ , on peut écrire
2
P ∗ (z) z a P (z) P (z) P ∗ (z) a−b |P (z)|
2
a−b P (z)
= , donc = z = z = z a−b .
∗
Q (z) z b Q(z) ∗
Q(z) Q (z) |Q(z)| 2 Q(z)
Si a ≥ b, on en déduit que le polynôme P (X)P ∗ (X) − X a−b Q(X)Q∗ (X) s'annule sur U (sauf
eventuellement sur les zéros de Q et Q∗ ), donc il s'annule une innité de fois, donc il est nul.
Donc P (X)P ∗ (X) = X a−b Q(X)Q∗ (X). Comme P (0)Q(0) = 0 on a deg P ∗ = deg P = a et
deg Q∗ = deg Q = b, donc l'égalité implique 2a = a − b + 2b = a + b donc a = b. Donc
P P ∗ = QQ∗ . Si a < b, un raisonnement similaire à partir de Q(X)Q∗ (X) − X b−a P (X)P ∗ (X)
aboutit à la même conclusion.
On a donc Q | P P ∗ et comme P et Q sont premiers entre eux, on en déduit Q | P ∗ . On a
vu que ces polynômes ont même degré, on en déduit l'existence de α ∈ C∗ tel que Q = αP ∗ ,
donc F = (X n /α)P (X)/P ∗ (X). Donc F = βX m P (X)/P (1/X) avec β = 1/α et m = n − a.
Comme F (1) ∈ U on a forcément β ∈ U. Réciproquement, on vérie facilement que tout fraction
rationnelle de la forme F (X) = βX m P (X)/P (1/X) avec m ∈ Z, β ∈ U et P ∈ C[X] (P = 0)
stabilise bien le cercle unité.
Définition 2 (Degré total). Le degré total d'un monôme aX1i1 · · · Xnin , a = 0, est
i1 + · · · + in . Si P ∈ A[X1 , . . . , Xn ], le degré total de P , noté deg(P ), est le plus grand
degré total des monômes qui forment P .
De même que dans K[X], on peut dénir dans K[X1 , . . . , Xn ] des fonctions polynôme
de n variables. On a en particulier le résultat suivant.
Proposition 1. Soit K un corps commutatif inni et un polynôme P ∈ K[X1 , . . . , Xn ].
Si P (x1 , . . . , xn ) = 0 pour tout n-uplet (x1 , . . . , xn ) de Kn , on a P = 0.
Remarque 1. Comme pour les polynômes à une indéterminée, ce résultat est faux
si K est un corps ni. Par exemple dans Z/pZ[X1 , . . . , Xn ] (p premier), le polynôme
P = (X1 )(X1 − 1) · · · (X1 − (p − 1))X2 · · · Xn est non nul et pourtant, pour tout
x1 , . . . , xn ∈ Z/pZ, P (x1 , . . . , xn ) = 0.
Attention, même si K est un corps inni, on peut avoir P (x1 , . . . , xn ) = 0 pour une
innité de n-uplets (x1 , . . . , xn ) sans que P = 0 (prendre par exemple P (X, Y ) =
X − Y sur R[X, Y ]).
4.2. Polynômes symétriques
Définition 3. Un polynôme P ∈ A[X1 , . . . , Xn ] est dit symétrique si pour tout σ ∈ Sn
(où Sn désigne le groupe symétrique d'indice n), P (Xσ(1) , . . . , Xσ(n) ) = P (X1 , . . . , Xn ).
Exemple 1. Dans R[X, Y, Z], P = XY + Y Z + ZX est symétrique.
On a en particulier
Σ1 = X 1 = X 1 + · · · + Xn , Σ2 = X 1 X2 = Xi Xj , Σn = X1 · · · Xn .
i<j
b) P = X1 X2 X3 ∈ R[X1 , . . . , Xn ] pour n ≥ 5.
Solution. a) On a (X + Y + Z)3 = X 3 + Y 3 + Z 3 + 3X 2 Y
+ 3X 2 Z + 3Y 2 2 2
X 2+ 3Y Z + 3Z X +
3Z 2 Y + 6XY Z , et donc X 3 + Y 3 + Z 3 = Σ31 − 6Σ3 − 3 X 2 Y . Or X Y = Σ1 Σ2 − 3Σ3 .
Finalement, on a P = Σ31 − 3Σ1 Σ2 + 3Σ3 .
b) Rappelons que la méthode générale (méthode de Waring) pour trouver le polynôme Φ consiste
à faire diminuer la hauteur de P (la hauteur de P est la plus grande des hauteurs de ses monômes,
la hauteur d'un monôme aX1α1 · · · Xnαn étant (α1 , . . . , αn ), ordonnée par l'ordre lexicographique).
Ici, le monôme
le plus haut de P est X12 X22 X3 . On va donc commencer par retrancher P à
( X1 X2 )( X1 X2 X3 ) = Σ2 Σ3 . Calculons ce dernier terme. Chaque monôme de Σ2 Σ3 est de
degré total 5 (produit de deux monômes de degré total 2 et 3) et est moins haut que X12 X22 X3 .
On peut donc écrire
∃a, b, c, Σ2 Σ3 = a X12 X22 X3 + b X12 X2 X3 X4 + c X 1 X2 X3 X4 X5 .
Le nombre a est le coecient de X12 X22 X3 dans Σ2 Σ3 . C'est donc le nombre de manières de
former X12 X22 X3 par un monôme de Σ2 multiplié par un monôme de Σ3 . Il n'y a qu'une seule
façon de faire ceci. C'est X12 X22 X3 = (X1 X2 )(X1 X2 X3 ), donc a = 1.
De même, on a b = 3 car les façons d'écrire X12 X2 X3 X4 comme le produit d'un monôme de
Σ2 par un monôme de Σ3 sont
X12 X2 X3 X4 = (X1 X2 )(X1 X3 X4 ) = (X1 X3 )(X1 X2 X4 ) = (X1 X4 )(X1 X2 X3 ).
On trouve de même c = 52 = 10.
Finalement, on a P − Σ2 Σ3 = −3 X12 X2 X3 X4 − 10 X1 X2 X3 X4 X5 . Par des méthodes
analogues aux précédentes, on trouve
Σ1 Σ4 = X12 X2 X3 X4 + 5 X1 X2 X3 X4 X5 ,
4. POLYNÔMES À PLUSIEURS INDÉTERMINÉES 85
et donc X12 X2 X3 X4 = Σ1 Σ4 − 5Σ5 . Finalement, on a
P = Σ2 Σ3 − 3(Σ1 Σ4 − 5Σ5 ) − 10Σ5 = Σ2 Σ3 − 3Σ1 Σ4 + 5Σ5 .
Remarque. Il est conseillé dans ce type de calcul de vérier les résultats, en donnant par
exemple à n, X1 , . . . , Xn des valeurs particulières.
Remarque. Ce dernier résultat peut également s'obtenir à partir des formules de Cardan
donnant les racines de P en fonction de ses coecients (voir l'annexe A).
Le nombre ∆ s'appelle le discriminant de P . De manière générale, pour tout polynôme
Q de degré n ≥ 2 dont on note x1 , . . . , xn les racines, le discriminant de Q est déni par
∆ = i<j (xi − xj )2 . Comme ∆ est symétrique en les xi , il s'exprime comme un polynôme
en les coecients de Q. On voit par ailleurs que Q n'admet que des racines simples si et
seulement si ∆ = 0.
Remarque. En procédant par récurrence sur p, ces formules permettent de trouver fa-
cilement les polynômes en Σ1 , . . . , Σn égaux à Sp . Elles peuvent en particulier s'inverser
5. PROBLÈMES 87
(pour 1 ≤ p ≤ n), ce qui prouve que les Σi (1 ≤ i ≤ n) s'expriment comme des polynômes
en les Si (1 ≤ i ≤ n). Donc tout polynôme symétrique de R[X1 , . . . , Xn ] peut s'exprimer
comme un polynôme en les sommes de Newton S1 , . . . , Sn .
5. Problèmes
Problème 1 (Transformée de Fourier discrète d'un polynôme). On se xe un
entier n ≥ 1 et on note ω = e2iπ/n .
a) Pour tout polynôme P ∈ C[X], on dénit les polynômes
n−1
n−1
Fd (P ) = P (ω k )X k et F d (P ) = P (ω −k )X k ∈ C[X].
k=0 k=0
D'après (∗∗), comme R est à coecients entiers, on a n1 Fd (R)(ω −j ) ∈ Z, donc d'après (∗∗∗),
n Fd (R)(ω ) = 0, et ceci pour tout j , 0 ≤ j ≤ n − 1. De (∗∗) on en déduit R = 0 et donc X − 1
1 −j n
divise P .
1 P (a) P∗ P (X)Q(a) − Q(X)P (a)
G= F (X) − = où P ∗ (X) = .
X −a Q(a) Q Q(a)(X − a)
et donc ρ − 1 ≤ a d'où ρ ≤ 1 + a.
2/a) La fonction g(x) = f (x)/xn est croissante (somme de fonctions croissantes) strictement sur
]0, +∞[. De plus, limx→0+ g(x) = −∞ et limx→+∞ g(x) = 1. Ceci montre qu'il existe a > 0
et b > a tels que g(a) < 0 et g(b) > 0. D'après le théorème des valeurs intermédiaires, il existe
donc α > 0 (compris entre a et b) tel que g(α) = 0. Comme g est strictement croissante, on a
g(x) < 0 pour 0 < x < α et g(x) > 0 pour x > α. Comme f (x) = xn g(x), on en déduit
f (α) = 0, f (x) < 0 pour 0 < x < α, f (x) > 0 pour x > α. (∗∗)
Ceci étant, l'inégalité (∗) entraîne f (ρ) ≤ 0, d'où on tire ρ ≤ α d'après (∗∗).
Il reste à prouver l'inégalité (21/n − 1)α≤ ρ. L'expression des coecients d'un polynôme en
n k
fonction de ses racines montre que |ak | ≤ ρ pour 1 ≤ k ≤ n, donc
k
n
n
n k n−k
∀x > 0, |ak |xn−k ≤ ρ x = (ρ + x)n − xn ,
k
k=1 k=1
ce qui entraîne
∀x > 0, f (x) ≥ xn − (ρ + x)n − xn = 2xn − (ρ + x)n .
ρ
Le terme 2xn − (ρ + x)n s'annule lorsque 21/n x = ρ + x, c'est-à-dire lorsque x = . Ainsi,
21/n−1
ρ ρ
f ≥ 0 et on en déduit grâce à (∗∗) que ≥ α, ou encore ρ ≥ (21/n − 1) α.
21/n − 1 21/n − 1
b) Pour montrer ρ ≤ 2R il sut de montrer α ≤ 2R d'après la question précédente. En vertu de
l'assertion (∗∗), on se ramène donc à prouver que f (2R) ≥ 0. Par dénition de R, on a |ak | ≤ Rk
pour tout k, 1 ≤ k ≤ n. Si r = 2R, on a donc |ak | rn−k ≤ rn /2k , d'où
1 1
|a1 | rn−1 + · · · + |an−1 | r + |an | ≤ rn + ··· + n ≤ rn ,
2 2
d'où f (r) = f (2R) ≥ 0.
90 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES
n k n
Montrons R/n ≤ ρ. On a vu plus haut que |ak | ≤ ρ pour 1 ≤ k ≤ n. Or =
k k
|ak |1/k
n · · · (n − k + 1)/k! ≤ nk , donc |ak | ≤ nk ρk , donc si 1 ≤ k ≤ n, ≤ ρ, d'où le résultat.
n
Soit r > 0 tel que |ϕ(z)| ≤ 1/2 pour |z| ≤ r. Écrivons bk = |bk |eiθ , θ ∈ R. Soit z = re−i(θ+π)/k .
On a
Q(z) = 1 − |bk |rk (1 + ϕ(z)).
Quitte à diminuer r > 0 on peut supposer |bk |rk < 1, et donc
1 1
|Q(z)| ≤ |1 − |bk |rk | + |bk rk ϕ(z)| ≤ 1 − |bk |rk + |bk |rk = 1 − |bk | rk < 1.
2 2
Ceci prouve que |P (z + z0 )|/|P (z0 )| < 1, donc que |P (z + z0 )| < |P (z0 )|, ce qui est absurde car
|P (z0 )| = inf z∈C |P (z)|. On a donc bien P (z0 ) = 0.
2/a)α) Si n = 0, alors deg(P ) = q est impair. Le polynôme P étant à coecient réels et unitaire,
P (x) est équivalent à xq lorsque x → +∞ où lorsque x → −∞, donc q étant impair,
lim P (x) = +∞ et lim P (x) = −∞.
x→+∞ x→−∞
5. PROBLÈMES 91
On en déduit qu'il existe a ∈ R+ tel que P (a) > 0 et P (−a) < 0. La fonction polynôme P
étant continue sur R, d'après le théorème des valeurs intermédiaires il existe c ∈ ] − a, a[ tel que
P (c) = 0. D'où α).
β ) Fixons c ∈ R. Soit Q = 1≤i<j≤d (X − yi,j (c)). Les coecients de Q sont des polynômes
symétriques à coecients réels en les xi , et donc (voir le théorème 1 page 84) ce sont des poly-
nômes à coecients réels en les fonctions symétriques élémentaires des xi , qui sont eux mêmes
les coecients de P donc réels ; ainsi, les coecients de Q sont réels, c'est-à-dire Q ∈ R[X].
On a deg(Q) = Card{(i, j), 1 ≤ i < j ≤ d} = dj=1 (j − 1) = d(d − 1)/2 = 2n−1 q(d − 1), où
q(d − 1) est impair (car q est impair et d est pair). On peut donc appliquer à Q l'hypothèse de
récurrence, ce qui entraîne l'existence de (ic , jc ) tel que yic ,jc (c) ∈ C.
γ ) Notons Γ = {(i, j) ∈ N2 , 1 ≤ i < j ≤ d}. D'après la question β ), on peut construire une
application R → Γ c → (ic , jc ) telle que pour tout c ∈ R, yic ,jc (c) ∈ C. Comme R est inni
et Γ ni, cette application n'est pas injective donc il existe (c, c ) ∈ R2 avec c = c , tels ques
(ic , jc ) = (ic , jc ). Posons (r, s) = (ic , jc ). Du fait que
(xr + xs ) + c(xr xs ) ∈ C et (xr + xs ) + c (xr xc ) ∈ C
avec c = c , on tire S = xr + xs ∈ C et P = xr xs ∈ C. Les éléments xr et xs sont donc les
racines de X 2 − SX + P ∈ C[X]+, ce qui permet facilement de conclure que xr ∈ C et xs ∈ C.
Le polynôme P a donc au moins une racine complexe (on en a même trouvé deux, xr et xs ).
b) Le raisonnement par récurrence de a) prouve que tout polynôme à coecients réels
a au moins
une racine dans C. On veut maintenant prouver le résultat dans C[X]. Soit F = di=0 ai X i ∈
C[X]. On pose F = di=0 ai X i , et on voit que P = F F ∈ R[X]. Le polynôme P admet donc au
moins une racine complexe α, donc F (α)F (α) = 0, et donc F (α) = 0 ou F (α) = 0. Si F (α) = 0,
c'est terminé, sinon F (α) = 0 donc F (α) = 0, d'où le résultat.
Remarque. La deuxième méthode, plus longue, présente l'avantage de n'utiliser qu'une
simple conséquence de la topologie : tout polynôme de R[X] de degré impair admet une
racine réelle, résultat connu au dix-huitième siècle.
donc
k−1
∆k f n = bj ∆k (np/2−j ) + O(np/2−k ).
j=0
Nous allons prouver que pour tout α ∈ R, ∆k nα = O(nα−k ) ce qui prouvera le résultat souhaité
compte tenu de l'estimation précédente. On procède par récurrence sur k. Pour k = 0 c'est
immédiat. Supposons le résultat vérié pour k et montrons le pour k + 1. On écrit d'abord
(n + 1)α − nα = nα hα (1/n) où hα (u) = (1 + u)α − 1 est de classe C ∞ sur un voisinage de 0, nulle
en 0, donc on peut écrire hα (u) = c1 u + · · · + ck uk + O(uk+1 ), donc
k
∆k+1 nα = ∆k ((n + 1)α − nα ) = cj ∆k (nα−j ) + O(nα−k−1 ).
j=1
cendant.
Remarque. Le résultat 2/ date de 1844 et est historiquement la première preuve d'exis-
tence de nombres transcendants. Il n'admet pas de réciproque. Par exemple, π est trans-
cendant, et on sait que |π − p/q| < 1/q 7.104 n'a qu'un nombre ni de solutions (Zeilberger,
Zudilin, 2020). Ainsi π n'est pas un nombre de Liouville.
La preuve 1/ est plus récente. Les notions d'équipotence introduites par Cantor datent
en eet de la n du XIX-ième siècle.
94 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES
S'il est relativement simple, avec 2/, de construire des nombres transcendants, il est
beaucoup plus dicile de dire si un nombre donné est transcendant ou non. Le sujet
d'étude 2 page 107 démontre que e et π sont transcendants.
L'élément an+1 est algébrique sur K, a fortiori sur K(a1 , . . . , an ). Le résultat 1/ reste évidemment
vrai si on remplace K par K(a1 , . . . , an ) ⊂ L, donc
[K(a1 , . . . , an )(an+1 ) : K(a1 , . . . , an )] < +∞.
Or K(a1 , . . . , an )(an+1 ) = K(a1 , . . . , an+1 ), donc cette dernière assertion s'écrit
[K(a1 , . . . , an+1 ) : K(a1 , . . . , an )] < +∞. (∗∗)
De (∗) et (∗∗), on tire d'après 2/ a) [K(a1 , . . . , an+1 ) : K] < +∞, d'où la condition nécessaire.
Condition susante. Pour tout i, K[ai ] ⊂ K(ai ) ⊂ K(a1 , . . . , an ), donc K[ai ] est un K-espace
vectoriel de dimension nie, et donc ai est algébrique sur K d'après 1/b).
c) Soient (x, y) ∈ A2 . On a K(x − y) ⊂ K(x, y) donc comme [K(x, y) : K] < +∞, on a [K(x − y) :
K] < +∞, et donc x − y ∈ A d'après 2/b). De même si y = 0, comme K(xy −1 ) ⊂ K(x, y), on
tire xy −1 ∈ A. Finalement, A est un corps.
3/ Soit P = a0 + a1 X + · · · an X n ∈ A[X], P = 0. Le corps L étant algébriquement clos,
il existe a ∈ L tel que P (a) = 0, et donc d'après 1/a) appliqué au corps K(a0 , . . . , an ),
K(a0 , . . . , an )[a] est un corps (donc égal à K(a0 , . . . , an )(a) = K(a0 , . . . , an , a)) de dimension nie
comme K(a0 , . . . , an )-espace vectoriel. Autrement dit, [K(a0 , . . . , an , a) : K(a0 , . . . , an )] < +∞.
Or [K(a0 , . . . , an ) : K] < +∞ d'après 2/b), donc d'après 2/a), [K(a0 , . . . , an , a) : K] < +∞, et
donc a ∈ A d'après 2/b), d'où le résultat.
Remarque. En particulier, l'ensemble A des nombres complexes algébriques sur Q est
un corps algébriquement clos. On l'appelle la clôture algébrique de Q (c'est la plus petite
extension de Q algébriquement close).
Remarque. Dans le second cas, P est un polynôme irréductible dans Q[X] divisant X k −1.
C'est donc un polynôme cyclotomique (voir le problème 10).
Ceci étant, soit D(X) le pgcd de My (X) et Mx (z − tX) dans K(z)[X]. On peut écrire
My (X) = P1 (X)D(X) et Mx (z − tX) = P2 (X)D(X), avec P1 , P2 ∈ K(z)[X],
où P1 et P2 sont premiers entre eux dans K(z)[X]. Donc il existe U, V ∈ K(z)[X] tels que
U P1 + V P2 = 1, égalité qui vaut aussi dans M[X], donc P1 et P2 sont premiers entre eux dans
M[X]. Le pgcd de My (X) et Mx (z − tX) dans M[X] est donc D(X), d'où le résultat demandé
d'après (∗).
γ ) D'après β ), y ∈ K(z). La relation x = z − ty montre que x ∈ K(z). Donc K(x, y) ⊂ K(z). Or
z = x + ty donc K(z) ⊂ K(x, y). Finalement, on a prouvé que K(z) = K(x, y).
c) L'utilisation du résultat 1/b)γ ) permet de montrer par récurrence sur m que si a1 , . . . , am ∈ L,
alors il existe z ∈ L tel que K(a1 , . . . , am ) = K(z).
Ceci étant, soit a1 , . . . , an une base du K-espace vectoriel L. On a L = K(a1 , . . . , an ), et donc
il existe x ∈ L tel que L = K(a1 , . . . , an ) = K(x).
Il reste à montrer que K(x) = K[x]. Considérons le morphisme d'anneau ϕ : K[X] →
K[x] P → P (x). Avec les notations de 1/a), on voit que Ker ϕ = {P | P (x) = 0} = Ix = (Mx ).
Comme ϕ est surjective, K[x] est isomorphe à K[X]/ Ker ϕ = K[X]/(Mx ) qui est un corps car
Mx est irréductible (voir la proposition 4 page 65). L'anneau K[x] est donc un corps, et donc
K(x) ⊂ K[x]. L'inclusion réciproque étant évidente, on a montré K[x] = K(x) = L.
2/ Si K est ni, L est ni (c'est un K-espace vectoriel de dimension nie). On sait (voir la
remarque de l'exercice 10 page 10) que (L∗ , ·) est un groupe cyclique. Soit x l'engendrant. On
voit facilement que L = K[x].
Remarque. Cet exercice utilise le résultat suivant, qu'il est utile de garder en mémoire.
Si P, Q ∈ K[X] et si L est un surcorps de K alors les pgcd de P et Q
dans K[X] et dans L[X] coïncident.
1/ a) Calculer Φp lorsque
p est un nombre premier.
b) Montrer que X n − 1 = d|n Φd . En déduire que pour tout n ∈ N∗ , Φn ∈ Z[X].
2/ On veut prouver que les Φn sont irréductibles dans Q[X].
a) Montrer que l'on peut écrire Φn = F1 F2 · · · Fr avec les Fi ∈ Z[X], unitaires et irréduc-
tibles dans Q[X] (on pourra utiliser le lemme de Gauss, voir l'exercice 4 page 62).
b) Soit ξ une racine de F1 dans C. Soit p un nombre premier tel que p n. Montrer qu'il
≤ r tel que Fi (ξ p ) = 0.
existe i ∈ N, 1 ≤ i m
c) Pour tout F = m k=0 ak X ∈ Z[X], on pose F =
k
k=0 ak X ∈ Z/pZ[X] (x désignant
k
la classe dans Z/pZ de x ∈ Z). Montrer que pour tout F ∈ Z[X], F (X p ) = [F (X)]p .
d) Montrer que dans Z/pZ[X], Φn n'est divisible par le carré d'aucun polynôme non
constant.
e) Montrer que i = 1, c'est-à-dire que F1 (ξ p ) = 0.
f) Montrer que pour tout entier k premier avec n, F1 (ξ k ) = 0. Conclure.
Solution. 1/ Posons ω = e2iπ/n , de sorte que Un = ω. D'après la proposition 5 page 22, on a
Πn = {ω k | 1 ≤ k ≤ n − 1, k ∧ n = 1}, et donc deg(Φn ) = ϕ(n) où ϕ désigne l'indicateur d'Euler.
98 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES
p−1
p p p k
F = (G + am X m )p = G + am p X mp + G am n−k X (p−k)m ,
k
k=1
p
et comme am p = am et que pour 1 ≤ k ≤ p − 1, p | k , on en déduit
p p mp
F (X) = G(X) + am X = G(X ) + am (X p )m = F (X p ).
p
d) Supposons 2
Φn = Q P dans Z/pZ[X]. On peut écrire X n − 1 = Φn R d'après 1/b), avec
2
R= d|n Φd ∈ Z[X], et donc X n − 1 = Φn R = Q S (avec S = P R), d'où par dérivation
d=n
2
nX n−1 = 2QQ S + Q S = Q(2Q S + QS ).
Donc Q | nX n . Or Q | (nX n − n) donc Q divise la diérence, c'est-à-dire Q | n. Or p n donc
n = 0, et donc Q est constant.
e) Comme Fi (ξ p ) = 0, F1 (X) et Fi (X p ) admettent ξ comme racine commune donc ne sont
pas premiers entre eux dans Q[X] (l'égalité de Bezout U (X)F1 (X) + V (X)Fi (X p ) = 1 avec
U, V ∈ Q[X] appliquée à X = ξ mène à une contradiction). De plus F1 est irréductible dans
Q[X] donc F1 (X) | Fi (X p ) dans Q[X]. Comme F1 est unitaire, F1 (X) divise Fi (X p ) dans Z[X]
(voir la remarque 3 de la partie 1.3, page 58). On en déduit que F1 (X) | Fi (X p ) = Fi (X)p . Ceci
5. PROBLÈMES 99
Par hypothèse, on a p | Φn (a) donc Φn (a) ≡ 0 (mod p), et par ailleurs am ≡ 1 (mod p).
Autrement dit, ā est racine de Φn et de X m − 1̄ dans Z/pZ[X]. D'après (∗), ceci entraîne le fait
que ā est racine au moins double de X n − 1̄, donc p | n d'après la question précédente.
c) Raisonnons par l'absurde et supposons qu'il n'y ait qu'un nombre ni de nombres premiers de
la forme 1+kn. Nous les notons p1 , . . . , pm . On considère l'entier N = Φn (α) avec α = np1· · · pm .
On a N ≡ a0 (mod α), où a0 est le coecient constant de Φn . L'identité X n − 1 = d|n Φd
entraîne −1 = d|n Φd (0) et comme les Φd (0) sont entiers, on a forcément a0 = Φn (0) = ±1.
Ainsi, N ≡ ±1 (mod α). Or |N | ≥ 2 (Πn désignant l'ensemble des racines primitives n-ièmes de
100 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES
l'unité, on a |N | = |Φn (α)| = ξ∈Πn |α − ξ|, et comme α ≥ n, on a |α − ξ| > 1 pour tout ξ ∈ Πn
donc |N | > 1). Il existe donc un nombre premier p divisant N . D'après la question précédente, on
doit avoir p | n ou p ≡ 1 (mod n). Mais ceci est impossible étant donnée la congruence N ≡ ±1
(mod np1 · · · pm ).
Remarque. La version forte du théorème de Dirichlet est discutée dans la remarque qui
suit l'exercice 7 page 14.
d) Si d | n, d = n, on a
X n − 1 = Φn Φe = Φn Φe Φe = Φn · (X d − 1) Φe ,
e|n, e=n e|d e|n, e=n, ed e|n, e=n, ed
donc Φn divise (X n − 1)/(X d − 1) dans Z[X]. Ceci étant vrai pour tout diviseur d de n distinct
Xn − 1
de n, Φn divise λd dans Z[X]. Comme de plus Φn divise X n − 1 dans Z[X], il divise
d|n
Xd − 1
d=n
n Xn − 1 n − 1 qn
(X − 1) − λd dans Z[X]. Donc Φn (q) divise (q − 1) − d − 1
, et ceλd
d|n
Xd − 1 d|n
q
d=n d=n
dernier égale q − 1 d'après (∗∗∗). Donc |Φn (q)| ≤ q − 1. Or n ≥ 2 donc |Φn (q)| = ξ∈Πn |q − ξ| >
ϕ(n)
i=1 |q − 1| ≥ |q − 1|, ce qui est absurde. Le corps ni K est donc commutatif. Le raisonnement
par récurrence est ainsi achevé et montre que tout corps ni est commutatif.
Remarque. Si on veut trouver un corps non commutatif, il faut donc que celui ci soit
inni. Hamilton fut le premier en 1843 à exhiber un corps non commutatif : le corps H
des quaternions (H est un surcorps de C. Ses éléments sont des quadruplets a+bi+cj +dk ,
munis de la loi d'addition usuelle et d'une loi de multiplication associative et distributive
par rapport à l'addition, vériant ij = −ji = k , jk = −kj = i, ki = −ik = j et
i2 = j 2 = k 2 = −1. Le lecteur pourra bien sûr vérier que l'on a bien aaire à un corps).
3/
√ a) Soit P ∈ C(I, C) une fonction polynôme de degré n − 1 telle que pour tout x ∈ I ,
| 1 − x2 P (x)| ≤ 1. Montrer
que P ∞ ≤ n.
b) Soit S : R → C θ → nk=1 µk sin(kθ) avec les µk ∈ C. Si S∞ = 1, montrer que
S(θ)
∀θ ∈ R πZ, ≤ n.
sin θ
4/ Inégalité de Bernstein. Soit g : R → C θ → nk=−n λk eikθ , où les λk ∈ C. Montrer
que g ∞ ≤ ng∞ .
102 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES
5/ Là encore, quitte à diviser P par P ∞ , on peut supposer P ∞ = 1 (le cas P= 0 est évident).
Posons g(θ) = P (cos θ) = P [(eiθ + e−iθ )/2]. Cette application a la forme de l'application g de
4/, et donc on a
∀θ ∈ R, |g (θ)| = | sin θ| · |P (cos θ)| ≤ n.
√
Cette inégalité entraîne que sur [−1, 1], on a 1 − x2 |P (x)| ≤ n, donc d'après 3/a), |P (x)| ≤ n2
sur I . D'où le résultat.
Remarque. Les polynômes Tn (resp. Un ) s'appellent les polynômes de Tchébyche de
première espèce (resp. de deuxième espèce). Ce sont des polynômes orthogonaux , dont
l'étude générale fait l'objet du sujet d'étude 3 page 110.
On retrouve les polynômes de Tchébyche de première espèce dans l'exercice 13 page 74,
ou il est démontré qu'ils vérient la propriété de mini-max suivante : le minimum de P ∞
lorsque P parcourt les polynômes unitaires de degré n est égal à 21−n Tn ∞ = 21−n .
Problème 14. Pour tout n ∈ N∗ , on note π(n) le nombre de nombres premiers p vé-
riant p ≤ n. Le but du problème est d'obtenir des minorations intéressantes de π(n),
en utilisant des intégrales de polynômes à coecients entiers. Pour tout n ∈ N, on note
Zn [X] l'ensemble des polynômes de degré ≤ n à coecients entiers.
1/a) Pour tout k ∈ N, on considère l'ensemble
Ek = {P ∈ Zk [X] | P (1 − X) = (−1)k P (X)}
et on note Zk [X(1 − X)] = {P (X(1 − X)) | P ∈ Zk [X]}. Montrer que pour tout k ∈ N,
on a E2k = Zk [X(1 − X)] et E2k+1 = (1 − 2X) Zk [X(1 − X)].
b) Pour tout P ∈ R[X], on note P ∞ = supt∈[0,1] |P (t)|. Montrer que pour tout k ∈ N,
il existe Pk ∈ Ek tel que
Pk ∞ = mk , où mk = inf P ∞ .
P ∈Zk [X],P =0
b) Soit P ∈ Z[X] de degré n tel que I(P ) = 0 P (t) dt = 0. Montrer que |I(P )| ≥ 1/dn+1 .
c) Soit P ∈ Z[X] non nul tel que P ∞ < 1. Montrer que
n 1 1
π(n) ≥ C(P ) +O avec C(P ) = − log P ∞ .
log n log n deg(P )
Cette borne inférieure motive la recherche de polynômes P ∈ Z[X] maximisant C(P ).
3/a) Pour tout k ∈ N∗ , on note Ck = −(log mk )/k. Calculer C2 et en déduire une première
borne inférieure sur π(n).
b) Calculer C5 puis une nouvelle borne inférieure sur π(n) (on pourra utiliser l'inégalité de
Markov P ∞ ≤ 2(deg P )2 P ∞ , conséquence de la question 5/ du problème précédent).
Solution. 1/a) Montrons d'abord le résultat pour E2k . L'inclusion Zk [X(1 − X)] ⊂ E2k est
immédiate. Pour montrer l'inclusion réciproque, on procède par récurrence sur k. Pour k = 0
c'est immédiat. Supposons le résultat vrai au rang k − 1 et montrons le au rang k ∈ N∗ . Soit
P ∈ E2k . Le polynôme P (X) − P (0) s'annule en X = 0 ainsi qu'en X = 1 par symétrie.
On peut donc écrire P (X) − P (0) = X(1 − X)Q(X) où Q ∈ Q[X]. La division euclidienne d'un
polynôme à coecients entiers par un polynôme dont le terme dominant vaut ±1 est à coecients
entiers, donc Q ∈ Z[X] (voir la remarque 3 page 58). De plus Q ∈ E2k−2 , et il sut d'appliquer
l'hypothèse de récurrence à Q pour montrer que P = P (0) + X(1 − X)Q ∈ Zk [X(1 − X)].
Il s'agit maintenant de montrer E2k+1 ⊂ (1 − 2X)Zk [X(1 − X)]. Soit P ∈ E2k+1 . On a
P (1/2) = (−1)2k+1 P (1/2) = −P (1/2) donc P (1/2) = 0. Ainsi, P est divisible par (1 − 2X) donc
104 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES
il existe Q ∈ Q[X] tel que P = (1 − 2X)Q. Lorsque |x| < 1/2, l'égalité
P (x)
Q(x) = = P (x)(1 + 2x + 4x2 + · · · )
1 − 2x
montre que les coecients de Q(x) (vu comme une série entière) sont entiers, donc Q ∈ Z[X].
On conclut en remarquant que Q ∈ E2k .
b) On montre d'abord l'existence de Qk ∈ Zk [X] tel que Qk ∞ = mk . On remarque que
l'ensemble Γ = {P ∈ Zk [X]{0} | P ≤ 1 + mk } est ni (les normes dans le s.e.v de dimension
nie Rk [X] sont équivalentes, donc si P = k=0 a X ∈ Γ il existe A > 0 tel que k=0 |a | ≤
A P ∞ ≤ B = A(1 + mk )). Donc il existe Qk ∈ Γ tel que Qk ∞ = inf P ∈Γ P ∞ , et comme
inf P ∈Γ P ∞ = mk par dénition de Γ, on a bien le résultat voulu.
On considère maintenant les deux polynômes
R1 (X) = XQk (X) + (−1)k (1 − X)Qk (1 − X), R2 (X) = (1 − X)Qk (X) + (−1)k XQk (1 − X).
Ces polynômes sont de degré ≤ k (le terme éventuel de degré k + 1 s'annule) et on a Ri (X) =
(−1)k Ri (1−X) donc Ri ∈ Ek . Lorsque t ∈ [0, 1] on a |R
i (t)| ≤ tQk ∞ +(1−t)Qk ∞ = Qk ∞ ,
donc Ri ∞ ≤ mk . Le déterminant (1−X)
X (−1)k (1−X)
(−1)k X
= (−1)k (2X − 1) est non nul, donc Qk (X)
et Qk (1 − X) s'expriment linéairement en fonction de R1 et R2 donc l'un des deux polynômes
R1 , R2 est non nul. Il sut alors de choisir Pk comme l'un non nul de ces deux polynômes.
2/a) Notons k = π(n) et p1 , . . . , pk les nombres premiers ≤ n. On a dn = ki=1 pαi i où pour
tout i, αi est la plus grande puissance de pi dans la décomposition en facteurs premiers des n
premiers entiers. Ainsi, pαi i ≤ n, donc dn ≤ nk = nπ(n) .
b) En écrivant P = nk=0 ak X k , on a I(P ) = nk=0 ak /(k + 1) donc en réduisant au même
dénominateur, on voit que I(P ) = m/dn+1 avec m ∈ Z. Comme m ∈ Z∗ , on en déduit le
résultat.
c) Notons k = deg(P ). Pour tout α ∈ N∗ , le polynôme P 2α ∈ Z[X] est positif non nul et de
degré 2kα, donc I(P 2α ) ≥ 1/d2kα+1 . Par ailleurs I(P 2α ) ≤ P 2α
∞ ce qui entraîne
1 1 2kα
(2kα + 1)π(2kα+1) ≥ d2kα+1 ≥ ≥ donc π(2kα + 1) ≥ C(P ).
I(P 2α ) P 2α
∞ log(2kα + 1)
On en déduit facilement le résultat demandé.
3/a) D'après 1/b), il existe P ∈ Z1 [X(1 − X)] tel que P ∞ = m2 . Le polynôme P a la
forme P = a + bX(1 − X) avec a, b ∈ Z. Comme m2 ≤ X(1 − X)∞ = 1/4, on doit avoir
|a| = |P (0)| ≤ m2 ≤ 1/4 donc a = 0. On en conclut que P = bX(1 − X) et forcément,
b = ±1. Ainsi, m2 = 1/4 donc C2 = log 2. On en conclut grâce à la question précédente que
π(n) ≥ (log 2)n/ log n + O(1/ log n).
b) La question 1/b) assure qu'il existe P de la forme P = (1 − 2X)[a + bX(1 − X) + cX 2 (1 − X)2 ]
avec a, b, c ∈ Z tel que P ∞ = m5 . Comme m5 ≤ m2 < 1, on a forcément a = P (0) = 0. Un
calcul facile montre que Q = (1 − 2X)X 2 (1 − X)2 vérie Q∞ = 5−5/2 . D'après l'inégalité de
Markov on a donc
1 2
|b| = |P (0)| ≤ P ∞ ≤ 2 · 52 P ∞ ≤ 2 · 52 = √ <1
55/2 5
donc b = 0. Ainsi, P est de la forme P = c(1 − 2X)X 2 (1 − X)2 , et on a forcément c = ±1
donc P = ±Q. Donc m5 = Q∞ = 5−5/2 , d'où C5 = log(5)/2. Ceci donne la minoration
2 n/ log n + O(1/ log n) pour n susamment grand.
π(n) ≥ log(5)
Remarque. Nous avons montré π(n) ≥ Ck n/ log n + O(1/ log n) dans 3/a) et 3/b), avec
C2 0, 6931 et C5 0, 8047. Le théorème des nombres premiers (dont une démonstration
est proposée en annexe du tome d'analyse à partir de la deuxième édition) assure que
π(n) ∼ n/ log n. Cependant on ne peut pas, en utilisant la technique du problème, obtenir
des minorations du type π(n) ≥ C n/ log(n) + O(1/ log n) avec C arbitrairement proche
de 1 (en eet, on peut montrer que Ck ≤ 0, 866 pour tout k ).
6. SUJETS D'ÉTUDE 105
6. Sujets d'étude
Sujet d'étude 1. Soit p un nombre premier. On note Fp = Z/pZ.
1/ Soit K un corps commutatif contenant Fp . Montrer que pour
tout R ∈ Fp [X] et pour
pn
tout x ∈ K, on a pour tout n ∈ N la relation R(xp ) = R(x) .
n
2/a) Soit Q ∈ Fp [X], irréductible dans Fp [X], de degré d. Soit n ∈ N∗ . Montrer que
Q | (X − X) si et seulement si d | n.
pn
3/a) Pour tout n ∈ N∗ , on note Ipn = Card(Kpn ). Montrer que pn = d|n dIpd .
b) Montrer que pour tout n ∈ N∗ , Ipn = 0.
4/ Une application aux corps nis (on rappelle que tout corps ni est commutatif, voir le
problème 11 page 100).
a) Soit K un corps ni. Montrer qu'il existe un nombre premier p et un entier n ∈ N∗ tels
que Card(K) = pn . Réciproquement, si p est un nombre premier et si n ∈ N∗ , montrer
qu'il existe un corps ni K de cardinal pn .
b) Soit K un surcorps de Fp tel que Card(K) = pn avec n ∈ N∗ . Soit P ∈ Kpn . Montrer
qu'il existe x ∈ K tel que P (x) = 0.
c) En déduire que deux corps nis de même cardinal sont isomorphes.
Solution. 1/ Le corps K contenant Fp , il est de caractéristique p. On peut donc écrire
p−1
p k p−k
∀x, y ∈ K, (x + y)p = xp + y p + x y = xp + y p
k
k=1
p
car si 1 ≤ k ≤ p − 1, p | .
k
En procédant par récurrence sur n, on en déduit que pour tout n ∈ N, (x + y)p = xp + y p ,
n n n
puis par récurrence sur k, on montre que pour tout (x1 , . . . , xk ) ∈ Kk , pour tout n ∈ N,
n n n
(x1 + · · · + xk )p = xp1 + · · · + xpk .
Par ailleurs, pour tout a ∈ Fp , ap = a donc (par récurrence), pour tout n ∈ N, ap = a.
n
2/a) Le polynôme Q étant irréductible dans Fp [X], K = Fp [X]/(Q) est un corps ; K est d'ailleurs
un Fp -espace vectoriel de dimension d, donc isomorphe (comme Fp -espace vectoriel) à Fdp , d'où
Card(K) = Card(Fdp ) = pd . Le groupe multiplicatif K∗ est donc d'ordre pd − 1, et donc pour tout
106 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES
kd
∀y ∈ K, ∀k ∈ N, yp = y. (∗)
pn
Condition nécessaire. Supposons Q | (X p − X), c'est-à-dire X = X . Soit y ∈ K. Il existe
n
pn
R ∈ Fp [X] tel que y = R(X), donc y p = R(X)p = R(X ) = R(X) = y (∗∗). Eectuons
n n
Or K , sous groupe multiplicatif ni d'un corps commutatif, est cyclique (voir la remarque de
∗
pour tout i on a Qi ∈ Kpd avec d | n. On en tire (X p − X) | d|n .
n
Q∈Kpd Q
Pour tout entier d, d | n, et pour tout Q ∈ Kpd , on a Q | (X p −X). Ces facteurs Q étant
n
irréductibles, ils sont premiers entre eux deux à deux, et donc d|n − X).
p n
Q∈Kpd Q | (X
On conclut à l'égalité en remarquant que ces polynômes sont unitaires.
3/a) L'identité souhaitée se déduit de 2/b) en passant aux degrés.
b) Le résultat précédent entraîne que pour tout n ∈ N∗ , nIpn ≤ d
d|n dIp = pn . Si on xe
maintenant n ∈ N∗ , on en déduit
n−1
pn − p
nIpn = pn − dIpd ≥ pn − pd ≥ pn − pd = pn − > 0.
p−1
d|n d|n d=1
d=n d=n
4/a) Soit p la caractéristique de K. On a p = 0 car K est ni, et p est un nombre premier (voir la
proposition 1 page 57). Notons e l'élément unité de K. L'application ϕ : Z → K n → ne est un
morphisme d'anneaux et Ker ϕ = pZ. Si K = Im ϕ ⊂ K, K est isomorphe à Z/Ker ϕ = Z/pZ =
Fp et c'est donc un sous-corps de K isomorphe à Fp (K s'appelle le sous corps premier de K,
voir la dénition 4 page 58). Le corps K apparaît alors comme étant un K -espace vectoriel, de
dimension nie n car K est ni. Le corps K est donc isomorphe (comme K -espace vectoriel) à
K n , donc Card(K) = Card(K n ) = (Card(K ))n = (Card(Fp ))n = pn .
Réciproquement, soit p un nombre premier et n ∈ N∗ . D'après 3/b), Kpn = ∅. Soit P ∈ Kpn .
K = Fp [X]/(P ) est un corps (car P est irréductible), de cardinal pn car K est un Fp -espace
vectoriel de dimension n.
b) Le groupe multiplicatif K∗ étant de cardinal pn − 1, pour tout x ∈ K∗ , xp −1 = 1, donc pour
n
exactement les éléments de K. Or d'après 2/b), P | (X p − X), donc il existe x ∈ K tel que
n
P (x) = 0.
c) Soit P0 ∈ Kpn , soit K un corps de cardinal pn . La caractéristique de K est p (en eet, c'est un
nombre premier qui de plus divise pn car (K, +) est un groupe d'ordre pn ), et on a vu au 4/a)
que Fp est isomorphe à un sous-corps de K. Autrement dit, à un isomorphisme près, K est un
surcorps de Fp , et donc d'après 4/b), il existe x0 ∈ K tel que P0 (x0 ) = 0.
6. SUJETS D'ÉTUDE 107
b) Soit Q ∈ Z[X] et p ∈ N, p ≥ 2. Si F (X) = Q(X)X p−1 /(p − 1)!, montrer que D(F )(0)
est un entier vériant D(F )(0) ≡ Q(0) (mod p).
2/ (Transcendance de e). On rappelle qu'un nombre transcendant est un nombre non
algébrique sur Q. Supposons e algébrique. Alors il existe Q ∈ Z[X], Q =
0, tel que
Q(e) = 0. Soit n = deg(Q). Pour tout nombre premier p, on note
X p−1
Fp (X) = [(X − 1) · · · (X − n)]p .
(p − 1)!
a) Si k ∈ N, 1 ≤ k ≤ n, montrer que D(Fp )(k)
est un entier divisible par p.
1
b) Si k ∈ N, 1 ≤ k ≤ n, montrer que p→+∞
lim ek(1−t) Fp (kt) dt = 0.
0
c) Conclure.
3/ (Transcendance de π). Supposons π algébrique sur Q.
a) Montrer qu'alors iπ est algébrique.
Il existe donc Q = dX n + d1 X n−1 + · · · + dn−1 X + dn ∈ Z[X], d = 0, tel que Q(iπ) = 0.
Soient ω1 , . . . , ωn les racines de Q, de sorte que Q = d(X − ω1 ) · · · (X − ωn ).
b) Si Φ ∈ Z[X1 , . . . , Xn ] est symétrique, montrer
que Φ(dω1 , . . . , dωn ) est un entier.
Comme il existe k tel que ωk = iπ , on a nk=1 (1 + eωk ) = 0, ce qui en développant
s'écrit aussi
n −1
2
1+ eαj = 0,
j=1
α1 , . . . , α
2n −1 étant les nombres de la forme i∈I ωi , I étant une partie non vide de
{1, . . . , n}. Supposons que C de ces 2n − 1 nombres soient nuls. Si m = 2n − 1 − C , on
peut, quitte à renuméroter, supposer que les αj non nuls sont α1 , . . . , αm .
c) Montrer que si un polynôme Φ ∈ Z[X1 , . . . , Xm ] est symétrique dans Z[X1 , . . . , Xm ],
alors Φ(dα1 , . . . , dαm ) est entier.
Pour tout nombre premier p, on pose
dmp+p−1 X p−1
Fp (X) = [(X − α1 ) · · · (X − αm )]p .
(p − 1)!
108 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES
d) Montrer que m k=1 D(Fp )(αk ) est un entier divisible par p.
e) En procédant comme au 2/, conclure.
Solution. 1/a) On pose f (t) = e−at D(F )(at). Comme D(F ) = D(F ) − F , on a pour tout
t ∈ [0, 1] : f (t) = −ae−at D(F )(at) + ae−at D(F ) (at) = −ae−at F (at), et donc par intégration
1
f (1) − f (0) = −a 0 e−at F (at) dt, d'où le résultat compte tenu de la valeur de f .
n
n
X k+p−1
b) Écrivons Q = ak X k , de sorte que F = ak . Alors
(p − 1)!
k=0 k=0
n
n
(k + p − 1)!
D(F )(0) = ak = a0 + ak (k + p − 1) · · · p,
(p − 1)!
k=0 k=1
donc D(F )(0) est un entier qui vérie D(F )(0) ≡ a0 ≡ Q(0) (mod p).
2/a) Fixons k ∈ N, 1 ≤ k ≤ n. Si G(X) = Fp (X + k), on voit facilement que G a la forme
X p−1
G(X) = X · H(X) avec H ∈ Z[X], donc d'après 1/b), N = D(G)(0) = D(Fp )(k) est un
(p − 1)!
entier vériant N ≡ 0 (mod p).
b) Si t ∈ [0, 1], ek(1−t) |Fp (kt)| ≤ ek kp−1 (nn )p /(p − 1)!, donc
1 (knn )p−1
ek(1−t) Fp (kt) dt ≤ nn ek .
(p − 1)!
0
Or a0 = 0, et donc pour tout nombre premier p supérieur à max{|a0 |, n}, on a Tp ≡ 0 (mod p).
Tp est donc un entier non nul, et vérie donc |Tp | ≥ 1. Or d'après 2/b), limp→∞ Sp = 0, ce qui
est absurde d'après (∗). Le nombre réel e est donc transcendant.
3/a) Avec le résultat du problème 5, c'est immédiat. En eet, l'ensemble des nombres algébriques
étant un corps, si π est algébrique, comme i est algébrique (racine de X 2 + 1), iπ est algébrique.
Nous allons néanmoins montrer ce résultat directement. Si π est algébrique, il existe n ∈ N∗
et a0 , . . . , an ∈ Z, an = 0, tels que a0 + a1 π + · · · + an π n = 0. En notant θ = iπ , on a
(a0 − a2 θ2 + · · · ) − i(a1 θ − a3 θ3 + · · · ) = 0,
et en posant Q = (a0 − a2 X 2 + · · · )2 + (a1 X − a3 X 3 + · · · )2 ∈ Z[X], on a donc Q(θ) = Q(iπ) = 0
et Q = 0. D'où le résultat.
b) Les nombres complexes dω1 , . . . , dωn sont les racines du polynôme dn−1 Q(X/d) = X n +
d1 X n−1 + dd2 X n−2 + · · · + dn−2 dn−1 X + dn−1 dn = R(X). Ce polynôme est unitaire à coecients
entiers, donc toute expression polynomiale à coecients entiers et symétrique en les racines de
R(X), est un entier (voir la remarque 4 page 84), d'où le résultat.
c) Le polynôme Φ étant symétrique dans Z[X1 , . . . , Xm ], il existe P ∈ Z[X1 , . . . , Xm ] tel que
Φ = P (Σ∗1 , . . . , Σ∗m ), les Σ∗i désignant les fonctions symétriques élémentaires de Z[X1 , . . . , Xm ].
6. SUJETS D'ÉTUDE 109
pour des suites réelles (an ), (bn ) et (cn ) que l'on explicitera. n
d) (Formule de Darboux). En déduire que le noyau Kn (x, y) = i=0 Pi (x)Pi (y) vérie
n
γn Pn+1 (x)Pn (y) − Pn (x)Pn+1 (y)
∀n ∈ N, ∀(x, y) ∈ R2 , x = y, Pi (x)Pi (y) =
i=0
γn+1 x−y
c) Montrer l'unicité des nombres réels (xi )1≤i≤n et (λi )1≤i≤n vériant l'identité (∗∗).
d) Si I est un segment de R, et f : I → R est de classe C 2n , montrer que
n 1 supx∈I |f (2n) (x)|
f (x)w(x) dx − λ i f (x i ≤ 2
) .
I γn (2n)!
i=1
c) La propriété de projection sur un s.e.v de dimension nie (voir la proposition 2 page 254) assure
que fn est la projection orthogonale de f sur Vect(P0 , . . . , Pn ) = Vect(1, . . . , X n ). Donc f − fn
est orthogonal à ce sous espace, c'est-à-dire f − fn , Q = 0 pour tout polynôme Q de degré ≤ n.
On procède ensuite de manière analogue à la solution de la question 2/a), (sauf qu'ici, on ne peut
pas utiliser la notion de zéro de multiplicité impaire). Raisonnons par l'absurde et supposons que
f − fn ne s'annule qu'en k points x1 < . . . < xk de l'intérieur de I , avec k ≤ n. Par commodité,
notons x0 et xk+1 les extrémités de l'intervalle I . Sur chaque intervalle ]xj , xj+1 [ la fonction
continue f − fn ne s'annule pas donc garde un signe constant. Notons 1 ≤ j1 < . . . < j ≤ k les
indices j pour lesquels f −fn change de signe entre ]xj−1 , xj [ et ]xj , xj+1 [. La fonction f −fn garde
un signe constant sur chacun des intervalles ]x0 , xj1 [, ]xj1 , xj2 [, . . ., ]xj , xk+1 [ et change de signe
à chaque xjm . Ainsi, le polynôme déni par Q = m=1 (X − xjm ) (ou Q = 1 si = 0) est tel que
(f − fn )Q garde un signe constant sur I tout entier. Donc la fonction continue (f − fn )Qw garde
également un signe constant sur I , et comme deg(Q) ≤ n on a f − fn , Q = I (f − fn )Qw = 0
donc (f − fn )Qw = 0, donc (f − fn )Q = 0. Ceci entraîne que f − fn s'annule sauf éventuellement
aux zéros de Q, et par continuité f − fn = 0 sur I tout entier. Ceci est absurde car on a supposé
que f − fn ne s'annulait qu'en un nombre ni de points. Donc f − fn s'annule bien en au moins
n + 1 points de l'intérieur de I .
3/a) Montrons l'existence des (λi ). Notons Li le polynôme de Lagrange de degré < n qui vérie
Li (xi ) = 1 et Li (xj ) = 0 pour j = i.
Soit Q ∈ R[X], deg(Q) < 2n, et considérons le polynôme
d'interpolation de Lagrange L(X) = ni=1 Q(xi )Li (X) qui vérie Q(xi ) = L(xi ) pour tout i. Le
polynôme Q − L s'annule aux points xi , donc il existe un polynôme R tel que Q − L = Pn R. On
a deg(R) = deg Q − deg Pn < n, donc Pn , R = 0, donc I (Q − L)(x)w(x) dx = 0. On en déduit
n
n
Q(x)w(x) dx = L(x)w(x) dx = Q(xi )Li (x) w(x) dx = λi Q(xi )
I I I i=1 i=1
avec λi = I Li (x)w(x) dx. Les λi sont bien uniques,
car l'expression (∗∗) appliquée au polynôme
de Lagrange Li montre qu'on a forcément λi = I Li (x)w(x)
dx. Enn, l'expression (∗∗) appliquée
à Q = L2i (dont le degré est ≤ 2n − 2) entraîne 0 < I Li (x)2 w(x) dx = λi .
b) L'idée est de calculer de deux manières diérentes l'expression I Kn (x, xi )Li (x)w(x) dx.
Comme deg(Kn (X, xi )Li (X)) < 2n, on peut appliquer l'expression (∗∗) ce qui donne
n
Kn (x, xi )Li (x)w(x) dx = λj Kn (xj , xi )Li (xj ) = λi Kn (xi , xi ). (∗∗∗∗)
I j=1
Avec (∗∗∗∗), on en déduit λi = 1/Kn (xi , xi ), d'où le résultat souhaité grâce à l'expression obtenue
dans 1/d) pour Kn (x, x).
c) Supposons l'identité
(∗∗) vraie pour des nombres (xi ) et (λi ), avec x1 < . . . < xn . Alors le
polynôme Q = ni=1 (X − xi ) vérie
n
∀P ∈ R[X], deg(P ) < n, Q(x)P (x)w(x) dx = λi Q(xi )P (xi ) = 0
I i=1
114 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES
autrement dit on a Q, P = 0 pour tout polynôme P de degré < n. Donc Q = ni=0 Q, Pi Pi =
Q, Pn Pn , autrement dit Q et Pn sont proportionnels, ce qui entraîne que les (xi ) sont les racines
de Pn , et sont donc uniques. Nous avons déjà vu qu'alors les (λi ) étaient uniques, d'où le résultat.
d) Soit P le polynôme d'interpolation de Hermite, deg(P ) < 2n, tel que P (xi ) = f (xi ) et
P (xi ) = f (xi ) pour tout i. D'après l'exercice 7 page 70, on a
n
supt∈I |f (2n) (t)|
∀x ∈ I, |f (x) − P (x)| ≤ M (x − xi )2 avec M = .
(2n)!
i=1
n
Comme Pn (x) = γn i=1 (x − xi ) on en déduit, par intégration
P 2 (x) M M
|f (x) − P (x)|w(x) dx ≤ M n 2 w(x) dx = 2 Pn , Pn = 2
I I γn γn γn
n
Par ailleurs, comme f (xi ) = P (xi ), on a I P (x)w(x) dx = i=1 λi f (xi ) donc
n
f (x)w(x) dx − λi f (xi ) = (f (x) − P (x))w(x) dx
I i=1 I
d'où le résultat souhaité à partir de la majoration I |f − P |w obtenue juste au dessus.
Remarque. Les polynômes orthogonaux classiques sont les suivants :
(i) Lorsque I = ] − 1, 1[ et w(x) = (1 − x2 )−1/2 , les Pn sont les polynômes de Tchébyche
de première espèce, et vérient Pn (x) = Tn (x) = cos(n arccos(x)) (déjà rencontrés
dans l'exercice 13 page 74 et le problème 13 page 101).
(ii) Lorsque I = ] − 1, 1[ et w(x) = (1 − x2 )1/2 , les Pn sont les polynômes de Tchébyche
de seconde espèce, et vérient Pn (x) = Un (x) = n+1 1
Tn+1 (x).
(iii) Lorsque I = [−1, 1] et w(x) = 1, les Pn sont les polynômes de Legendre . Ils vérient
n (1 − x ) .
dn
Pn (x) = 2n1n! dx 2 n
(iv) Lorsque I = ] − ∞, +∞[ et w(x) = e−x , les Pn sont les polynômes d'Hermite .
2
(v) Lorsque I = [0, +∞[ et w(x) = e−x , les Pn sont les polynômes de Laguerre .
Chapitre 3
1. Espaces vectoriels
1.1. Généralités
Définition 1. On appelle K-espace vectoriel (ou e.v sur K) un ensemble E muni d'une loi
interne (notée +) et d'une loi externe (notée ·) admettant K comme ensemble d'opérateurs
et vériant :
(i) (E, +) est un groupe abélien.
(ii) Pour tout (x, y) ∈ E 2 et (λ, µ) ∈ K2 ,
a) λ · (x + y) = λ · x + λ · y, b) (λ + µ) · x = λ · x + µ · x,
c) λ · (µ · x) = (λµ) · x, d) 1 · x = x.
116 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS
Exercice 2. Montrer que dans le R-e.v des fonctions continues de R dans R, les familles
de fonctions suivantes sont des familles libres :
a) (fλ )λ∈R où fλ : R → R x → eλx .
b) (fλ )λ∈R+ où fλ : R → R x → cos(λx).
c) (fλ )λ∈R où fλ : R → R x → |x − λ|.
Solution.
n a) Supposons cette famille liée, de sorte qu'il existe (λi )1≤i≤n ∈ Rn et (µi ) ∈ Rn tels
que i=1 i fλi = 0 avec les µi non tous nuls. Quitte à retirer des termes, on peut supposer
µ
µi = 0 pour tout i. Quitte à réordonner des termes, on peut même supposer λ1 > λ2 > · · · > λn .
On a n
n
−λ1 x
lim e µi e λi x
= lim µi e(λi −λ1 )x = µ1 ,
x→+∞ x→+∞
i=1 i=1
car pour i ≥ 2, λi − λ1 < 0. Or i µi fλi = 0, et cette limite est donc nulle, donc µ1 = 0, ce qui
est contradictoire.
2. APPLICATIONS LINÉAIRES 119
n
b) Montrons par récurrence sur n ∈ N∗ que si i=1 µi fλi = 0 (avec les λi distincts dans R ),
+
alors pour tout i, µi = 0. Pour n = 1 c'est évident. Supposons maintenant le résultat vrai
jusqu'au rang n − 1 et montrons le au rang n. Si ni=1 µi fλi = 0 (∗), les (λi ) distincts dans
R+ , par double dérivation, on obtient ni=1 µi (−λ2i fλi ) = 0 (∗∗). En multipliant l'égalité (∗)
par λ2n et en l'ajoutant à (∗∗), on obtient n−1i=1 µi (λi − λn )fλi = 0, donc d'après l'hypothèse de
2 2
2. Applications linéaires
2.1. Généralités
Définition 1. Soient E et F deux K-e.v et f : E → F une application. On dit que f
est linéaire si
∀(x, y) ∈ E 2 , ∀(λ, µ) ∈ K2 , f (λx + µy) = λf (x) + µf (y).
L'ensemble des applications linéaires de E dans F est un K-e.v noté L(E, F ).
Exemple 1. L'application ϕ : C([0, 1], R) → R f → 01 f (t) dt est linéaire.
Si λ ∈ K, l'application ϕ : E → E x → λx est linéaire.
Remarque 1. Une application linéaire de E dans K est appelée forme linéaire.
120 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS
Une application linéaire de E dans E est appelée endomorphisme.
Si f est linéaire, alors f (0) = 0.
La composée de deux applications linéaires est linéaire.
Si f : E → F est linéaire et bijective, on dit que f est un isomorphisme de K-e.v.
L'application f −1 : F → E est aussi linéaire.
Si f ∈ L(E, F ), la linéarité de f entraîne que pour connaître (resp. pour dénir)
f , il sut de la connaître (resp. dénir) sur une base de E .
Proposition 1. L'image (ou l'image réciproque) d'un s.e.v par une application linéaire
est un s.e.v.
Définition 2. Soient E et F des K-e.v et f ∈ L(E, F ). On appelle noyau de f l'ensemble
noté Ker f = f −1 ({0}) = {x ∈ E | f (x) = 0}. On appelle image de f l'ensemble noté
Im f = f (E). Les ensembles Ker f et Im f sont des s.e.v. Par ailleurs, f est injective si et
seulement si Ker f = {0}.
Définition 3. Soient E et F des K-e.v et f ∈ L(E, F ). Si Im f est de dimension nie,
on dit que f est de rang ni, et l'entier dim(Im f ) est appelé rang de f , noté rg f .
2.2. Espaces vectoriels quotients
Définition 4. Soit E un K-e.v et F un s.e.v de E . La relation R dénie par (x R y ⇐⇒
x − y ∈ F ) est une relation d'équivalence sur E . L'espace quotient est noté E/F , et c'est
un K-e.v muni des lois x + y = x + y , λx = λx.
Définition 5. Soit E un K-e.v, F un s.e.v de E . Si E/F est de dimension nie, on dit
que F est de codimension nie dans E . On appelle alors codimension de F dans E l'entier
codimE F = dim(E/F ). Si codimE F = 1, on dit que F est un hyperplan de E .
Proposition 2. Soit E un K-e.v. Un s.e.v F de E est de codimension nie dans E si
et seulement si F admet un supplémentaire S dans E de dimension nie. On a alors
dim S = codimE F .
Démonstration. Condition nécessaire. Supposons E/F de dimension nie. Pour tout x ∈ E , on
note ẋ sa classe dans E/F . Soit(e˙1 , . . . , e˙n ) une base de E/F . Soit S = Vect(ei )1≤i≤n . Alors
F ∩ S = {0} car si x = ni=1 λi ei ∈ F ∩ S , alors ẋ = 0̇ = ni=1 λi e˙i et donc pour tout i,
λi = 0.
F + S = E . En eet, soit x ∈ E . Il existe λ1 , . . . , λn ∈ K tels que ẋ = ni=1 λi e˙i . Si
y = ni=1 λi ei , on a donc z = x − y ∈ F (car ż = ẋ − ẏ = 0̇) et x = z + y , y ∈ S .
Donc F ⊕ S = E , et dim S = n = dim(E/F ) = codimE F .
Condition susante. Supposons F ⊕ S = E , où S est de dimension nie n. Soit (e1 , . . . , en ) une
base de S . Nous montrons que (e˙1 , . . . , e˙n ) est une base de E/F .
(e˙1 , . . . , e˙n ) est une famille génératrice de E/F . En eet, si x ∈ E , il existe y ∈ F et z ∈ S
tel que x = y + z et donc ẋ = ẏ + ż = ż ∈ Vect( e˙1 , . . . , e˙n ).
(e˙1 , . . . , e˙n ) est une famille libre. En eet, si ni=1 λi e˙i = 0̇, alors ni=1 λi ei ∈ F donc est
nul car F ∩ S = {0}. Donc pour tout i, λi = 0.
Finalement, on a donc codimE F = dim(E/F ) = n = dim S .
Corollaire 1. Si E est un K-e.v de dimension nie, si F est un s.e.v de E , alors F
est de codimension nie dans E et codimE F = dim E − dim F .
Factorisation d'une application linéaire.
Théorème 1. Soient E et F deux K-e.v et f ∈ L(E, F ). Alors Im f est isomorphe à
E/ Ker f .
Projecteurs et symétries.
Définition 7. Soient E1 et E2 deux s.e.v de E tels que E1 ⊕ E2 = E , de sorte que
∀x ∈ E, ∃!(x1 , x2 ) ∈ E1 × E2 tel que x = x1 + x2 .
L'application p : E → E x → x1 est linéaire et s'appelle projection sur E1 parallèlement
à E2 . On a Ker p = E2 , Im p = E1 et p ◦ p = p.
1 1
symétrie (prendre par exemple s telle que [s] = ∈ M2 (Z/2Z)).
0 1
2.4. Exercices
Exercice 1. Soit E un K-e.v de dimension nie et F un K-e.v.
a) Soient f , g ∈ L(E, F ). Montrer les inégalités
| rg f − rg g| ≤ rg(f + g) ≤ rg f + rg g.
b) Soient deux endomorphismes f , g ∈ L(E) tels que f g = 0 et f + g est inversible.
Montrer que rg f + rg g = dim E .
Solution. a) Im(f + g) = (f + g)(E) ⊂ f (E) + g(E), donc
rg(f + g) = dim(Im(f + g)) ≤ dim[f (E) + g(E)] ≤ dim f (E) + dim g(E) = rg f + rg g.
Comme f = (f + g) + (−g) et que rg g = rg(−g), on a aussi rg f ≤ rg(f + g) + rg g . De
même, rg g ≤ rg(f + g) + rg f . On en déduit nalement que | rg f − rg g| ≤ rg(f + g).
b) Comme f + g est inversible, rg(f + g) = dim E , donc d'après a),
rg f + rg g ≥ rg(f + g) = dim E. (∗)
Comme f g = 0, on a Im g ⊂ Ker f , donc rg g ≤ dim(Ker f ) = dim E − rg f , c'est-à-dire
rg f + rg g ≤ dim E . Avec (∗), on en déduit le résultat.
Exercice 4. Soit E un K-e.v (de dimension quelconque), F et G deux s.e.v de E tels que
(i) G ⊂ F et (ii) F et G sont de même codimension nie dans E . Montrer que F = G.
Solution. Pour tout x ∈ E , on note x sa classe dans E/G, ẋ sa classe dans E/F . Si x = y , alors
ẋ = ẏ (car x − y = 0 donc x − y ∈ G donc x − y ∈ F , c'est-à-dire ẋ = ẏ ).
Considérons l'application f : E/G → E/F x → ẋ. Elle est linéaire et surjective donc bijec-
tive car E/G et E/F sont des K-e.v de même dimension nie (voir le corollaire 2). L'application
f est donc injective, de sorte que si x ∈ F , ẋ = 0̇ alors x = 0, i. e. x ∈ G. En d'autres termes,
F ⊂ G. Comme G ⊂ F par hypothèse, on a F = G.
b) Pour tout x ∈ E , on note ẋ sa classe dans E/(F ∩ G), x dans E/F , x dans E/G et x̃ dans
E/(F + G). Dénissons
f : E/(F ∩ G) → E/F × E/G ẋ → (x, x
)
124 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS
et
g : E/F × E/G → E/(F + G) (x, y) → (x
− y).
Nous allons montrer que (f, g) constitue une suite exacte.
f est bien une application, car si ẋ = ẏ , alors x − y ∈ F ∩ G donc x = y (car x − y ∈ F )
et x = y (car x − y ∈ G).
g est aussi une application, car si (x, y) = (x , y ), on a x − x ∈ F et y − y ∈ G, donc
− y = x
(x − x ) − (y − y ) = (x − y) − (x − y ) ∈ F + G, c'est-à-dire x − y.
Solution. Nous allons montrer le résultat suivant. Si f ∈ L(E) commute avec tous les éléments
de G(E), alors f est une homothétie. En particulier, le centre de G(E) est {λ IdE | λ ∈ K∗ }.
Soit f ∈ L(E) tel que ∀g ∈ G(E), gf = f g . Supposons que f ne soit pas une homothétie.
D'après la proposition 3 page 121, il existe u ∈ E , u = 0, tel que la famille (u, f (u)) forme une
famille libre. Complétons là en une base (u, f (u), e3 , . . . , en ) de E . Dénissons g ∈ L(E) sur cette
base comme suit
g(u) = u, g(f (u)) = u + f (u), ∀i ≥ 3, g(ei ) = ei .
On a g ∈ G(E) car g transforme une base de E en une base de E . Or g ◦ f (u) = u + f (u) et
f ◦ g(u) = f (u), donc f ◦ g = g ◦ f car u = 0. Finalement, f est une homothétie.
b) Comme B forme une base de E , il existe λ1 , . . . , λn ∈ K tels que f n+1 (x0 ) = λn f n (x0 ) + · · · +
λ1 f (x0 ). Posons g = f n+1 − λn f n − · · · − λ1 f . On a g(x0 ) = 0. Or
∀i, 1 ≤ i ≤ n, g[f i (x0 )] = f n+i+1 (x0 ) − λn f n+i (x0 ) − · · · − λ1 f i+1 (x0 ) = f i [g(x0 )] = 0,
autrement dit g s'annule sur la base B , donc g = 0. En composant g à gauche par f −1 , on obtient
f n − λn f n−1 − · · · − λ1 IdE = 0.
3. Matrices
3.1. Généralités
Définition 1. Soient p et q ∈ N∗ . On appelle matrice de type (p, q) ou matrice à p lignes
et q colonnes à coecients dans K, toute famille (ai,j ) 1≤i≤p avec pour tout (i, j), ai,j ∈ K.
1≤j≤q
On note cette matrice de la manière suivante
q colonnes
a1,1 a1,2 · · · a1,q
a2,1 a2,2 · · · a2,q
p lignes . .. . . . .
.. . . ..
ap,1 ap,2 · · · ap,q
Définition 2. L'ensemble des matrices de type (p, q) à coecients dans K est noté
Mp,q (K).
(Cas q = 1). Un élément de Mp,1 (K) s'appelle une matrice colonne.
(Cas p = 1). Un élément de M1,q (K) s'appelle une matrice ligne.
(Cas p = q ). Les éléments de Mp,p (K) s'appellent des matrices carrées. On note
Mp (K) = Mp,p (K), appelé ensemble des matrices carrées d' ordre (ou de taille) p.
Définition 3. Soit A = (ai,j ) 1≤j≤q
1≤i≤p ∈ Mp,q (K). On appelle matrice transposée de A et on
1≤j≤q
au même de dire que les vecteurs colonnes de la matrice [f ]BB sont les coordonnées dans
haut.
Proposition 2. Soient E , F et G des K-e.v de dimensions nies. Soit B une base
de E , B une base de F et B une base de G. Si f ∈ L(F, G) et g ∈ L(E, F ), on a
B B
B = [f ]B [g]B .
[f g]B
Remarque 3. (Produit par blocs). Si M ∈ Mp,q (K) et M ∈ Mq,r (K),
r q−r
A B A B }r lignes
M= , M =
C D C D }q−r lignes
alors
AA + BC AB + BD
MM = .
CA + DC CB + DD
Tout se passe comme si on multipliait deux matrices 2 × 2, en prenant garde à l'ordre
dans les produits (il n'y a pas commutativité).
3. MATRICES 127
B
A = [f ]B1 , on a A = Q−1 AP .
0
Définition 6. Soient A, B ∈ Mp,q (K). On dit que A et B sont équivalentes s'il existe
P ∈ Gq (K) et Q ∈ Gp (K) telles que B = QAP . La relation est équivalente à est une
relation d'équivalence.
Remarque 5. On a vu un peu plus haut que les matrices d'une même application f ∈
L(E, F ) dans des bases diérentes sont équivalentes.
Proposition 4. Soit E un K-e.v de dimension nie n ∈ N∗ , B et B deux bases de E ,
P la matrice de passage de B à B . Soit f ∈ L(E). Si A = [f ]B et A = [f ]B , alors
A = P −1 AP .
Définition 7. Deux matrices A et B ∈ Mn (K) sont dites semblables s'il existe P ∈
Gn (K) tel que B = P −1
AP . La relation de similitude est une relation d'équivalence.
3.5. Propriétés des transposées
Proposition 5. Si A, B ∈ Mp,q (K), t(A + B) = tA + tB .
Si A ∈ Mp,q (K) et λ ∈ K, t(λA) = λ tA.
Si A ∈ Mp,q (K) et B ∈ Mq,r (K), t(AB) = tB tA.
Soit A ∈ Mn (K). On a A ∈ Gn (K) si et seulement si tA ∈ Gn (K) et dans ce cas,
t
( tA)−1 = (A−1 ).
Remarque 6. La transposition inverse l'ordre dans les produits de matrices. Cette re-
marque peut parfois être utile dans les exercices.
128 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS
3.8. Exercices
Exercice 1 (Matrices diagonalement dominantes). On considère une matrice
A = (ai,j )1≤i,j≤n ∈ Mn (C) vériant
∀i, 1 ≤ i ≤ n, |ai,j | < |ai,i |.
1≤j≤n
j=i
les λi étant non tous nuls. Soit k tel que |λk | = sup1≤j≤n |λj |. Alors λk = 0 et
n
λj |λj |
λj ak,j = 0 donc ak,k = − ak,j , d'où |ak,k | ≤ |ak,j | ≤ |ak,j |,
λk |λk |
j=1 1≤j≤n 1≤j≤n 1≤j≤n
j=k j=k j=k
Solution. a) Soit (e1 , . . . , en ) la base canonique de Rn (ei est le vecteur colonne dont tous les
éléments sont nuls sauf le i-ième qui vaut 1). La forme de la matrice M montre que
i−1
M e1 = 0 et ∀i ≥ 2, M ei = mk,i ek ∈ Vect(e1 , . . . , ei−1 ).
k=1
Montrons par récurrence sur p ∈ {1, . . . , n} que pour tout i, 1 ≤ i ≤ p, on a M p ei = 0. Pour
p = 1 c'est vrai car M e1 = 0. Supposons le résultat vrai au rang p − 1, montrons le au rang p.
Si 1 ≤ i ≤ p − 1, l'égalité M p−1 ei = 0 entraîne M p ei = 0, et si i = p :
p−1 p−1
p p−1 p−1
M ep = M (M ep ) = M mk,p ek = mk,p (M p−1 ek ) = 0.
k=1 k=1
- En particulier, le résultat est vrai pour p = n ce qui entraîne que M n s'annule sur tous les
vecteurs de la base canonique de Rn , donc est nul.
0 1 0
b) On écrit M = 3I3 + N où N = 0 0 2 . D'après la question précédente, N 3 = 0.
0 0 0
Comme I3 et N commutent, on peut écrire
p
p p(p − 1) p−2 2
∀p ∈ N∗ , M p = N k (3I3 )p−k = 3p I3 + p3p−1 N + 3 N .
k 2
k=0
0 1 0 0 0 2 9 3p p(p − 1)
Comme N = 0 0 2 et N 2 = 0 0 0 , ceci donne M p = 3p−2 0 9 6p .
0 0 0 0 0 0 0 0 9
Remarque. Au a), une étude plus poussée aurait permis de montrer que la matrice M p a
tout ses coecients nuls en dehors de la partie triangulaire supérieure des n − p premières
lignes et n − p dernières colonnes. Autrement dit,
× ··· ×
. . . .. n−p lignes
∀p, 1 ≤ p ≤ n − 1, on a M p = . .
(0) ×
} p lignes
3. MATRICES 131
0 Ir
f a pour matrice Mr = , avec r ≤ n/2, et A est donc semblable à M .
0 0
Réciproquement, si Au0 ou si A est semblable à Mr avec r ≤ n/2, alors A2 = 0. Les matrices
recherchées sont donc celles semblables à Mr avec r ≤ n/2 et la matrice nulle.
Solution. a) On va montrer ce résultat par récurrence sur n ∈ N∗ . Pour n = 1 c'est évident car
M = (tr M ) = (0). Supposons le résultat vérié au rang n − 1 et montrons le au rang n. Soit
f l'endomorphisme de Rn dont M est la matrice dans la base canonique de Rn . Si ∀x ∈ Rn ,
la famille (x, f (x)) est liée, alors f est une homothétie (voir la proposition 3 de la partie 2.3),
c'est-à-dire qu'il existe λ ∈ R tel que f = λ IdE . Or nλ = tr f = tr M = 0 donc λ = 0 et donc
f = 0, ce qui entraîne que la matrice M est nulle.
Sinon, il existe x ∈ Rn tel que la famille (x, f (x)) soit libre. Complétons cette famille en une
base B = (x, f (x), e3 , . . . , en ) de Rn . Dans cette base, on a
0 × ··· ×
1
N = [f ]B = 0 N .
..
.
La matrice M , semblable à N , est donc semblable à cette dernière matrice, d'où le résultat.
132 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS
b) D'après a), il existe P ∈ Gn (R) telle que M = P −1 N P où N est une matrice n'ayant que
des zéros sur la diagonale principale. Notons bi,j les coecients de la matrice N . Fixons
α1 0 ··· 0
... ..
0 α2 .
X= .. ... ... ∈ Mn (R), avec αi = αj si i = j.
. 0
0 ··· 0 αn
Si Y = (ai,j )1≤i,j≤n ∈ Mn (R), un calcul rapide montre que XY − Y X = (αi ai,j − αj ai,j )1≤i,j≤n .
En choisissant ai,i = 0 pour tout i, et ai,j = bi,j /(αi − αj ) si i = j , on voit que XY − Y X = N ,
donc M = (P −1 XP )(P −1 Y P ) − (P −1 Y P )(P −1 XP ).
Condition nécessaire. D'après la proposition 7, le rang d'un projecteur égale sa trace, donc
k
k
rg p = tr p = tr pi = rg pi .
i=1 i=1
On a aussi
Im p = (p1 + · · · + pk )(E) ⊂ p1 (E) + · · · + pk (E) = Im p1 + · · · + Im pk .
Ces deux dernières assertions permettent de conclure que
Im p = Im p1 ⊕ · · · ⊕ Im pk . (∗)
Ceci étant, xons i, 1 ≤ i ≤ k. D'après (∗), si x ∈ E , pi (x) ∈ Im p donc
pi (x) = p(pi (x)) = p1 ◦ pi (x) + · · · + pi ◦ pi (x) + · · · + pk ◦ pi (x).
Comme pi ◦ pi (x) = pi (x), on en déduit j=i pj ◦ pi (x) = 0. Or pour tout j , pj ◦ pi (x) ∈ Im pj
donc d'après (∗), l'écriture j=i pj ◦ pi (x) = 0 entraîne ∀j = i, pj ◦ pi (x) = 0. Ceci est vrai pour
tout x ∈ E , donc si j = i, pj ◦ pi = 0, d'où le résultat.
4. Dualité
Dans toute cette partie, E désigne un K-espace vectoriel.
4.1. Généralités
Définition 1. On appelle forme linéaire sur E toute application linéaire de E dans K.
L'ensemble L(E, K) des formes linéaires sur E est aussi noté E ∗ . C'est un K-e.v appelé
espace dual de E .
Notation. Si x ∈ E et ϕ ∈ E ∗ , on note parfois ϕ(x) = ϕ, x.
Remarque 2. Si E est de dimension innie et (ei )i∈I une base de E , (e∗i )i∈I est une famille
libre de E ∗ mais non génératrice.
Bidual en dimension nie.
Théorème 2. Si x ∈ E , on note x̃ : E ∗ → K ϕ → ϕ(x). On a x̃ ∈ E ∗∗ et l'application
f : E→E ∗∗
x → x̃ est un isomorphisme.
Démonstration. On vérie facilement que x̃ est linéaire (i. e. que x̃ ∈ E ∗∗ ), ainsi que f .
Prouvons que f est injective. Soit x ∈ Ker f . Si x = 0, on peut compléter x en une base
(x, e2 , . . . , en ) de E . On a alors x∗ (x) = 1, autrement dit x̃(x∗ ) = 0, donc x̃ = 0. Donc Ker f =
{0}.
D'après le théorème 1, dim E ∗∗ = dim E ∗ = dim E . Ainsi f est bijective, et c'est donc un
isomorphisme.
Remarque 4. Nous verrons dans la partie 4.5 (page 136) des moyens de calcul de la base
antéduale.
134 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS
4.3. Orthogonalité
Définition 4. Des éléments x ∈ E et ϕ ∈ E ∗ sont dit orthogonaux si ϕ(x) = ϕ, x = 0.
Si A ⊂ E , on note A⊥ = {ϕ ∈ E ∗ | ∀x ∈ A, ϕ(x) = 0}. L'ensemble A⊥ est un s.e.v
de E ∗ appelé orthogonal de A.
Si B ⊂ E ∗ , on note B ◦ = {x ∈ E | ∀ϕ ∈ B, ϕ(x) = 0}. L'ensemble B ◦ est un s.e.v
de E appelé orthogonal de B .
Remarque 5. Si ϕ ∈ E ∗ , alors {ϕ}◦ est le noyau de ϕ.
La proposition qui suit se prouve facilement.
Proposition 2. Si A1 ⊂ A2 ⊂ E , alors A⊥
2 ⊂ A1 .
⊥
Si B1 ⊂ B2 ⊂ E , alors B2 ⊂ B1 .
∗ ◦ ◦
Remarque 8.
Ce résultat reste vrai en dimension innie mais sa démonstration fait appel à
l'axiome du choix.
Cette proposition peut être très utile dans certains raisonnements par récurrence
en dimension nie n relatifs aux réductions d'endomorphismes. En eet, si x ∈ E ∗
est un vecteur propre de t u, alors Kx est stable par t u et donc (Kx)◦ , hyperplan
de E , est stable par u (appliquer la proposition à F = (Kx)◦ ). Le tour est joué,
on est ramené en dimension n − 1 (on trouve des raisonnements de ce type dans la
démonstration du théorème de trigonalisation par exemple).
(β1 , . . . , βp ) = (α1 , . . . , αq )[u]B
B
βp αq
De la dénition d'une application transposée, on vérie facilement que ceci équivaut à
∗
dire [ tu]BB ∗ = t[u]BB , où B ∗ et B ∗ sont les bases duales de B et B . En d'autres termes, la
Exercice 2. Soit E un R-e.v de dimension 3, (e1 , e2 , e3 ) une base de E . Soit f1∗ , f2∗ , f3∗ ∈
E ∗ dénis par
f1∗ = 2e∗1 + e∗2 + e∗3 , f2∗ = −e∗1 + 2e∗3 , f3∗ = e∗1 + 3e∗2 .
Montrer que (f1∗ , f2∗ , f3∗ ) est une base de E ∗ et calculer la base (f1 , f2 , f3 ) (en l'exprimant
dans la base (e1 , e2 , e3 )) de E dont elle est la duale.
Solution. Les colonnes de la matrice
2 −1 1
M = 1 0 3
1 2 0
sont les coordonnées des fi∗ dans la base (e∗1 , e∗2 , e∗3 ). Pour montrer que (f1∗ , f2∗ , f3∗ ) est une base
de E ∗ , il faut montrer que le rang de la matrice M est égal à 3. Des opérations élémentaires sur
les colonnes donnent
2 −5 1 2 −5 − 13
2
rg M = rg 1 −2 3 = rg 1 −2 0 =3
1 0 0 1 0 0
(on vérie en eet facilement que cette dernière matrice est inversible), (f1∗ , f2∗ , f3∗ ) est donc bien
une base de E ∗ .
On a vu (voir la partie 4.5) que la matrice M de passage de (e∗1 , e∗2 , e∗3 ) à (f1∗ , f2∗ , f3∗ ) est
t C −1 , C étant la matrice de passage de (e , e , e ) à (f , f , f ). Donc M = tC −1 , ce qui entraîne
1 2 3 1 2 3
C = tM −1 = ( tM )−1 . On calcule facilement ( tM −1 ) (inverser le système Y = tM X en un
système donnant X en fonction de Y ). On trouve
6 −3 −2
1
C = tM −1 = −2 1 5 .
13 3 5 −1
Les coordonnées de f1 , f2 , f3 dans la base (e1 , e2 , e3 ) sont les vecteurs colonnes de C = tM −1 .
138 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS
Solution. a) Si A ∈ Mn (K), on note fA la forme linéaire sur Mn (K) dénie par fA (X) = tr(AX).
Soit ϕ : Mn (K) → Mn (K)∗ A → fA . C'est une application linéaire. Nous allons montrer que
ϕ est bijective, ce qui prouvera le résultat. Soit A = (ai,j )1≤i,j≤n ∈ Ker ϕ. Alors pour tout (i, j),
tr(AEi,j ) = aj,i = 0 (Ei,j désignant la matrice de Mn (K) dont tous les coecients sont nuls
sauf celui d'indice (i, j) qui vaut 1), et donc A = 0. Donc Ker ϕ = {0}, et ϕ est donc injective.
Comme de plus dim(Mn (K)∗ ) = dim(Mn (K)), ϕ est bijective, d'où le résultat.
b) Soit f une telle forme linéaire. D'après la question précédente, il existe A = (ai,j )1≤i,j≤n ∈
Mn (K) telle que f = fA , et on a pour tout X, Y ∈ Mn (K), f (XY ) = tr(AXY ) = f (Y X) =
tr(AY X).
En particulier, pour tout (i, j, k) avec i = k on a tr(AEi,j Ej,k ) = tr(AEj,k Ei,j ) (∗). Or
Ei,j Ej,k = Ei,k et Ej,k Ei,j = 0 car k = i, donc (∗) s'écrit aussi tr(AEi,k ) = 0, c'est-à-dire
ak,i = 0. Ceci étant vrai dès que i = k , on en déduit que A est une matrice diagonale.
Maintenant pour tout (i, j) on a tr(AEi,j Ej,i ) = tr(AEj,i Ei,j ), c'est-à-dire tr(AEi,i ) =
tr(AEj,j ), donc ai,i = aj,j et ceci pour tout (i, j). Ainsi, A est une matrice scalaire, donc il
existe λ ∈ K tel que f = λ tr. Réciproquement toute forme linéaire de cette forme répond au
problème posé.
Solution. a) L'application ϕ est une forme linéaire sur Rn [X]. Par ailleurs, on a dim(Rn [X]∗ ) =
dim(Rn [X]) = n + 1 (une base de Rn [X] est (1, X, . . . , X n )).
Ceci étant, pour tout i, 0 ≤ i ≤ n, on dénit la forme linéaire ϕi sur Rn [X]par ϕi (P ) = P (xi ).
Nous allons montrer que les (ϕi )0≤i≤n forment une famille libre. Supposons ni=0 µi ϕi = 0 (∗).
Pour tout k dénissons Pk = 0≤i≤n (X − xi ) ∈ Rn [X]. On a ϕi (Pk ) = 0 si k = i, et donc
i=k
en appliquant la relation (∗) à Pk , on trouve µk i=k (xk − xi ) = 0. Les xi étant distincts, ceci
entraîne µk = 0, et ceci pour tout k.
Les (ϕi )0≤i≤n forment donc une famille libre de n + 1 éléments de Rn [X]∗ . Comme Rn [X]∗
est de dimension n + 1, on en déduit que c'est une base de Rn [X]∗ . En particulier, il existe
λ0 , . . . , λn ∈ R tels que ϕ = ni=0 λi ϕi , et donc
n
n
∀P ∈ Rn [X], ϕ(P ) = λi ϕi (P ) = λi P (xi ).
i=0 i=0
4. DUALITÉ 139
Donnons maintenant une méthode pratique de calcul de λk . Comme pour tout i = k, Pi (xk ) =
0, on trouve en appliquant la relation précédente à Pk que
ϕ(Pk )
λk Pk (xk ) = ϕ(Pk ), donc λk = . (∗∗)
i=k (xk − xi )
b) Il s'agit en fait de choisir les (xi )0≤i≤n de sorte que le coecient λ0 de P (x0 ) soit nul. D'après
(∗∗), ceci sera vérié si
1
P0 (t)
ϕ(P0 ) = dt = 0,
−1 1 + t2
ce qui sera le cas si l'intégrande est une fonction impaire. Pour cela, notons k l'entier tel que
n = 2k + 1 et xons des nombres réels 0 < a1 < . . . < ak . Si 1 ≤ i ≤ k , on pose x2i−1 = ai et
x2i = −ai , et x2k+1 = 0, de sorte que
2k+1
k
P0 (X) = (X − xi ) = X (X 2 − a2k ).
i=1 i=1
u(x) = (ϕ1 (x), . . . , ϕn (x)) et soit v ∈ L(Rn , E) dénie par v(x1 , . . . , xn ) = ni=1 xi ei , de sorte
que f = v ◦ u.
D'après le théorème 3 page 134, Ker u = {x ∈ E | ∀i, ϕi (x) = 0} est de dimension n − q ,
donc rg u = n − dim(Ker u) = q . On a Im v = Vect{e1 , . . . , en } donc rg v = p.
Ceci étant, on a Im(v ◦ u) = v(Im u). Soit F = Im u ∩ Ker v et S un supplémentaire de F
dans Im u de sorte que Im u = F ⊕ S . Comme S ∩ Ker v = {0}, la restriction de v à S est injective
donc v(Im u) = v(F ) + v(S) = v(S) est de dimension dim S . On en déduit rg(v ◦ u) = dim S . Or
F ⊂ Ker v donc dim F ≤ dim(Ker v) = n − rg v , donc
rg f = rg(v ◦ u) = dim S = rg u − dim F ≥ rg u + rg v − n = p + q − n,
d'où le résultat. On ne peut pas remplacer n par une constante plus petite (prendre tous les ϕi
nuls et (e1 , . . . , en ) une base de E ).
Remarque : On a montré le résultat général suivant : pour tout (u, v), rg(v ◦ u) ≥ rg u + rg v − n.
140 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS
r
2/ a) On a x ∈ Ker f ⇐⇒ i=1 ϕi (x)ei = 0, et comme les ei sont indépendants, ceci entraîne
Ker f = {x ∈ E | ∀i, ϕi (x) = 0} = (Vect{ϕ1 , . . . , ϕr })◦ . Les ϕi étant linéairement indépendants,
on a donc dim(Ker f ) = n − dim(Vect{ϕ1 , . . . , ϕr }) = n − r, d'où rg f = n − dim(Ker f ) = r.
b)Pour tout i, 1 ≤ i ≤ q,
il existe εi E tel que u(εi ) = ei . La famille (εi )1≤i≤q est libre car
∈
si i λi εi = 0, alors 0 = u( i λi εi ) = i λi ei donc pour tout i, λi = 0. Soit (εq+1 , . . . , εn ) une
base de Ker u. Si 1 ≤ i ≤ q , εi ∈
Ker u, on en déduit que (ε1 , . . . , εn ) est une base de E . On
remarque maintenant que
n
n
q
∀x = x i εi , u(x) = xi u(εi ) = ε∗i (x)ei .
i=1 i=1 i=1
On obtient donc le résultat en prenant ϕi = ε∗i pour 1 ≤ i ≤ q . Il est clair que (ϕ1 , . . . , ϕq ) forme
une famille libre.
c) Soit u ∈ L(E). D'après la question précédente, si (e1 , . . . , eq ) est une base de Im u, il existe q
formes linéaires indépendantes ϕ1 , . . . , ϕq telles que u = qi=1 ϕi · ei . Complétons (e1 , . . . , eq ) en
une base (e1 , . . . , en ) de E , et (ϕ1 , . . . , ϕq ) en une base (ϕ1 , . . . , ϕn ) de E ∗ . On pose
q n q n
1 1
u1 = ϕi · e i + ϕi · e i et u2 = ϕi · e i − ϕi · e i .
2 2
i=1 i=q+1 i=1 i=q+1
5.2. Déterminants
Dorénavant, E est de dimension nie n ∈ N∗ .
Théorème 2. L'ensemble des formes n-linéaires alternées sur un K-e.v E de dimension
n est un K-e.v de dimension 1. De plus, il existe une et une seule forme n-linéaire alternée
prenant la valeur 1 sur une base donnée de E .
Démonstration. Soit B = (e1 , . . . , en ) une base de E . On dénit d ∈ Ln (E, K) par d(x1 , . . . , xn ) =
e∗1 (x1 ) · · · e∗n (xn ), de sorte que si pour tout i, xi = nj=1 xi,j ej , d(x1 , . . . , xn ) = x1,1 · · · xn,n , et
d (x1 , . . . , xn ) = σ∈Sn ε(σ)xσ(1),1 · · · xσ(n),n . On a en particulier d (e1 , . . . , en ) = 1, donc d = 0.
Soit f ∈ Ln (E, K) une forme n-linéaire alternée. La n-linéarité de f entraîne que
f (x1 , . . . , xn ) = x1,i1 · · · xn,in f (ei1 , . . . , ein ).
i1 ,...,in
Donc f ∈ Vect(d ), et comme d = 0, ceci prouve que l'ensemble des formes n-linéaires alternées
sur E est de dimension 1.
Si f (e1 , . . . , en ) = 1, (∗) prouve que f = d , d'où l'existence et l'unicité de la forme n-linéaire
alternée valant 1 sur la base B .
Définition 8. Soit A ∈ Mn (K). La matrice (Ai,j )1≤i,j≤n des cofacteurs des éléments de
A, est appelée comatrice de A et on la note com(A) ou encore A
.
t
Proposition 5. Soit A ∈ Mn (K). Alors A A = tAA
= (det A) · In .
Exemple 2. La proposition précédente entraîne que si une matrice A est inversible, alors
t
A−1 = (1/ det A) · A . Ce résultat appliqué aux matrices 2 × 2 entraîne que si A = ( a b ) ∈
d −b c d
M2 (K) est inversible, alors son inverse s'obtient par la formule A−1 = ad−bc
1
−c a .
Démonstration. On procède par récurrence sur n. Pour n = 2, c'est évident. Supposons le résultat
vrai pour n − 1 et montrons le pour n. Dans V (a1 , . . . , an ), on retranche à chaque colonne a1 fois
la précédente (en commençant par la dernière colonne). On obtient
1 0 0 ··· 0
a2 − a1 a2 − a1 a2 · · · an−1 − a1 an−2
1 a2 − a1 a22 − a1 a2 · · · an−1 − a1 an−2 2 2 2
2 2 .. .. ..
.. .. .. .. = . . .
. . . .
an − a1 a2n − a1 an · · · an−1
− a1 an−2
1 an − a1 a2n − a1 an · · · an−1
n − a1 an−2
n
n n
(après développement par rapport à la première ligne). On factorise ensuite chaque ligne par
(ai − a1 ), ce qui donne
1 a2 ··· an−2
n
.. = (a − a ) V (a , . . . , a )
2
V (a1 , . . . , an ) = (a2 − a1 ) · · · (an − a1 ) · .. ..
. . . i 1 2 n
1 an · · · an−2
n
i=2
d'où le résultat car d'après l'hypothèse de récurrence, V (a2 , . . . , an ) = 2≤i<j≤n (aj − ai ) .
∆ d'ordre r non nul extrait de A (d'après le théorème 2 page 128). Ainsi choisi, ∆ s'appelle
le déterminant principal du système (S) (il n'est en général pas unique).
Les équations dont les indices sont ceux des lignes de ∆ s'appellent les équations
principales.
Les inconnues dont les indices sont ceux des colonnes de ∆ s'appellent les inconnues
principales.
Notons I (resp. J ) les indices des lignes (resp. des colonnes) de ∆, de sorte ∆ = det(ai,j ) i∈I .
j∈J
On appelle déterminants caractéristiques les déterminants d'ordre r + 1 de la forme
(ai,j ) i∈I (bi )i∈I
j∈J avec k ∈ J.
(ak,j )j∈J bk
Les déterminants caractéristiques n'existent que si r < p, et il y en a alors p − r.
Avec les notations que nous venons d'introduire, on a le
Ici on a
1 2 −1 1
A = 1 0 −1 −1 .
−1 1 1 2
Un calcul rapide montre que rg A = 2. Nous choisissons le déterminant principal | 11 20 |, issu
de la matrice A en considérant ses deux premières lignes et ses deux premières colonnes.
Il n'y a ici qu'un seul déterminant caractéristique, qui est
1 2 1
1 0 1 = −2(m + 1).
−1 1 m
5. FORMES MULTILINÉAIRES, DÉTERMINANTS 145
Solution. Après avoir retranché a1,1 fois la première colonne à la deuxième, on obtient
1 x1 P2 (x1 ) · · · Pn−1 (x1 )
1 x2 P2 (x2 ) · · · Pn−1 (x2 )
∆ = .. .. .. .. .
.
. . .
1 xn P2 (xn ) · · · Pn−1 (xn )
On retranche ensuite à la troisième colonne a2,2 fois la première et a2,1 fois la deuxième, et on
remarque que la troisième colonne n'est plus composée que de x2i . On recommence ainsi jusqu'à
parvenir à la dernière colonne, et on obtient nalement une expression en fonction du déterminant
de Vandermonde
1 x1 ··· xn−1
1
1 x2 ··· xn−1
2
∆= .. .. .. = V (x1 , . . . , xn ) = (xj − xi ).
. . .
1≤i<j≤n
1 xn · · · xn−1
n
b) On xe a ∈ R, et on regarde ∆n comme une fonction de b que nous notons f (b). L'expression
d'un déterminant d'une matrice en fonction de ses coecients montre que la fonction b → f (b)
est continue sur R. Maintenant, on a vu au a) que si b = a, alors
bP (a) − aP (b)
f (b) = où P (x) = (xi − x).
b−a
i
Q(b) − Q(a)
Autrement dit, si Q(x) = xP (a) − aP (x), on a f (b) = . En faisant tendre b vers a,
b−a
la continuité de f permet donc d'armer que
∆n = f (a) = Q (a) = P (a) − aP (a) = (xi − a) + a (xj − a) . (∗)
i i j=i
c) Ici on ne peut pas utiliser la méthode précédente. Donnons deux méthodes de résolution. La
première méthode s'appuie sur les résultats précédents. Elle consiste, dans ∆n , à substituer à
b l'indéterminée X , donnant ainsi un déterminant que nous notons D. Le déterminant D a ses
coecients dans le corps K(X), et d'après a) (puisque X et a sont diérents dans K(X)) :
XP (a) − aP (X)
D= où P = (xi − X) ∈ K[X].
X −a
i
Posons Q(X) = XP (a) − aP (X) ∈ K[X]. Comme Q(a) = 0, il existe R ∈ K[X] tel que Q(X) =
(X −a)R(X), de sorte que D = R(X). Par dérivation, on obtient Q (X) = R(X)+(X −a)R (X),
donc Q (a) = R(a). Il ne reste plus qu'a substituer à X la constante a, ce qui entraîne ∆n =
R(a) = Q (a) = P (a) − aP (a), ce qui permet de retrouver l'expression (∗).
Nous proposons une deuxième méthode, plus directe. Notons A le vecteur colonne constitué
uniquement de a, (E1 , . . . , En ) la base canonique de Kn , et αk = xk − a. On a
∆n = det(A + α1 E1 , . . . , A + αn En )
n
= det(α1 E1 , . . . , αn En ) + det(α1 E1 , . . . , αi−1 Ei−1 , A, αi+1 Ei+1 , . . . , αn En )
i=1
n
= α1 · · · αn + α1 · · · αi−1 a αi+1 · · · αn .
i=1
Le passage à la deuxième ligne est obtenu par multilinearité du déterminant, en utilisant le fait
que lorsque le vecteur colonne A apparait deux fois, le déterminant correspondant est nul. On
en déduit le résultat (*) compte tenu de la valeur des αi .
5. FORMES MULTILINÉAIRES, DÉTERMINANTS 147
Exercice 3. Soit M ∈ Mn (Z) (i. e. une matrice à coecients dans Z). Donner une
condition nécessaire et susante pour que M soit inversible et que M −1 ∈ Mn (Z).
Solution. a) L'astuce est d'écrire M comme le produit de deux matrices. Si mi,j désigne l'élément
d'indice (i, j) dans la matrice M , on a
n−1
n
mi,j = k
Cn−1 αik βjn−1−k = pi,k qk,j (∗)
k=0 k=1
On a donc
n−1
i
det M = det P · det Q = Cn−1 (−1)n(n−1)/2 [(αj − αi )(βj − βi )] .
i=0 i<j
Or
n
j−1 n n−1
(j − i) = (j − i) = (j − 1)! = j!
i<j j=2 i=1 j=2 j=1
et
n−1
n−1
(n − 1)!
[(n − 1)!]n
i
Cn−1 = = 2 ,
i!(n − 1 − i)! n−1
i=0 i=0 i=1 i!
Pour tout i, Pi ∈ Rp [X] = {Q ∈ R[X] | deg Q ≤ p}. Comme Rp [X] est un R-e.v de dimension
p + 1 ((1, X, . . . , X p ) en est une base) et que n > p + 1, on en déduit
nque P1 , . . . , Pn forme une
famille liée. Donc il existe
λ 1 , . . . , λn ∈ R , non tous nuls, tels que i=1 λi Pi = 0, et donc pour
tout j , 0 ≤ j ≤ n − 1, ni=1 λi Pi (j) = 0. Autrement dit, les vecteurs lignes de la matrice A sont
linéairement dépendants, ce qui entraîne ∆ = det A = 0.
Solution. En retranchant à chacune des p dernières lignes la précédente (en commençant par la
dernière), on obtient :
1 Cn1 Cn2 ··· Cnp
Cn0 Cn1 ··· Cnp−1
0 Cn0 Cn1 ··· Cnp−1
. . ..
∆p = .. .. .. .. = .. .. . = ∆p−1
. . . .
C0 1 p−1
0
0 Cn+p−1 1
Cn+p−1 ··· p−1
Cn+p−1 n+p−1 Cn+p−1 · · · Cn+p−1
n
Solution. a) Nous allons prouver par récurrence sur n que ∆n = x1 · · · xn + k=j xk ). j=1 (aj
Le résultat est évidemment vrai pour n = 1. Supposons le vrai au rang n − 1 et montrons le au
rang n. En utilisant la linéarité du déterminant par rapport à la dernière colonne, on voit que
a1 + x 1 a 1 ··· a 1 a1 + x 1 a 1 ··· 0
..
... ...
a2 ··· a2 a2 ··· .
∆n = .. +
.. .. = D1 + D 2 .
. ··· an−1 + xn−1 . . ··· an−1 + xn−1 0
an ··· an an an ··· an xn
Solution. C'est classique. Il y a plusieurs moyens de procéder. Nous donnons ici une solution assez
générale. Supposons dans un premier temps les ai distincts deux à deux et n ≥ 2. L'existence de
la décomposition d'une fraction rationnelle en éléments simples permet d'armer
(b1 − X) · · · (bn−1 − X) λ1 λn
∃λ1 , . . . , λn ∈ K, R(X) = = + ··· + .
(X + a1 ) · · · (X + an ) X + a1 X + an
Le calcul des coecients λk correspondant aux poles simples (−ak ) est classique et donne
n−1
(bi + ak )
∀k, λk = i=1 = 0.
i=k (ai − ak )
Si maintenant on note L1 , . . . , Ln les lignes de ∆n , on a
1 1 1
L1 a1 +b ··· a1 +bn−1 a1 +bn
L1 1
.. .. .. .. ..
1 1 . . .
∆n = . .
.
= =
Ln−1 λn L n−1 λn 1
··· 1 1
n an−1 +b1 an−1 +bn−1 an−1 +bn
Ln i=1 λi Li
R(b1 ) ··· R(bn−1 ) R(bn )
Compte tenu des égalités R(bi ) = 0 pour 1 ≤ i ≤ n − 1, le développement de ce dernier
déterminant par rapport à la dernière ligne donne
n−1 n−1
R(bn ) i=1 (bi − bn ) (ai − an )
∆n =
∆n−1 = n · i=1
n−1 · ∆n−1 .
λn (b
i=1 n + a i ) i=1 (bi + an )
Sachant que ∆1 = 1/(a1 + b1 ), une récurrence sur n donne
i<j (aj− ai ) i<j (bj − bi )
∆n = . (∗)
i,j (ai + bj )
Rappelons que nous avions supposé que les ai étaient distincts deux à deux. Si maintenant
deux des ai sont égaux alors les deux lignes correspondantes dans ∆n sont égales et donc ∆n = 0.
L'égalité (∗) est donc vraie dans tous les cas.
Remarque. Cette méthode, ainsi que le résultat, sont à retenir. On peut par exemple
calculer par cette technique un déterminant de Vandermonde.
t
Grâce à ce résultat et à la formule A−1 = A/(det
A), il est facile d'inverser une matrice
dont l'élément d'indice (i, j) est 1/(ai + bj ) puisque les mineurs d'une telle matrice sont
aussi des déterminants de Cauchy.
1 α1 ··· α1k−1 α1k α1k+1 ··· α1n
.. .. .. .. ..
∆(X) = . . . . .
∈ K[X].
1 αn · · · αnk−1 αnk αnk+1 · · · αn
n
1 X ··· X k−1 X k X k+1 · · · Xn
Le déterminant ∆ apparaît comme le mineur de l'élément X k dans ∆(X). En développant
∆(X) par rapport à sa dernière ligne, on s'aperçoit que ∆ est le coecient de X k multiplié par
(−1)n+k dans le polynôme ∆(X). Or ∆(X) est un déterminant de Vandermonde :
n
∆(X) = V (α1 , . . . , αn , X) = (αj − αi ) (X − αi ).
1≤i<j≤n i=1
où
σn−k désigne la valeur prise au point (α1 , . . . , αn ) par le polynôme symétrique élémentaire
X1 · · · Xn−k ∈ K[X1 , . . . , Xn ].
Remarque. On peut ainsi connaître les cofacteurs d'une matrice de Vandermonde, donc
inverser une matrice de Vandermonde.
Solution. Fixons u ∈ L(E). L'application fu est une forme n-linéaire alternée comme on le vérie
facilement ; l'ensemble F des formes n-linéaires alternées de E étant un K-espace vectoriel de
dimension 1, on a donc :
(∀f ∈ F, f = 0, ∃!λf ∈ K), fu = λf · f.
Soit g = 0 une autre forme n-linéaire alternée. Il existe µ ∈ K∗ tel que f = µg . Donc λf f = fu =
µgu = (µλg )g , et comme f = µg , on tire λf = λg . Le scalaire λf ne dépend donc pas de f ∈ F ,
mais seulement de u. On peut donc écrire :
∃λu ∈ K, ∀f ∈ F, fu = λu f. (∗)
Montrons maintenant que λu = tr(u). Soit B = (e1 , . . . , en ) une base de E , A = (ai,j )1≤i<j≤n
la matrice de u dans cette base. En appliquant (∗) à l'application det (déterminant dans la
base B ), qui est bien une forme n-linéaire alternée, on obtient detu = λu det, donc λu =
λu det(e1 , . . . , en ) = detu (e1 , . . . , en ), donc
n
λu = det(e1 , . . . , ei−1 , u(ei ), ei+1 , . . . , en )
i=1
n n
= det(e1 , . . . , ei−1 , aj,i ej , ei+1 , . . . , en )
i=1 j=1
n
n n
= aj,i detB (e1 , . . . , ei−1 , ej , ei+1 , . . . , en ) = ai,i = tr(u).
i=1 j=1 i=1
Solution. a) Un peu d'attention montre que le coecient d'indice (i, j) du produit AΩ est
ω (i−1)(j−1) P (ω j−1 ) où P désigne le polynôme P = a1 + a2 X + · · · + an X n−1 . Autrement dit,
P (1) P (ω) ··· P (ω n−1 )
P (1) ωP (ω) ··· ω n−1 P (ω n−1 )
AΩ = .. .. .. .
. . .
P (1) ω n−1 P (ω) · · · ω (n−1)(n−1) P (ω n−1 )
On en déduit
1 1 ··· 1
1 ω ··· ω n−1
n−1
det(AΩ) = P (1)P (ω) · · · P (ω ) .. .. .. = P (1)P (ω) · · · P (ω n−1 ) det Ω.
. . .
1 ω n−1 · · · ω (n−1)(n−1)
Comme det Ω = 0 (c'est un Vandermonde dont les paramètres sont deux à deux distincts), on
en déduit det A = P (1)P (ω) · · · P (ω n−1 ).
b) On pose Un = {e2ikπ/n | k ∈ Z}. Le résultat de la question précédente entraîne
∆(θ) = (cos θ + ω cos 2θ + · · · + ω n−1 cos nθ). (∗)
ω∈Un
En eectuant la demi-somme des deux expressions précédentes, on en déduit, après calculs, que
nθ sin( n+2 nθ
2 θ) − ω sin( 2 )
S(ω) = 2 sin · iθ −iθ
. (∗∗)
2 (1 − ωe )(1 − ωe )
Avec la formule (∗), on en déduit
sin( n+2 nθ
n n nθ ω∈Un 2 θ) − ω sin( 2 )
∆(θ) = S(ω) = 2 sin iθ
−iθ )
ω∈Un
2 ω∈Un (1 − ωe ) ω∈Un (1 − ωe
154 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS
Lorsque a ∈C∗ , le polynôme X n − an a n racines simples qui sont les ωa avec ω ∈ Un , donc
X n − an = ω∈Un (X − ωa). En utilisant cette identité pour a = sin nθ
2 puis a = e et a = e
iθ −iθ ,
on en déduit
n (n+2)θ
nθ sin 2 − sinn nθ 2
n n
∆(θ) = 2 sin
2 (1 − eniθ )(1 − e−niθ )
et comme (1 − eniθ )(1 − e−niθ ) = 4 sin2 nθ
2 on a nalement
nθ n+2 nθ
∆(θ) = 2n−2 sinn−2 sinn θ − sinn .
2 2 2
Nous avons démontré cette relation pour θ ∈ 2π n Z. Le déterminant étant une fonction continue
de ses coecients (c'est un polynôme en ses coecients), la fonction θ → ∆(θ) est continue, et
par continuité on en déduit que la relation trouvée est valable pour tout θ ∈ R.
Remarque. Une autre démonstration de a) fait l'objet de l'exercice 4 page 190.
6. Problèmes
Problème 1. Résoudre dans Mn (R) l'équation A2 = −In .
Solution. Comme A2 = −In , on a det(A2 ) = (det A)2 = (−1)n donc n est pair. Soit p ∈ N∗ tel
que n = 2p. Soit f l'endomorphisme de Rn dont A est la matrice dans la base canonique de Rn .
On va démontrer, en procédant par récurrence sur k, le résultat suivant : pour tout k, 1 ≤ k ≤ p,
il existe x1 , . . . , xk ∈ E = Rn tels que (x1 , f (x1 ), . . . , xk , f (xk )) forme une famille libre.
Montrons ce résultat pour k = 1. Soit x1 ∈ E, x1 = 0. Si λx1 + µf (x1 ) = 0, alors par
composition par f , on tire λf (x1 ) − µx1 = 0. Finalement, on en déduit :
(λ2 + µ2 )x1 = λ [λx1 + µf (x1 )] − µ [λf (x1 ) − µx1 ] = 0.
Donc λ2 + µ2 = 0, c'est-à-dire λ = µ = 0. La famille (x1 , f (x1 )) est donc libre.
Supposons maintenant le résultat vrai au rang k − 1 et montrons le au rang k ≤ p. D'après
l'hypothèse de récurrence, il existe x1 , . . . , xk−1 ∈ E tels que (x1 , f (x1 ), . . . , xk−1 , f (xk−1 )) forme
une famille libre. Soit Fk−1 = Vect{x1 , f (x1 ), . . . , xk−1 , f (xk−1 )}. On a dim Fk−1 = 2k − 2 < 2p,
donc on peut choisir xk ∈ E , xk ∈ Fk−1 . Supposons maintenant une égalité du type :
λ1 x1 + µ1 f (x1 ) + · · · + λk xk + µk f (xk ) = 0.
Alors λk xk + µk f (xk ) ∈ Fk−1 et Fk−1 étant stable par f , f [λk xk + µk f (xk )] = λk f (xk ) − µk xk ∈
Fk−1 . Donc : (λ2k + µ2k )xk = λk [λk xk + µk f (xk )] − µk [λk f (xk ) − µk xk ] ∈ Fk−1 . Or xk ∈ Fk−1 ,
donc λ2k +µ2k = 0, d'où λk = µk = 0. On a donc λ1 x1 +µ1 f (x1 )+· · ·+λk−1 xk−1 +µk−1 f (xk−1 ) = 0,
donc d'après l'hypothèse de récurrence, ∀i, λi = µi = 0.
Le cas particulier k = p, entraîne l'existence de x1 , . . . , xp ∈ E tels que la famille B =
(x1 , f (x1 ), . . . , xp , f (xp )) soit libre. Comme n = 2p, B est une base de E . La matrice A est donc
semblable à
J (0)
[f ]B = . . .
, où J=
0 −1
,
1 0
(0) J
et réciproquement, si A est semblable à une matrice de cette forme, A2 = −In .
Solution. 1/a) Dans un premier temps, on ne suppose pas f nilpotente. Pour tout p, comme
f (E) ⊂ E , on a f p+1 (E) = f p [f (E)] ⊂ f p (E). La suite (Im f p )p∈N est donc décroissante. Donc
la suite d'entiers naturels (rg f p )p∈N décroit, donc il existe un plus petit entier s ∈ N tel que
rg f s+1 = rg f s . Comme Im f s+1 ⊂ Im f s on en déduit Im f s+1 = Im f s . Pour tout p ≥ s, on a
Im f p+1 = f p−s [f s+1 (E)] = f p−s [f s (E)] = Im f p .
156 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS
La suite (Im f p )p∈N est donc stationnaire à partir du rang s. Comme la suite (rg f p )p∈N décroit
et par dénition de s, on a rg f p+1 ≤ rg f p − 1 lorsque p < s. Une récurrence immédiate fournit
rg f p ≤ rg f 0 − p = n − p pour 0 ≤ p ≤ s, en particulier rg f s ≤ rg f 0 − s = n − s. On en déduit
s ≤ n.
Pour conclure, on utilise l'hypothèse de nilpotence de f , pour noter que Im f p est stationnaire
à partir de p = q . On en déduit q = s, donc q ≤ n.
b) Comme f q−1 = 0, il existe x0 ∈ Etel que f q−1 (x0 ) = 0. Nous allons montrer que la famille
(x0 , f (x0 ), . . . , f q−1 (x0 )) est libre. Si q−1
i=0λi f i (x0 ) = 0 avec les λi non tous nuls, on considère
le plus petit entier k tel que λk = 0. On a q−1 i=k λi f (x0 ) = 0, donc en composant par f
i q−1−k à
gauche,
λk f q−1 (x0 ) + λk+1 f q (x0 ) + · · · + λq−1 f 2(q−1)−k (x0 ) = 0.
Comme f p = 0 pour p ≥ q , cette dernière égalité entraîne λk f q−1 (x0 ) = 0, et comme f q−1 (x0 ) =
0, λk = 0, ce qui est absurde. La famille considérée est donc libre. Elle a q éléments, donc
q ≤ dim E = n.
2/ On a vu au 1/a) que si p < q, rg f p+1 ≤ rg f p −1, ce qui entraîne que 0 = rg f q ≤ rg f −(q−1) =
n − r − (q − 1), donc q ≤ n − r + 1.
Il reste à montrer l'inégalité n/r ≤ q . Pour cela, commençons par montrer que
∀p ∈ N, rg f p+1 = rg f p − dim(Im f p ∩ Ker f ). (∗)
- Soit S un s.e.v de E tel que (Im f p
∩ Ker f ) ⊕ S = Im f p .
On a S ∩ Ker f ⊂ ∩(Im f p
Ker f ) ∩ S = {0}, donc S ∩ Ker f = {0}. Ceci entraîne que f|S (restriction de f à S ) est injective,
et donc dim f (S) = dim S . Or Im f p+1 = f (Im f p ) = f [(Im f p ∩ Ker f ) ⊕ S] = f (S), donc
rg f p+1 = dim f (S) = dim S = rg f p − dim(Im f p ∩ Ker f ).
L'égalité (∗) entraîne que pour tout p, rg f p+1 ≥ rg f p − r. Ceci entraîne 0 = rg f q ≥
rg f 0 − qr = n − qr, donc q ≥ n/r.
3/ Rappelons que nous avons montré en 1/a) que (Im f p )p∈N décroit strictement puis devient
stationnaire à partir d'un certain rang s (f n'était pas supposé nilpotent dans cette preuve).
Supposons que F et G existent. Soit q l'indice de nilpotence de f|F , de sorte que f q (F ) = 0.
Pour tout p ≥ q on a f p (F ) = f p−q (f q (F )) = 0, et f p (G) = G car f|G est inversible. Comme
F ⊕ G = E , on en déduit que pour tout p ≥ q , Im f p = f p (F ) + f p (G) = G. Ainsi G est
forcément la valeur stationnaire de la suite (Im f p )p∈N , donc G = Im f s et q ≥ s. Par ailleurs
f q (F ) = 0 donc F ⊂ Ker f q . Or n = dim Ker f q + dim Im f q = dim Ker f q + dim G, et comme
n = dim F + dim G on en déduit dim F = dim Ker f q , donc F = Ker f q . Par dénition de s on a
rg f s = rg f q , donc dim Ker f q = n − rg f q = n − rg f s = dim Ker f s et comme Ker f s ⊂ Ker f q
(car si f s (x) = 0, on a f q (x) = f q−s (f s (x)) = 0) on en déduit F = Ker f q = Ker f s . Ainsi si F
et G existent, ils vérient forcément F = Ker f s et G = Im f s , ce qui assure leur unicité.
Réciproquement, dénissons F et G par F = Ker f s et G = Im f s . Il est immédiat que F et
G sont stables par f .
On a F ∩ G = {0} car si x ∈ F ∩ G, on a f s (x) = 0 et x = f s (y) avec y ∈ E , donc
f 2s (y) = 0. Or Ker f s ⊂ Ker f 2s et dim Ker f s = n − rg f s = n − rg f 2s = dim Ker f 2s ,
donc Ker f 2s = Ker f s . Donc y ∈ Ker f s , donc x = f s (y) = 0. Comme dim F +dim G = n,
on en déduit F ⊕ G = E .
Par dénition de F = Ker f s , on a f s (F ) = 0 donc f|F est nilpotent.
Par ailleurs on a Im f s+1 = Im f s , ce qui s'écrit f (G) = G donc f|G est surjective et
comme c'est un endomorphisme en dimension nie, on en déduit que f|G est inversible.
Remarque. En particulier, 2/ montre que si f est nilpotent et si dim Ker f = 1, alors
l'indice de nilpotence de f est q = n.
Nous avons montré que dans tous les cas, (Im f p )p∈N décroit strictement puis devient
stationnaire à partir d'un certain rang s. L'entier s s'appelle l'indice de f . On montre
facilement que la suite (Ker f p )p∈N croît strictement puis devient stationnaire à partir de
ce même rang s. On retrouve ce résultat dans la dénition 2 page 202
6. PROBLÈMES 157
Problème 3. 1/a) Soit N ∈ Mn (R) une matrice nilpotente ( i. e. il existe p ∈ N∗ tel que
N = 0) d'indice q (i. e. q est le plus petit entier naturel vériant N q = 0). Montrer que
p
2/a) Soit N ∈ Mn (R) une matrice nilpotente d'indice 2. Pour tout p ∈ N∗ , calculer
(In + N )p .
1 1
b) (Application). Soit M = −1 3
∈ M2 (R). Calculer M 100 .
−1 1
b) Si N =
−1 1
, on a M = 2I2 + N et N 2 = 0, donc d'après la question précédente,
100
1 −49 50
M 100 = 2100 I2 + N = 2100 (I2 + 50N ) = 2100 .
2 −50 51
x1 , . . . , xn−1 étant pris tels que det(fi (xj ))1≤i,j≤n−1 = 0. En notant, pour tout i, ∆i le mineur
de l'élément fi (x) de ∆, on a, en développant ∆(x) par rapport à la dernière colonne :
n
∀x ∈ E, ∆(x) = (−1)n+i ∆i · fi (x).
i=1
Or ∆n = 0, et comme les (fi ) forment une famille libre, on ne peut avoir ni=1 (−1)n+i ∆i fi (x) = 0
pour tout x, donc ∃xn ∈ E, ∆(xn ) = 0, de sorte que (fi (xj ))1≤i,j≤n est inversible.
b) Pour tout x ∈ E , l'application x̃ : F → K f → f (x) est un élément de F ∗ . Soit Γ =
{x̃ | x ∈ E}. L'orthogonal de Γ dans F est :
Solution. On traite déja le cas particulier αj = j −1. On prouve l'inversibilité de M (sans utiliser
l'expression du déterminant de Vandermonde qui permet d'armer que det M = 0 dès que les
xi sont distincts), en remarquant que pour tout vecteur colonne A = (ai )1≤i≤n de Rn , on a
1 x1 · · · xn−1
1 a1 P (x1 )
. .
M A = ... ... ..
. .. = .. , P (X) = a1 + a2 X + · · · + an X n−1 .
1 x n · · · xnn−1 an P (xn )
Solution. a) En écrivant par blocs l'égalité AT = In puis en considérant les blocs à gauche on
obtient BW + CY = Ir et DW + EY = 0. On en déduit
B C W 0 BW + CY C Ir C
= =
D E Y In−r DW + EY E 0 E
et en prenant le déterminant on a donc (det A)(det W ) = det E .
160 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS
b) L'idée est de se ramener au cas précédent (qui correspond au cas où I = J = {1, . . . , r}) par
permutation des indices. Considérons l'endomorphisme f de Kn dont A est la matrice dans la
base canonique B = (e1 , . . . , en ) de Kn . Notons i1 < . . . < ir les éléments de I et k1 < . . . < kn−r
ceux de I ∗ , j1 < . . . < jr les éléments de J et 1 < . . . < n−r ceux de J ∗ . Considérons les bases
BI = (ei1 , . . . , eir , ek1 , . . . , ekn−r ) et BJ = (ej1 , . . . , ejr , e1 , . . . , en−r ). La matrice de f dans les
B C
bases BI et BJ s'écrit sous la forme par blocs [f ]B BI = D E , où E = AI ,J . De même on peut
J
∗ ∗
W X
écrire [f ]BJ = Y Z , avec W = TJ,I . La matrice [f ]BI est inversible, d'inverse [f −1 ]B
−1 BI BJ
BJ . On
I
peut donc appliquer le résultat de la question précédente, qui donne (det[f ]BI )(det W ) = det E . BJ
Il reste à calculer det PI et det PJ . La matrice PI est obtenue à partir de In en eectuant sur
les colonnes la permutation σ dénie par σ(is ) = s pour 1 ≤ s ≤ r et σ(ks ) = r + s pour
1 ≤ s ≤ n − r. On a donc det PI = ε(σ) det In = ε(σ), où ε(σ) est la signature de σ . En notant
C(i, j) le cycle (i, i + 1, . . . , j), un peu d'attention montre que σ = C(r, ir ) · · · C(2, i2 )C(1, i1 ).
On a donc
r
r
det PI = ε(σ) = ε(C(s, is )) = (−1)is −s .
s=1 s=1
r
De même on trouve det PJ = s=1 (−1)
js −s . Avec (∗) on en déduit nalement
2/ Remarquons que le cas r = 1 est une conséquence immédiate de la dénition des cofacteurs
de A. Supposons donc 2 ≤ r ≤ n − 1.
Lorsque det A = 0, la comatrice de A est de rang 0 ou 1 (voir l'exercice 11 page 152), donc
comme r ≥ 2, on a ΓI,J = 0, donc l'identité souhaitée est bien vériée.
Supposons maintenant det A = 0. L'égalité A = (det A) tT avec T = A−1 montre que
I,J = (det A)TJ,I , donc ΓI,J = (det A)r det TJ,I . On conclue aisément car d'après le résul-
(A)
tat de la question 1/b), on a (det A) det TJ,I = (−1)S(I,J) ∆I,J .
Posons J = 0 1
In−1 0 ∈ Gn (C). Pour tout λ ∈ C on a
−λ 0 · · · ··· 0 1
... ...
1 0 r lignes
... ..
0 −λ 0 .
J − λKr = . ... .. . (∗)
.. 1 0 .
.
.. ... ... . . . ..
.
0 ··· ··· 0 1 0
Le rang d'une matrice reste inchangé lorsque l'on ajoute à une ligne une combinaison linéaire
des autres. En ajoutant à la r-ième ligne dans (∗) λ fois la suivante, on fait disparaître le −λ se
trouvant à la position (r, r). En itérant ainsi le procédé aux lignes d'indice r − 1, . . . , 1, on fait
disparaître tous les −λ, de sorte que rg(J − λKr ) = rg J = n. Ainsi, J − λKr ∈ Gn (C), donc
A(J − λKr )B = P − λM (avec P = AJB ∈ Gn (C)) est inversible pour tout λ ∈ C, d'où la
condition nécessaire.
Condition susante. Raisonnons par l'absurde et supposons M inversible. Si Q = M −1 P , on a
∀λ ∈ C, det(P − λM ) = (det M )(det(Q − λIn )) = 0
donc det(Q−λIn ) = 0 pour tout λ ∈ C. Ceci est impossible puisque det(Q−λIn ) est un polynôme
de degré n en λ (c'est le polynôme caractéristique de Q) donc s'annule au moins une fois sur C.
D'où la condition susante.
b) Raisonnons par l'absurde en supposant M ∈ Gn (C). D'après la question précédente, il existe
P ∈ Gn (C) telle que pour tout λ ∈ C, P − λM ∈ Gn (C). En vertu de l'hypothèse faite sur ϕ
et de la linéarité de ϕ, ceci entraîne
∀λ ∈ C, ϕ(P ) − λϕ(M ) ∈ Gn (C),
donc d'après la question précédente, ϕ(M ) ∈ Gn (C), ce qui est contradictoire. Finalement, on
a M ∈ Gn (C).
Donc D = A = tBCB , et donc det A = det( tB) · det C · det B = det C . Le déterminant de la
matrice diagonale C est le produit de ses coecients diagonaux, donc det A = ψ(1) · · · ψ(n).
2/ a) Il sut d'appliquer 1/ avec ψ(k) = 1. On en tire det A = 1.
162 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS
Les seuls coecients de Rλ qui contiennent λ sont les rk,k avec k ≤ p, donc le degré (en λ) de Πσ
est inférieur à fσ = |{k ≤ p | σ(k) = k}|. Ainsi, les termes de la somme (*) qui contribuent au
coecient de λp−1 dans det Rλ sont ceux pour lequels fσ ≥ p − 1. Lorsque fσ = p, on a forcément
σ(p + 1) = p + 1 donc Πσ = 0 puisqu'il contient le terme rp+1,p+1 qui est nul (vu plus haut).
Les permutations σ vériant fσ = p − 1, sont les transpositions de la forme σ = τk,p+1 où k ≤ p,
et dans ce cas le coecient de λp−1 dans Πσ est égal à rk,p+1 rp+1,k . Le coecient de λp−1 dans
det Rλ est donc égal à
p
det Rλ = rk,p+1 rp+1,k = Bi Cj .
k=1
Donc Bi Cj = 0, et vu que Bi Cj est le coecient d'indice (i, j) de BC , on en déduit BC = 0.
2/a) Pour toute matrice N ∈ V , on a M + N ∈ V , donc d'après le résultat précédent 0 =
b(M + N )c(M + N ), ce qui entraîne 0 = (b(M ) + b(N ))c(N ) = b(M )c(N ). Ainsi pour tout
N ∈ V on a Im c(N ) ⊂ Ker b(M ). On en déduit le résultat.
A C
b) Supposons Φ(M ) = 0 avec M =
B 0
∈ V . Alors A = 0 et C = 0. On a aussi Bek = 0
pour r < k ≤ p, et d'après la question précédente on a Bek = 0 pour k ≤ r. Donc B s'annule
sur la base (e1 , . . . , ep ), donc B = 0. L'application linéaire Φ vérie donc Ker Φ = {0}.
L'image de Φ est incluse dans Mp (K) × (Kn−p )p−r × U , où U = {c(M ) | M ∈ V }. Or pour
tout M ∈ V , on a Im c(N ) ⊂ E , donc le s.e.v. U est inclus (à un isomorphisme près) dans
L(Kn−p , E). On en déduit dim U ≤ (n − p)r et
dim Im Φ ≤ dim Mp (K) + (n − p)(p − r) + dim U ≤ p2 + (n − p)(p − r) + (n − p)r = np.
On conclut en écrivant dim V = dim Ker Φ + dim Im Φ = dim Im Φ.
Remarque. L'égalité peut avoir lieu, par exemple le s.e.v V des matrices dont les n − p
dernières lignes sont nulles, vérie dim V = np, et on a max{rg M, M ∈ V } = p.
164 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS
où pour x = (M1 , . . . , Mp ), nous avons noté T (x) = tr(M1 · · · Mp ) On regroupe les termes iden-
tiques de cette expression. L'identité tr(P Q) = tr(QP ) appliquée à P = M1 et Q = M2 · · · Mp
donne tr(M1 M2 · · · Mp ) = tr(M2 · · · Mp M1 ). En notant σ(M1 , . . . , Mp ) = (Mσ(1) , . . . , Mσ(p) )
pour σ ∈ Sp et en notant G le sous-groupe de Sp engendré par le cycle γ = (1, 2, . . . , p), on a
ainsi T (σ(x)) = T (x) pour tout σ ∈ G (on fait ainsi opérer G sur {A, B}p , voir la section 2.4
page 23). Les orbites Ox = {σ(x), σ ∈ G} de x ∈ {A, B}p ont pour cardinal un nombre qui divise
|G| = p, donc contiennent p éléments sauf lorsque x = (A, . . . , A) ou x = (B, . . . , B). Soit Θ une
partie de {A, B}p contenant exactement un représentant des classes d'intransitivité (dénie par
xRy ⇐⇒ y ∈ Ox ), et Θ∗ = Θ {(A, . . . , A), (B, . . . , B)}. L'égalité (*) s'écrit
tr(A + B)p = T (y) = tr Ap + tr B p + |Ox | T (x) ≡ tr Ap + tr B p (mod p)
x∈Θ y∈Ox x∈Θ∗
2/ On va montrer que l'ensemble Γ = {A ∈ Mn (Z) | tr(Ap ) ≡ tr(A) (mod p)} est égal à Mn (Z).
Notons Ei,j la matrice de la base canonique de Mn (R) dont tous les coecients sont nuls sauf
celui d'indice (i, j) qui vaut 1. Pour tout i on a Ei,i
p
= Ei,i donc Ei,i ∈ Γ. Si i = j on a Ei,j
p
=0
et tr Ei,j = 0 donc Ei,j ∈ Γ. Si A ∈ Γ, on a kA ∈ Γ pour tout k ∈ Z, car la propriété kp ≡ k
(mod p) entraîne tr(kA)p = k p tr Ap ≡ k tr Ap ≡ k tr A (mod p). La question 1/ montre qu'une
somme de deux éléments de Γ est encore dans Γ, et par récurrence sur le nombre de termes
de la somme on en déduit que toute somme nie d'éléments de Γ est dans Γ. Toute matrice
A ∈ Mn (Z) s'écrit sous la forme A = i,j ai,j Ei,j avec ai,j ∈ Z on en déduit donc que A ∈ Γ
pour tout A ∈ Mn (Z).
Remarque. On peut aussi prouver 2/ en trigonalisant A (en se plaçant dans le corps des
racines de son polynôme caractéristique), puis en utilisant la propriété (λ1 + · · · + λn )p =
λp1 + · · · + λpn , vraie dans un corps de caractéristique p. 1/ en découle ensuite facilement.
1/a) Montrer qu'une matrice de transvection est inversible et que son inverse est aussi
une matrice de transvection.
b) Si A ∈ Gn (K), montrer qu'il existe des matrices de transvection B1 , . . . , Bp , B1 , . . . , Bq
telles que A = B1 · · · Bp · Sn (det A) · B1 · · · Bq .
2/ On appelle commutateur toute matrice pouvant se mettre sous la forme ABA−1 B −1
avec A, B ∈ Sn (K). Soit D le sous-groupe de Gn (K) engendré par les commutateurs.
a) Montrer que D = Sn (K) si n ≥ 3.
b) Montrer que D = Sn (K) si n = 2 et Card(K) ≥ 4.
3/ On suppose Card(K) ≥ 4 et n ≥ 2. Soit ϕ un morphisme de groupe de Gn (K) dans
un groupe commutatif G.
a) Montrer qu'il existe un morphisme de groupes g : K∗ → G tel que ϕ = g ◦ det.
b) Si G = K∗ et K est ni, montrer qu'il existe p ∈ N tel que pour tout A ∈ Gn (K),
ϕ(A) = (det A)p (on pourra utiliser le fait que (K∗ , ·) est cyclique, voir la remarque de
l'exercice 10 page 28).
In + λEi,j est donc inversible, et son inverse est la matrice de transvection In − λEi,j .
b) Soit M ∈ Gn (K). Si i = j , on remarque que
(i) (In + λEi,j )M se déduit de M en ajoutant à la i-ième ligne de M λ fois la j -ième,
(ii) M (In + λEi,j ) se déduit de M en ajoutant à la j -ième colonne de M λ fois la i-ième.
Ceci étant, on va maintenant prouver le résultat par récurrence sur n ∈ N∗ . Pour n = 1, c'est
évident car A = (det A). Supposons le résultat vrai au rang n − 1 et montrons le au rang n. Soit
A ∈ Gn (K). Comme A est inversible, la première colonne de A est non nulle. Il existe donc une
166 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS
matrice de transvection T1 = In + λE2,j telle que le coecient d'indice (2, 1) de T1 A soit non
nul. On voit alors qu'il existe µ tel que si T2 = In + µE1,2 , alors T2 T1 A ait son coecient d'indice
(1, 1) égal à 1. D'après (i), on voit maintenant que l'on peut trouver des matrices de transvection
B1 , . . . , Bp (de la forme In + λEi,1 ) telles que
1 × ··· ×
0 × ··· ×
(B1 · · · Bp )(T1 T2 A) = . . .. ,
.. .. .
0 × ··· ×
puis d'après (ii), on voit que l'on peut trouver des matrices de transvection B1 , . . . , Bq (de la
forme In + λE1,j ) telles que
1 0 ··· 0
0
(B1 · · · Bp T1 T2 A)(B1 · · · Bq ) = A avec A =
..
.
. B
0
Or det A = det B donc d'après l'hypothèse de récurrence, il existe des matrices de transvection
C1 , . . . , Cr et C1 , . . . , Cs de Mn−1 (K) telles que
B = C1 · · · Cr · Sn−1 (det A) · C1 · · · Cs .
Les matrices
1 0 ··· 0 1 0 ··· 0
0 0
Di = . et Dj = ..
.. Ci . Cj
0 0
sont des matrices de transvection de Mn (K), et on a
A = D1 · · · Dr · Sn (det A) · D1 · · · Ds
et donc
A = (T2−1 T1−1 )(Bp−1 · B1−1 )(D1 · · · Dr ) · Sn (det A) · (D1 · · · Ds )(Bq )−1 · · · (B1 )−1 ,
d'où le résultat puisque l'on a vu plus haut que l'inverse d'une matrice de transvection est une
matrice de transvection.
2/a) Tout d'abord, tout commutateur ABA−1 B −1 est dans Sn (K) puisque det(ABA−1 B −1 ) =
(det A)(det B)(det A−1 )(det B −1 ) = 1. On en déduit donc D ⊂ Sn (K).
Montrons maintenant que Sn (K) ⊂ D. Soit M ∈ Sn (K). D'après la question précédente, M
est le produit de matrices de transvection, et D étant un groupe, il sut donc de montrer que les
matrices de transvection sont des commutateurs pour montrer que M ∈ D. Soit T = In + λEi,j
avec i = j une matrice de transvection. Comme n ≥ 3, il existe k ∈ {1, . . . , n} tel que k ∈ {i, j}.
On remarque alors que
T = (In + λEi,k )(In + Ek,j )(In − λEi,k )(In − Ek,j )
et comme In − λEi,k = (In + λEi,k )−1 et In − Ek,j = (In + Ek,j )−1 , on en déduit que T est un
commutateur, d'où le résultat.
b) Remarquons tout d'abord que si (α, β) ∈ K × K∗ ,
β 0 1 α β −1 0 1 −α 1 α(β 2 − 1)
= . (∗)
0 β −1 0 1 0 β 0 1 0 1
On choisit maintenant β tel que β 2 − 1 = 0 et β = 0 (c'est possible car Card(K∗ ) ≥ 3 et
l'équation polynomiale β 2 − 1 = 0 a au plus deux racines dans K). La relation (∗) prouve alors
que toute matrice du type ( 10 a1 ) est un commutateur. De même, on montrerait que toute matrice
du type ( a1 01 ) est un commutateur. Autrement dit, toutes les matrices de transvection sont des
commutateurs, et comme à la question précédente, ceci sut pour conclure que D = Sn (K).
6. PROBLÈMES 167
3/a) Notons e l'élément neutre de G. Si M = ABA−1 B −1 ∈ Gn (K) est un commutateur, alors
ϕ(M ) = ϕ(A)ϕ(B)ϕ(A−1 )ϕ(B −1 )
et le groupe G étant commutatif,
ϕ(M ) = ϕ(A)ϕ(A−1 )ϕ(B)ϕ(B −1 ) = ϕ(AA−1 )ϕ(BB −1 ) = ϕ(In )2 = e.
Comme D = Sn (K) est engendré par les commutateurs, on en déduit que tout élément M ∈
Sn (K) vérie ϕ(M ) = e.
Ceci étant, soit A ∈ Gn (K). Soit A ∈ Gn (K) telle que A = A Sn (det A). On a det A =
det A · det(Sn (det A)) donc det A = 1 car det(Sn (det A)) = det A = 0. Autrement dit, A ∈
Sn (K) et donc ϕ(A ) = e, d'où on tire ϕ(A) = ϕ(A )ϕ(Sn (det A)) = ϕ(Sn (det A)). Si g : K∗ →
G α → ϕ[Sn (α)], g est un morphisme de groupe de K∗ dans G, et on vient donc de montrer
que ϕ = g ◦ det, d'où le résultat.
b) On recherche la forme de g. Le groupe K∗ est cyclique donc il existe a ∈ K∗ tel que K∗ = a.
En particulier, il existe p ∈ N tel que g(a) = ap . Donc pour tout x ∈ K∗ , x = aq , on a
g(x) = g(aq ) = g(a)q = (ap )q = (aq )p = xp ,
et donc pour tout A ∈ Gn (K), ϕ(A) = g(det A) = (det A)p .
Problème 14. a) Soient A et B ∈ Mn (R) deux matrices semblables sur C (i. e. il existe
P ∈ Gn (C) telle que A = P −1 BP ). Montrer que A et B sont semblables sur R (i. e. il
existe Q ∈ Gn (R), A = Q−1 BQ).
b) Plus généralement, soit K un corps inni et L une extension de K. Soient A et B ∈
Mn (K) deux matrices semblables sur L. Montrer que A et B sont semblables sur K.
b) On xe dorénavant des nombres réels (yi )0≤i≤n et p0 , pn . On cherche une spline cubique
vériant les trois conditions
(i) ∀i ∈ {0, 1, . . . , n}, s(xi ) = yi (ii) s (a) = p0 (iii) s (b) = pn . (∗)
Soit s une fonction C sur I vériant (∗), et telle que pour i = 1, . . . , n, la restriction si
1
de s à [xi−1 , xi ] soit polynomiale de degré ≤ 3. Exprimer sous forme d'un système linéaire
une condition nécessaire et susante sur les inconnues pi = s (xi ) (1 ≤ i ≤ n − 1) pour
que s soit une spline cubique.
c) Montrer que ce système linéaire est inversible et en déduire l'existence et l'unicité d'une
spline cubique s vériant (∗) (une telle spline est appelée spline scellée).
d) (Théorème de Holladay). On note H2 l'espace vectoriel des fonctions de classe C 1 sur
I et dont la restriction à chaque intervalle [xi−1 , xi ] (1 ≤ i ≤ n) est de classe C 2 . On note
H2∗ l'ensemble des fonctions de H2 vériant les conditions (∗). Montrer qu'il existe une
unique fonction s ∈ H2∗ vériant
b b
(s (x))2 dx = inf ∗ (f (x))2 dx
a f ∈H2 a
et que cette fonction s est la spline scellée vériant les conditions (∗). (Indication : si s
b
est la spline scellée vériant (∗), montrer que a s (f − s ) = 0 pour tout f ∈ H2∗ .)
Solution. a) L'existence et l'unicité du polynôme H de degré ≤ 3 vériant ces conditions d'in-
terpolation est une conséquence du résultat de l'exercice 7 page 70. Nous allons retrouver ce
résultat directement, et calculer explicitement H (a0 ) et H (a1 ) en fonction de z0 , z1 , q0 , q1 .
Notons m0 = H (a0 ) et m1 = H (a1 ). Comme H est polynomiale de degré ≤ 3, H est une
fonction ane, donc par interpolation linéaire on obtient
m0 m1
H (x) = (a1 − x) + (x − a0 ), h = a1 − a0 .
h h
Une double intégration de la formule précédente entraîne, après une manipulation simple, l'exis-
tence de α, β ∈ R tels que
m0 m1
H(x) = (a1 − x)3 + (x − a0 )3 + α(a1 − x) + β(x − a0 ).
6h 6h
Les égalités H(a0 ) = z0 et H(a1 ) = z1 donnent les égalités z0 = m60 h2 + αh et z1 = m61 h2 + βh.
On en déduit les valeurs de α et β et après substitution on obtient
m0 3 m1 3 z0 m0 h z1 m1 h
H(x) = (a1 − x) + (x − a0 ) + − (a1 − x) + − (x − a0 ). (∗∗)
6h 6h h 6 h 6
En dérivant cette expression, et en substituant x par a0 et a1 , on obtient
m0 m1 z1 − z0 m1 m0 z1 − z0
q0 = H (a0 ) = − h− h+ , q1 = H (a1 ) = h+ h+ .
3 6 h 3 6 h
Ceci permet d'obtenir directement les valeurs m0 et m1 sous la forme
H (a0 ) m0 2q0 + q1 z1 − z0 H (a1 ) m1 q0 + 2q1 z1 − z0
= =− +3 2
, = = −3 . (∗∗∗)
2 2 h h 2 2 h h2
Ainsi, partant de z0 , z1 , q0 , q1 il y a une et une seule valeur possible pour m0 et m1 , donc on a
bien l'existence et l'unicité de H d'après la formule (∗∗).
b) Soit pi = s (xi ). La restriction si de s à [xi−1 , xi ] est un polynôme de degré ≤ 3 vériant
si (xi−1 ) = yi−1 , si (xi−1 ) = pi−1 , si (xi ) = yi , si (xi ) = pi . D'après le résultat de la question
précédente, si existe et est unique, ce qui dénit s de manière unique dès que s vérie (∗) et
s (xi ) = pi pour i = 1, . . . , n − 1. La seule condition manquante pour que s soit une spline
cubique est qu'elle soit de classe C 2 . Ceci est équivalent à la condition si (xi ) = si+1 (xi ) pour
1 ≤ i ≤ n − 1, ce qui d'après la formule (∗∗∗) s'écrit aussi
pi−1 + 2pi yi − yi−1 2pi + pi+1 yi+1 − yi
−3 2 =− +3 , hi−1 = xi − xi−1 , hi = xi+1 − xi .
hi−1 hi−1 hi h2i
6. PROBLÈMES 169
En résumé, s est une spline cubique si et seulement si le système linéaire suivant est satisfait :
pi−1 1 1 pi+1 yi − yi−1 yi+1 − yi
∀i ∈ {1, . . . , n − 1}, + 2pi + + = ci , ci = 3 2 +3 .
hi−1 hi−1 hi hi hi−1 h2i
c) En posant
1 p0 pn
i = et d1 = c1 − , d 2 = c2 , ..., dn−2 = cn−2 , dn−1 = cn−1 −
hi h0 hn−1
le système linéaire précédent s'écrit aussi en fonction des inconnues p1 , . . . , pn−1 sous la forme
2(0 + 1 ) 1 0 ··· 0 p1 d1
... .. p2
1 2(1 + 2 ) 2 . d2
.
... ... .. .
. = . .
0 2 0 .
.. ... ... ... .. ..
. n−2 .
0 ··· 0 n−2 2(n−2 + n−1 ) p n−1 dn−1
Notons M la matrice
carrée d'ordre n − 1 du membre de gauche de cette égalité. Si M X = 0
x1
avec X = ... , alors si k est tel que |xk | = supi |xi |, la ligne k du système M X = 0 s'écrit
xn−1
k−1 xk−1 + 2(k−1 + k )xk + k xk+1 = 0 (où on pose x0 = xn = 0). Ceci entraîne 2(k−1 + k )xk =
−k−1 xk−1 − k xk+1 donc 2(k−1 + k )|xk | ≤ k−1 |xk−1 | + k |xk+1 | ≤ (k−1 + k )|xk | ce qui n'est
possible que si xk = 0 (nous venons d'utiliser la propriété que M est diagonalement dominante,
voir l'exercice 1 page 129). On en déduit que X = 0, donc que M est inversible, ce qui prouve bien
l'existence et l'unicité des inconnues (pi )1≤i≤n−1 . D'après le résultat de la question précédente,
ceci montre l'existence et l'unicité d'une spline cubique vériant les conditions (∗).
d) Soit s la spline scellée vériant les conditions (∗). Soit f ∈ H2∗ . On note u = f − s. On a
b b b b
(f (x))2 dx = (s (x))2 dx + 2 s (x)u (x) dx + (u (x))2 dx. (∗∗∗∗)
a a a a
Sur [xi−1 , xi ], la fonction s est égale à la fonction polynomiale si , sa dérivée troisième y est donc
bien dénie, et on peut écrire l'intégration par partie
xi xi
x
s (x)u (x) dx = s (x)u (x) xi − s (x)u (x) dx.
i−1
xi−1 xi−1
Comme s = si est polynomiale de degré 3 sur [xi−1 , xi ], la fonction s est constante sur cet
intervalle. On peut donc écrire
xi xi
x x
s (x)u (x) dx = s (x)u (x) xi − s
i (xi ) u (x) dx = s (x)u (x) xi ,
i−1 i−1
xi−1 xi−1
car
xi comme f et s vérient les conditions (∗), la fonction u = f − s s'annule aux points xi donc
xi−1 u (x) dx = u(xi ) − u(xi−1 ) = 0. En sommant cette relation sur i, on en déduit
b b
s (x)u (x) dx = s (x)u (x) a = s (b)u (b) − s (a)u (a) = 0
a
car comme f et s vérie la condition (ii) et (iii) de (∗), on a u (a) = u (b) = 0. Finalement la
formule (∗∗∗∗) s'écrit
b b b
(f (x))2 dx = (s (x))2 dx + (f (x) − s (x))2 dx.
a a a
On en déduit bien que ab (s (x))2 dx = inf f ∈H2∗ ab (f (x))2 dx. La fonction s est bien la seule à
atteindre ce minimum. En eet, considérons une autre fonction f ∈ H2∗ qui l'atteint. La formule
i
précédente entraîne ab (f (x) − s (x))2 dx = 0, donc xxi−1 (f (x) − s (x))2 dx = 0 pour tout i.
Donc sur chaque intervalle [xi−1 , xi ], f − s s'annule donc (f − s) y est ane. Comme de plus
170 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS
Réductions d'endomorphismes
1. Diagonalisation, trigonalisation
1.1. Généralités en dimension quelconque
La lettre E désigne un K-e.v de dimension quelconque, f un endomorphisme de E .
Définition 1. Soit α ∈ K. Le scalaire α est dit
(i) Valeur régulière de f si f − α IdE est inversible.
(ii) Valeur spectrale de f si f − α IdE est non inversible.
(iii) Valeur propre de f si f − α IdE est non injective, autrement dit s'il existe x = 0
tel que f (x) = αx, et on dit alors que x est vecteur propre de f attaché à la valeur
propre α.
On appelle spectre de f l'ensemble de ses valeurs spectrales.
Remarque 1. En dimension nie, (ii) et (iii) sont équivalents.
0 est valeur propre de f si et seulement si Ker f = {0}.
Pour une matrice A ∈ Mn (K), on dit que α ∈ K est valeur propre de A s'il existe
un vecteur X = 0 tel que AX = αX . On dit alors que X est vecteur propre de
A attaché à la valeur propre α. Si A est la matrice d'un endomorphisme f , α est
valeur propre de A si et seulement si α est valeur propre de f .
Définition 2. Soit λ une valeur propre de f . L'ensemble Eλ = {x ∈ E | f (x) = λx} =
Ker(f − λ IdE ) est un s.e.v de E stable par f , appelé sous-espace propre de f associé à la
valeur propre λ.
Théorème 1. Soient λ1 , . . . , λk des valeurs propres de f , distinctes deux à deux. Alors
les sous-espaces propres Eλ1 , . . . , Eλk sont en somme directe.
172 4. RÉDUCTIONS D'ENDOMORPHISMES
Seconde méthode. Nous allons montrer ce résultat sans faire appel au corps des racines de Pf ,
en procédant par récurrence sur n ∈ N∗ . Pour n = 1, c'est évident. Supposons le résultat vrai
au rang n − 1, montrons le au rang n. On a (det f )q = det(f q ) = 0, donc det f = 0 et donc
Ker f = {0}. Soit e1 ∈ Ker f , e1 = 0, de sorte que f (e1 ) = 0. Complétons e1 en une base B de
E . Alors
0 ×···× 0 ×···×
[f ]B = et 0 = [f q ]B = ([f ]B )q = ,
0 M 0 Mq
donc M q = 0, et d'après l'hypothèse de récurrence PM = (−1)n−1 X n−1 , donc
−X ×···×
Pf (X) = = (−X)PM = (−1)n X n .
0 M − XIn−1
(iii) =⇒ (i). Si pour tout i, Bi désigne une base de Eλi , alors il est clair que B = B1 ∪ · · · ∪ Bp
est une base de vecteurs propres de f .
Remarque 10. La réciproque est vraie : si f et g se diagonalisent dans une même base,
alors f et g commutent (il sut de remarquer que f et g commutent sur cette base).
Théorème 5 (Trigonalisation simultanée). Si f et g ∈ L(E) sont trigonalisables
et commutent, alors il existe une base de trigonalisation commune de f et g (on dit alors
que f et g sont cotrigonalisables).
Démonstration. Préliminaire. Remarquons déjà que f et g ont un vecteur propre commun. En
eet, f admet une valeur propre λ ∈ K (puisque f est trigonalisable). Le sous-espace propre Eλ
est stable par g , et g|Eλ est trigonalisable (voir la remarque 9), donc admet un vecteur propre
x ∈ Eλ . Finalement, x est un vecteur propre commun à f et g .
On procède maintenant par récurrence sur n. Pour n = 1, c'est évident. Supposons le résultat
vrai au rang n − 1. Pour le montrer au rang n, nous donnons deux méthodes.
Première méthode. Comme f ◦ g = g ◦ f , on a tg ◦ tf = tf ◦ tg , donc d'après le préliminaire
appliqué à tf et tg , il existe un vecteur propre x ∈ E ∗ commun à tf et à tg . Ainsi, Kx est stable
par tf et tg , donc l'orthogonal H de Kx dans E , est un hyperplan de E stable par f et g . D'après
l'hypothèse de récurrence, f|H et g|H sont trigonalisables dans une même base B de H . Soit
e ∈ E tel que B = (B , e) forme une base de E . Alors
×
..
[f ]B = [f|H ]B .
×
0 ··· 0 ×
et comme la matrice de f|H dans B est triangulaire supérieure, on en déduit que [f ]B est
triangulaire supérieure. De même, [g]B est triangulaire supérieure, d'où le résultat au rang n.
Seconde méthode. Le préliminaire assure l'existence d'un vecteur propre x commun à f et à g .
Complétons x en une base B = (x, e2 , . . . , en ) de E . On a
α × ··· × β × ··· ×
0 0
[f ]B = . et [g]B = .. .
.. M . N
0 0
Comme Pf = (α − X)PM , PM est comme Pf scindé sur K, donc M est trigonalisable. De même,
N est trigonalisable. Or f g = gf , donc [f ]B [g]B = [g]B [f ]B , ce qui s'écrit
× × ··· × × × ··· ×
0 0
.. = ..
. MN . NM
0 0
1. DIAGONALISATION, TRIGONALISATION 177
x
Un vecteur propre X2 = y
z
associé à la valeur propre 2 :
−2x + 2y − z = 0
3x = 4y
M X2 = 2X2 ⇐⇒ 3x − 4y = 0 ⇐⇒ .
z = 2(y − x)
−2x + 2y − z = 0
4
Donc X2 = 3 convient.
−2
x
Un vecteur propre X3 = yz associé à la valeur propre −4 :
4x + 2y − z = 0
3x + 2y = 0
M X3 = −4X3 ⇐⇒ 3x + 2y = 0 ⇐⇒ .
x = z
−2x + 2y + 5z = 0
2
Donc X3 = −3 convient.
2
L'endomorphisme f ∈ L(C3 ) ayant M pour matrice dans la base canonique de C3 est donc
diagonalisable, et B = (X1 , X2 , X3 ) est une base de diagonalisation de f . On a
1 0 0 1 4 2
[f ]B = D = 0 2 0 donc P −1 M P = D avec P = 1 3 −3 .
0 0 −4 1 −2 2
(P est la matrice de passage de la base canonique de C3 à la base B ).
b) Un calcul donne PM = (X 2 + 1)2 = (X + i)2 (X − i)2 .
On recherche Ei , le sous-espace propre associé à la valeur propre i. On a
−i 0 0 1
0 −i −1 0
M − iI4 =
0
.
1 −i 0
−1 0 0 −i
On remarque que dans cette dernière matrice, la dernière colonne vaut i fois la première, c'est-
à-dire qu'en sommant la première
colonne à i fois la dernière, on tombe
sur le vecteur nul.
1 0
Autrement dit, (M − iI4 ) 0
0 = 0. De même, on trouve (M − iI4 ) 1
−i = 0. On a donc
i 0
1 0
0 , 1
Ei = Vect 0 −i
i 0
(ces deux vecteurs forment une famille libre de Ei , donc une base de Ei car d'après la proposi-
tion 5, on a dim Ei ≤ 2). On en déduit en particulier que dim Ei = 2.
En procédant de la même manière, on trouve que dim E−i = 2 et que
1
0
0
E−i = Vect 0 , 1i .
−i 0
D'après le théorème 2, M est donc diagonalisable et on a
i 0 0 0 1 0 0 1
0 i 0 0 0 1 1 0
P −1 M P = D avec D =
et P =
0 −i i 0 .
0 0 −i 0
0 0 0 −i i 0 0 −i
c) Ici PM = −(X − 3)(X − 2)2 . Comme PM a une racine double, M n'est pas forcément
diagonalisable.
Recherchons E3 , le sous-espace propre
1 associé à la valeur propre 3. La résolution du système
M X = 3X montre que E3 = Vect{ 1 }.
1
1. DIAGONALISATION, TRIGONALISATION 179
n−1
λ1 + λ2 = 0 et λ1 + λ2 = 2
2 2
a i bi . (∗)
i=1
n−1
Si ∆ = i=1 ai bi < 0, (∗) montre que λ1 et λ2 ne peuvent pas être des nombres réels (et donc √
A n'est pas diagonalisable dans Mn (R)). Si maintenant ∆ ≥ 0, (∗) montre que λ1 = −λ2 = ∆.
Si ∆ = 0, λ1 = λ2 = 0 et A n'est pas diagonalisable sinon A serait nulle (sa seule valeur
propre est 0). Si ∆ > 0, λ1 et λ2 sont réelles, distinctes et non nulles, et les sous-espaces propres
Eλ1 , Eλ2 associés sont de dimension 1. Dans ce cas, dim E0 + dim Eλ1 + dim Eλ2 = n, donc A est
diagonalisable dans Mn (R).
De tout ceci, le lecteur
conclura facilement que A est diagonalisable dans Mn (R) si et seule-
ment si A = 0 ou ∆ = n−1 i=1 ai bi > 0.
Exercice 4. Soit E un K-e.v de dimension nie n ∈ N∗ . On considère une famille (fi )i∈I
d'endomorphismes de E commutant deux à deux.
a) Si les fi sont diagonalisables, montrer que l'on peut les diagonaliser tous dans une
même base.
b) Si les fi sont trigonalisables, montrer que l'on peut les trigonaliser tous dans une même
base.
Solution. a) Procédons par récurrence sur n. Pour n = 1, c'est évident. Supposons le résultat vrai
jusqu'au rang n − 1 et montrons le au rang n. Si tous les fi sont des homothéties, c'est terminé.
182 4. RÉDUCTIONS D'ENDOMORPHISMES
Sinon il existe i0 tel que fi0 n'est pas une homothétie. Si on note Eλ1 , . . . , Eλr ses sous-espaces
propres, on a donc r ≥ 2, et pour tout j , dim Eλj < n. Par ailleurs, d'après la proposition 7
page 175, pour tout j , Eλj est stable par tous les fi , et chaque fi|Eλj est diagonalisable d'après la
proposition 6. Donc d'après l'hypothèse de récurrence il existe une base Bj de Eλj qui soit une
base de diagonalisation de tous les fi|Eλj . Donc B = (B1 , . . . , Br ) est une base de diagonalisation
de tous les (fi )i∈I .
b) Commençons par montrer par récurrence sur n qu'il existe un vecteur propre commun à tous
les (fi )i∈I . Pour n = 1, c'est évident. Supposons le résultat vrai jusqu'au rang n − 1 et montrons
le au rang n. Si tous les fi sont des homothéties, c'est terminé. Sinon, il existe un endomorphisme
f de la famille qui n'est pas une homothétie. Comme f est trigonalisable, f admet une valeur
propre λ, donc un sous-espace propre correspondant Eλ . On a dim Eλ < n (car f n'est pas une
homothétie) et Eλ est stable par tous les fi . D'après l'hypothèse de récurrence, il existe donc un
vecteur propre commun à tous les fi|Eλ , qui est bien sûr un vecteur propre commun à tous les
fi .
Achevons la démonstration par récurrence sur n. Pour n = 1, c'est évident. Supposons le
résultat vrai au rang n − 1 et montrons le au rang n. En appliquant le résultat précédent aux
applications transposées tf i (elles commutent également et sont également trigonalisables puisque
P tf i = Pfi ), on voit qu'il existe x ∈ E ∗ un vecteur propre commun à tous les tf i . L'orthogonal
H de Kx dans E est donc un hyperplan de E stable par tous les fi . D'après l'hypothèse de
récurrence, il existe une base B de H trigonalisant tous les fi|H . Soit e ∈ E tel que B = (B, e)
forme une base de E . On a pour tout i ∈ I
× ··· × ×
... .. ..
[fi ]B = . .
,
(0) × ×
0 ··· 0 ×
donc la base B trigonalise tous les fi .
Remarque. Dans cette dernière partie de b), nous avons utilisé une technique analogue à
celle de la première démonstration du théorème 5. On pourrait également procéder comme
dans la seconde démonstration de ce théorème.
impair, donc Pf admet au moins une racine réelle λ, donc f admet une valeur propre λ. En
procédant comme au a), on en déduit que f est une homothétie.
Remarque. On en déduit que sur un C-espace vectoriel de dimension nie, les éléments
commutant avec tout ceux de L(E) sont les homothéties. Ce résultat est un cas particulier
du résultat de l'exercice 6 page 124 dans le cas où K = C.
Ceci étant, montrons par récurrence sur n ∈ N∗ que f et g sont trigonalisables dans une
même base. Pour n = 1, c'est évident. Supposons le résultat vrai au rang n − 1 et montrons le
au rang n. Comme f g − gf = αf , les applications transposées vérient tf tg − tg tf = (−α) tf .
En appliquant le résultat précédent à tf et tg , on voit donc qu'il existe un vecteur propre x ∈ E ∗
commun à tf et tg . L'orthogonal H de Cx dans E est donc un hyperplan stable par f et g . Or
[f|H , g|H ] = αf|H , donc d'après l'hypothèse de récurrence il existe une base B de H dans laquelle
f|H et g|H se trigonalisent. Soit e ∈ E tel que B = (B, e) soit une base de E . Alors
×
..
[f ]B = [f|H ]B .
,
×
0 ··· 0 ×
2. Polynômes d'endomorphismes
Dans toute cette partie, E désigne un K-espace vectoriel de dimension nie n ∈ N∗ .
2.1. Généralités
Notation. Soit P = a0 + a1 X + · · · + ap X p ∈ K[X]. Conformément à la dénition d'une
fonction polynôme sur une K-algèbre (voir la partie 2.1 page 63), on dénit les fonctions
polynômes sur L(E) ou Mn (K) comme suit :
- Pour tout f ∈ L(E), on note P (f ) = a0 IdE +a1 f + · · · + ap f p ∈ L(E).
- Pour tout A ∈ Mn (K), on note P (A) = a0 In + a1 A + · · · + ap Ap ∈ Mn (K).
Remarque 2. Attention, la réciproque est fausse. Par exemple, P = X(X − 1) annule IdE ,
et pourtant 0 qui est racine de P n'est pas valeur propre de IdE .
2. POLYNÔMES D'ENDOMORPHISMES 185
2
tel que a0 IdE +a1 f + · · · + an2 f n = 0. Donc si P = ni=0 ai X i , P (f ) = 0. Donc I = {0}.
2
On voit que I est un idéal de K[X]. L'anneau K[X] étant principal, il existe un unique
P ∈ K[X], P unitaire, tel que I = (P ) = P · K[X]. Le polynôme P s'appelle le polynôme
minimal de f . On le note Πf . C'est le polynôme unitaire de plus bas degré annulant f , et
si Q(f ) = 0, alors Πf | Q (car Q ∈ I = (Πf )).
Remarque 5. Le polynôme minimal de f a donc les mêmes racines que le polynôme ca-
ractéristique de f .
2.3. Théorème de Cayley-Hamilton
Pour k = 1, c'est vrai car T E1 = t1,1 E1 , donc (T − t1,1 In )E1 = 0 = P1 (T )E1 . Supposons le
résultat vrai au rang k − 1 et montrons le au rang k. On a
∀i ∈ {1, . . . , k − 1}, Pk (T )Ei = (T − tk,k In )Pk−1 (T )Ei = 0,
k−1 k−1
Pk (T )Ek = Pk−1 (T ) · (T − tk,k In )Ek = Pk−1 (T ) ti,k Ei = ti,k Pk−1 (T )Ei = 0.
i=1 i=1
La propriété (*) est donc démontrée pour tout k ∈ {1, . . . , n}. Elle est vraie en particulier
pour k = n, donc Pn (T ) = 0. Or PT = Pn donc ceci s'écrit PT (T ) = 0, donc Pf (f ) = 0.
Seconde démonstration (elle ne fait pas appel au corps des racines d'un polynôme).
Préliminaires. Nous montrons d'abord que le polynôme caractéristique de la matrice
0 ··· 0 −a0
... .. ..
1 . .
A= ... ∈ Mp (K).
0 −ap−2
(0) 1 −ap−1
est PA (X) = (−1)p (X p + ap−1 X p−1 + · · · + a0 ) (pour cette raison, la matrice A est appelée
matrice compagnon du polynôme X p + ap−1 X p−1 + · · · + a0 ). Pour montrer ce préliminaire, nous
procédons par récurrence sur p. Pour p = 1, c'est évident. Supposons le résultat vrai au rang p,
montrons le au rang p + 1. En développant par rapport à la première ligne, on a
−X (0) −a0
.
... .
1 .
PA (X) = ...
−X −ap−1
(0) 1 −X − ap
−X (0) −a1 1 −X (0)
..
... ...
1 . p+1 0 1
= −X ... + (−1) a0 .. ... ... ,
−X −ap−1 . −X
(0) 1 −X − ap 0 ··· 0 1
et donc d'après l'hypothèse de récurrence
PA (X) = (−1)p+1 X(X p +ap X p−1 +· · ·+a1 )+(−1)p+1 a0 = (−1)p+1 (X p+1 +ap X p +· · ·+a1 X+a0 ).
Démontrons maintenant le théorème. Soit x ∈ E , x = 0. Il existe un plus petit entier p > 0
tel que la famille (x, f (x), . . . , f p (x)) soit liée. La famille (x, f (x), . . . , f p−1 (x)) est donc libre et
(∃a0 , . . . , ap−1 ∈ K), f p (x) + ap−1 f p−1 (x) + · · · + a0 x = 0. (∗∗)
Complétons (x, f (x), . . . , f p−1 (x)) en une base B de E . Alors on a la forme par blocs
0 ··· 0 −a0
... .. ..
A B 1 . .
[f ]B = avec A =
...
.
0 C
0 −ap−2
(0) 1 −ap−1
Or Pf = PA PC , donc Pf (f )(x) = PC (f ) ◦ PA (f )(x), et d'après le préliminaire et d'après (∗∗),
PA (f )(x) = (−1)p (f p (x) + ap−1 f p−1 (x) + · · · + a0 x) = 0,
donc Pf (f )(x) = 0. Ceci est vrai pour tout x donc Pf (f ) = 0.
Muni de la loi produit, K∗ est un groupe multiplicatif à q − 1 éléments, donc pour tout x ∈ K∗ ,
xq−1 = 1, d'où pour tout x ∈ K, xq = x. On a ainsi déterminé q racines distinctes du polynôme
X q − X qui est de degré q , d'où (∗).
Concluons. D'après le théorème 2, on peut armer que f est diagonalisable si et seulement
s'il existe P ∈ K[X], scindé sur K, à racines
toutes simples, tel que P (f ) = 0, autrement dit si
et seulement s'il existe P ∈ K[X], P | α∈K (X − α) = X q − X tel que P (f ) = 0. En d'autres
termes, f est diagonalisable si et seulement si f q − f = 0.
Solution. 1/a) Soit Ix = {P ∈ K[X] | P (f )(x) = 0}. C'est un idéal de K[X], non réduit à {0}
car Πf ∈ Ix . Il existe donc un unique polynôme unitaire Px ∈ K[X] tel que Ix = (Px ). Ainsi,
Px est le polynôme unitaire de plus bas degré tel que Px (f )(x) = 0. Si maintenant P (f )(x) = 0,
alors on a P ∈ Ix = (Px ), donc Px | P .
b) L'application linéaire
ϕ : K[X] → Ex P → P (f )(x)
est surjective. On en déduit que le s.e.v Ex est isomorphe à K[X]/ Ker ϕ = K[X]/(Px ), donc de
dimension deg(Px ).
2/a) Notons Q = ppcm (Px , Py ). Comme Px+y (f )(x + y) = 0, on a Px+y (f )(x) = −Px+y (f )(y).
Ces deux vecteurs sont donc éléments de Ex ∩Ey = {0}, donc nuls. Donc d'après 1/ a), Px | Px+y
et Py | Px+y , d'où Q | Px+y .
Or Px | Q donc Q(f )(x) = 0. De même, Q(f )(y) = 0, donc Q(f )(x + y) = 0. Donc Px+y | Q,
ce comme on a vu que Q | Px+y , on en déduit Px+y = Q = ppcm (Px , Py ), ces deux polynômes
étant unitaires.
- Par récurrence sur p, on montre maintenant facilement que si Ex1 , . . . , Exp sont en somme
directe, alors Px1 +···+xp = ppcm (Px1 , . . . , Pxp ).
b) Montrons tout d'abord que Ex ∩ Ey = {0}. Soit z ∈ Ex ∩ Ey . Il existe P, Q ∈ K[X] tels que
z = P (f )(x) = Q(f )(y). Or
donc d'après 1/ a), Py | Px Q. Or Px et Py sont premiers entre eux, donc d'après le théorème de
Gauss, Py | Q, et donc z = Q(f )(y) = 0. Ainsi, on a bien Ex ∩ Ey = {0}.
- D'après 2/ a), on a donc Px+y = ppcm (Px , Py ) = Px Py , d'où
Par ailleurs lorsque P ∈ K[X], l'égalité P (f )(x + y) = P (f )(x) + P (f )(y) entraîne l'inclusion
Ex+y ⊂ Ex + Ey = Ex ⊕ Ey , donc d'après (∗), Ex+y = Ex ⊕ Ey .
Par récurrence sur p, on montre maintenant facilement que si Px1 , . . . , Pxp sont premiers
entre eux deux à deux, alors Ex1 +···+xp = Ex1 ⊕ · · · ⊕ Exp .
3/a) On peut écrire Πf = M α N où N ∈ K[X] est premier avec M (donc avec M α ). D'après le
théorème de décomposition des noyaux, on a
d'où le résultat.
190 4. RÉDUCTIONS D'ENDOMORPHISMES
Solution. Notons F le s.e.v de K2n engendré par les n premiers vecteurs de la base canonique
de K2n . Le s.e.v F est stable par B . Si B est diagonalisable, sa restriction à F , qui n'est autre
que A, est diagonalisable.
Allons plus loin. Si B est diagonalisable, il existe un polynôme P ∈ K[X], scindé sur K,
dont toutes
les racines
sont simples, tel que P (B) = 0. Par récurrence sur k, on a facilement
Ap pAp
Bk = pour tout k ∈ N. De ceci, on déduit
0 Ap
P (A) AP (A)
0 = P (B) =
0 P (A)
donc P (A) = AP (A) = 0. Comme P (A) = 0, on retrouve le fait que A est diagonalisable. Soit
λ une valeur propre de A. Comme AP (A) = 0, on a λP (λ) = 0. Or λ étant racine simple de P ,
on a P (λ) = 0, donc λ = 0. En résumé, A est diagonalisable et λ = 0 est la seule valeur propre
de A, autrement dit, A = 0.
Réciproquement, si A = 0, B est diagonalisable. Finalement, B est diagonalisable si et
seulement si A = 0.
Seconde méthode. Pour tout i, dim Eλi = 1 donc il existe xi ∈ E tel que Eλi = Vect(xi ). Soit
g ∈ Γf . Pour tout i, Eλi est stable par g ∈ Γf , donc il existe µi ∈ K tel que g(xi ) = µi xi (au
passage, on remarque que, (x1 , . . . , xn ) étant une base de E , g est diagonalisable). La théorie des
polynômes d'interpolation de Lagrange (voir le chapitre II page 65) nous assure l'existence d'un
polynôme P tel que P (λi ) = µi pour tout i. Ainsi,
∀i ∈ {1, . . . , n}, P (f )(xi ) = P (λi )xi = µi xi = g(xi )
et comme (x1 , . . . , xn ) est une base de E , P (f ) = g . Donc Γf ⊂ {P (f ) | P ∈ K[X]}. L'inclusion
réciproque étant immédiate, on en déduit le résultat demandé.
2/ On utilise les notations de l'exercice 3. D'après la question 3/b) de l'exercice 3, il existe
x ∈ E tel que Px = Πf , donc deg(Px ) = n et d'après la question 1/b) du même exercice,
dim Ex = deg(Px ) = n donc Ex = E .
Soit g ∈ Γf . Comme Ex = E , il existe P ∈ K[X] tels que g(x) = P (f )(x). Or pour tout
y = Q(f )(x) ∈ Ex ,
g(y) = g ◦ Q(f )(x) = Q(f ) ◦ g(x) = Q(f ) ◦ P (f )(x) = P (f ) ◦ Q(f )(x) = P (f )(y).
Les endomorphismes g et P (f ) prennent donc la même valeur sur Ex . Or Ex = E , donc g = P (f ).
On a donc montré que Γf ⊂ {P (f ) | P ∈ K[X]}. L'inclusion réciproque est évidente, d'où
l'égalité.
Remarque. On aurait pu montrer 1/b), en utilisant 2/ car on avait montré que deg(Πf ) =
n dans la première méthode.
La réciproque de la question 2/ est vraie : si Γf = {P (f ) | P ∈ K[X]}, alors deg(Πf ) = n,
mais la démonstration est plus dicile (voir la dernière application de la théorie des
invariants de similitude dans l'annexe B page 400).
M = supi,j |mi,j | dénit une norme sur Mn (K), mais ce n'est pas une norme
d'algèbre.
Pour tout α ≥ 1, |||M |||α = supXα =1 M Xα dénit une norme d'algèbre sur
Mn (K). Au passage, notons que l'on peut montrer |||M |||∞ = supi ( j |mi,j |) et
|||M |||1 = supj ( i |mi,j |).
Si E est un K-e.v de dimension nie n, on peut normer L(E) en privilégiant une base B
de E et en écrivant que la norme de u est celle de [u]B (matrice de u dans la base B ) dans
Mn (K).
3.2. Propriétés
Proposition 1. Soit E un K-e.v.n et f ∈ Lc (E). Soit λ une valeur propre de f . Alors
|λ| ≤ |||f |||.
Démonstration. Soit x = 0 un vecteur propre de f pour la valeur propre λ. On a f (x) ≤
|||f ||| · x. Or f (x) = λx = |λ| · x, donc |λ| ≤ |||f |||.
Remarque 1. Ce dernier résultat est important. Il est parfois aisé de montrer des
propriétés sur Mn (K) en les montrant d'abord sur Gn (K) puis en les étendant par
densité (voir les exercices).
Cette dernière proposition est également vraie pour les endomorphismes en dimen-
sion nie. De manière générale, algébriquement et topologiquement, tout ce qui est
vrai pour les matrices est vrai pour les endomorphismes (en dimension nie) et
réciproquement.
En dimension innie, Gc (E) est ouvert si E est un espace de Banach (voir le
chapitre topologie du tome d'analyse).
3.3. Séries entières d'endomorphismes
Ici, E désigne un K-espace de Banach. Rappelons que dans ce cas, Lc (E), muni de la
norme |||f ||| = supx=1 f (x), est un K-espace de Banach.
Proposition 3. Soit z → +∞n=0 an z la somme d'une série entière
n
de rayon de conver-
gence 0 < R ≤ +∞. Alors si f ∈ Lc (E), |||f ||| < R, la série n∈N an f n converge et sa
somme est élément de Lc (E). De plus, l'application
+∞
Γ = {f ∈ Lc (E) | |||f ||| < R} → Lc (E) f → an f n
n=0
est continue.
Démonstration.
Comme Lc (E) est un K-espace de Banach, il sut de montrer que si |||f ||| < R,
la
série an f n converge absolument, ce qui est immédiat puisque |||a f n ||| ≤ |a | · |||f |||n et que
n n
|an | |||f |||n converge. La somme +∞ n=0 an f existe donc et appartient à Lc (E).
n
194 4. RÉDUCTIONS D'ENDOMORPHISMES
Pour tout r ∈ ]0, R[, on pose Γr = {f ∈ Lc (E) | |||f ||| ≤ r}. La série de fonctions
f → an f n
converge normalement sur Γr , puisque sur Γr , |||an f ||| ≤ |an |·|||f ||| ≤ |an |r
n n
n et |an |r converge.
n
Chacun des termes f → an f n est continu sur Γr . On en déduit que f → +∞ n=0 an f est continue
n
donc n
n
vj ui v j
ui − ui v j
∆n = · = ·
i! j! i! j! i! j!
i=0 j=0 i+j≤n n+1≤i+j≤2n
0≤i,j≤n
d'où on tire
n
n
n
|||u|||i |||v|||j |||u|||i |||v|||j (|||u||| + |||v|||)k
|||∆n ||| ≤ · = − .
i! j! i! j! k!
n+1≤i+j≤2n i=0 j=0 k=0
0≤i,j≤n
Lorsque n tend vers +∞, ce dernier terme tend vers e|||u||| e|||v||| −e|||u|||+|||v||| = 0, donc limn→+∞ ∆n =
0, d'où exp(u + v) = exp(u) exp(v). On a de même exp(v) exp(u) = exp(v + u) = exp(u + v).
Conséquence . Pour tout u ∈ Lc (E), eu e−u = e−u eu = eu−u = e0 = IdE , donc eu est
inversible et (eu )−1 = e−u .
Remarque 4. Si u et v ne commutent pas, la proposition précédente est fausse en
général.
Si u et v commutent, alors u et exp(v) commutent.
On a souvent aaire aux exponentielles de matrices lors de l'étude des équations
diérentielles linéaires (voir le tome d'analyse). En eet, les exponentielles de ma-
trices vérient les propriétés suivantes :
Soit A ∈ Mn (K). L'application R → Mn (K) t → etA est dérivable, sa dérivée
est AetA . Si X : R → Kn est dérivable et si dX dt
= AX , alors pour tout t ∈ R,
X(t) = etA X(0).
Si A ∈ Mn (K) est diagonalisable et a pour valeurs propres α1 , . . . , αn , alors
exp(A) est diagonalisable et ses valeurs propres sont eα1 , . . . , eαn .
Le calcul d'exponentielles de matrices est traité à la partie 3 page 206 du présent
chapitre.
3.4. Exercices
Exercice 1 (Densité des matrices diagonalisables dans Mn (C)). a) Montrer
que l'ensemble des matrices diagonalisables de Mn (C) est dense dans Mn (C).
b) Que dire dans Mn (R) ?
Solution. a) Soit A ∈ Mn (C). Il s'agit de montrer que A est limite de matrices diagonalisables.
Le corps C étant algébriquement clos, A est trigonalisable, donc
λ1 × ··· ×
... ..
λ2 .
∃P ∈ Gn (C), P −1 AP = T avec T =
...
.
×
0
λn
Soit µ = inf{|λi − λj |, λi = λj } > 0, µ = 1 si les λi sont tous égaux. Pour tout p ∈ N∗ , on pose
µ
λ1 + p × ··· × 1
... .. 1 (0)
λ2 + µ
.
=T +µ 2
Tp = 2p
... .
...
p
(0) × (0) 1
µ
λn + np n
Les valeurs propres de Tp , les λi + (µ/ip), sont deux à deux distinctes. En eet, supposons i = j :
- Si λi = λj , il est clair que λi + (µ/ip) = λj + (µ/jp).
- Sinon λi = λj , donc si λi + (µ/ip) = λj + (µ/jp), alors |λi − λj | = µ|(1/ip) − (1/jp)| < µ,
absurde par construction de µ.
196 4. RÉDUCTIONS D'ENDOMORPHISMES
Pour tout p ∈ N∗ , Tp a donc toutes ses valeurs propres deux à deux distinctes, donc est dia-
gonalisable. Or T = limp→+∞ Tp , donc A = P T P −1 = limp→+∞ P Tp P −1 est limite de matrices
diagonalisables, d'où le résultat.
b) Dans Mn (R), le résultat est faux. Nous donnons un contre-exemple. Soit A = 01 −1 0 ∈
M2 (R). On considère l'application
∆ : M2 (R) → R M → ∆M
où ∆M désigne le discriminant du polynôme caractéristique PM de M . Comme ∆M s'exprime
comme un polynôme en les coecients de M , ∆ est continue.
Si A était limite d'une suite (An ) ∈ M2 (R)N de matrices diagonalisables dans M2 (R),
on aurait ∆n ≥ 0 pour tout n (car PAn est scindé sur R), et donc ∆ étant continue, ∆A =
limn→+∞ ∆An ≥ 0, ce qui est absurde car après calculs on trouve ∆A = −4.
Remarque. Grâce au résultat a), on peut parfois prouver certains résultats sur Mn (C) en
les montrant d'abord pour les matrices diagonalisables, puis en les étendant par densité. Le
lecteur pourra par exemple démontrer par cette méthode le théorème de Cayley-Hamilton
pour les matrices complexes.
Si A ∈ Mn (R) est trigonalisable, alors A est limite d'une suite de matrices diagonali-
sables de Mn (R) (la solution de la question a) ne repose en eet que sur l'hypothèse que
A est trigonalisable).
La matrice T k est une matrice triangulaire supérieure dont les coecients diagonaux sont les λki ,
donc
λk1 × ··· × eλ 1 × ··· ×
+∞
+∞
λk2 ... ..
eλ 2 ... ..
1 k 1 .
= .
.
exp(T ) = T = ... ...
k! k!
×
×
k=0 k=0 0 0
λkn e λn
Ceci entraîne
n
n
λi
det(exp(T )) = e = exp λi = exp(tr(T )).
i=1 i=1
Comme A et T sont semblables, il en est de même de exp(A) et exp(T ), et on en déduit
det(exp(A)) = det(exp(T )) = exp(tr(T )) = exp(tr(A)).
réelle A, la matrice
a réelle
N = exp( 2 A) vérierait N = exp(A) = M . Or ceci est impossible car
1 2
en écrivant N = c d , on aurait
b
−1 1 2 a2 + bc ab + bd
M= =N = .
0 −1 ca + dc cb + d2
Ceci entraîne 1 = b(a + d), donc a + d est non nul. Les termes inférieurs gauches donnent
0 = c(a + d), donc c = 0. L'égalité des termes diagonaux donneraient alors a2 = −1 et d2 = −1,
ce qui est impossible puisque a et d sont des nombres réels. Ainsi, la matrice M a bien un
déterminant positif (on a det(M ) = 1) mais cette matrice réelle n'est pas l'exponentielle d'une
matrice réelle.
Remarque. On peut montrer qu'une matrice réelle est l'exponentielle d'une matrice réelle
si et seulement si elle est le carré d'une matrice réelle inversible.
Toute matrice complexe inversible est l'exponentielle d'une matrice complexe (voir
l'exercice 5 page 212).
d'où
B − XIr B3
PAB = 1 = (−1)p−r X p−r PB .
0 −XIp−r 1
De même, on trouve PBA = (−1)q−r X q−r PB1 . On a donc (−X)q PAB = (−X)p PBA . (Si p = q ,
on retrouve les résultats de 1/). Lorsque r = rg A = 0, on a A = 0 et cette identité reste vraie.
L'application ϕ s'exprime comme polynôme en certains des coecients de B , elle est donc conti-
nue. Or ϕ(A) = det A = 0, donc il existe un voisinage V de A dans Mn (R) tel que pour tout
B ∈ V , ϕ(B) = 0. Autrement dit, pour tout B ∈ V , la matrice extraite (bi,j ) i∈I est inversible,
j∈J
donc rg B ≥ p + 1. Ainsi, on a trouvé un voisinage de A inclus dans Λ. L'ensemble Λ est donc
ouvert.
b) Nous allons montrer ∆ = Γ.
D'après a), Γ est fermé. Or ∆ ⊂ Γ, donc ∆ ⊂ Γ.
Montrons maintenant l'inclusion réciproque. Soit A ∈ Γ. Il s'agit de montrer que A est limite
d'une suite de points de ∆. Si rg A = p
, alors A∈ ∆ et c'est terminé. Sinon, r = rg A < p. On
Ir 0
sait que A est équivalente à la matrice , ce qui s'écrit aussi
0 0
Ir 0
∃P, Q ∈ Gn (R), A = P −1 Q.
0 0
Pour tout m ∈ N∗ , on note Bm la matrice dénie par blocs par
Ir 0 0
Bm = 0 1
m Ip−r 0
∈ Mn (R).
0 0 0
Ir 0
Pour tout m, rg Bm = p donc Am = P −1 Bm Q est de rang p. Or limm→+∞ Bm = ,
0 0
donc limm→+∞ Am = A et pour tout m, Am ∈ ∆. On a donc A ∈ ∆.
Exercice 5. a) Soit M ∈ Mn (C). Pour tout ε > 0, montrer qu'il existe P ∈ Gn (C) tel
que
t1,1
(ti,j )
t2,2
T = P −1 M P =
...
avec ∀i < j, |ti,j | < ε.
0
tn,n
3. TOPOLOGIE SUR LES ENDOMORPHISMES 199
b) Soit A ∈ Mn (C). Montrer que A est nilpotente si et seulement s'il existe une suite de
matrices (Ap )p∈N vériant
(i) ∀p, Ap est semblable à A (ii) lim Ap = 0.
p→+∞
On en déduit
a1,2 a1,3 a1,n
a1,1 p p2
··· pn−1
a2,3 a2,n
a2,2 p pn−2
... ..
Tp = [f ]Bp = a3,3 . .
... an−1,n
0 p
an,n
Ceci étant, soit µ = supi,j |ai,j | et soit p ∈ N∗ tel que µ/p < ε. La matrice T = Tp = (ti,j )1≤i,j≤n =
[f ]Bp est triangulaire supérieure et pour tout i < j , |ti,j | = |ai,j · pi−j | ≤ µ/p < ε. De plus T est
semblable à [f ]B donc à M , d'où le résultat.
b) Condition nécessaire. D'après a), pour tout p ∈ N∗ , il existe Ap = [ai,j (p)]1≤i,j≤n ∈ Mn (C)
semblable à A, triangulaire supérieure et telle que pour tout i < j , |ai,j (p)| < 1/p. Or pour tout
i > j , ai,j (p) = 0 et pour tout i, ai,i (p) = 0 (Ap étant nilpotente, ses valeurs propres ai,i (p)
sont nulles). On en déduit que pour tout (i, j), |ai,j (p)| < 1/p. Donc limp→+∞ Ap = 0, d'où le
résultat.
Condition susante. Pour toute matrice M ∈ Mn (C), on note PM son polynôme caractéris-
tique. L'application Mn (C) → C[X] M → PM est continue (en eet, les coecients de PM
s'expriment comme des polynômes en les coecients de M ). Or limp→+∞ Ap = 0, on a donc
limp→+∞ PAp = P0 = (−1)n X n . Or pour tout p, Ap est semblable à A donc PAp = PA . On en
déduit PA = (−1)n X n . Le théorème de Cayley-Hamilton entraîne alors An = 0.
+∞
Exercice 6. Soit A ∈ Mn (R) et une suite réelle (am ) telle que B = m=0 am Am existe.
Montrer qu'il existe P ∈ R[X] tel que B = P (A).
Exercice 7. Soit E un K-e.v.n (avec K = R ou C). On note Lc (E) l'algèbre des endo-
morphismes continus de E . Soit f ∈ Lc (E).
a) Montrer que n
1
lim IdE + f = exp(f ).
n→+∞ n
b) Plus généralement, si (fn ) est une suite de Lc (E) qui tend vers f , montrer
n
1
lim IdE + fn = exp(f ).
n→+∞ n
Autrement dit limn→∞ fn = u + v , donc d'après la question précédente, limn→∞ (Id +fn /n)n =
exp(u + v), d'où le résultat car (Id +fn /n) = exp(u/n) exp(v/n).
Remarque. La proposition 5 (page 194) peut se déduire facilement du résultat de la
question a).
Remarque 1. Les propriétés vériées par r montrent que l'indice r de f est aussi
l'unique entier naturel vériant
∀q < r, dim Ker f q < dim Ker f r et ∀q ≥ r, dim Ker f q = dim Ker f r .
Si f est nilpotente, l'indice r de f n'est autre que inf{p | f p = 0}, c'est-à-dire
l'indice de nilpotence de f .
On peut montrer que si r est l'indice de f , alors
Ker f r ⊕ Im f r = E.
L'indice r de f vérie aussi la propriété
E = Im f 0 Im f · · · Im f r = Im f r+1 = Im f r+2 = · · · = Im f q = · · · .
Ces résultats sont à rapprocher de celui de la question 1/ a) du problème 2 page 155.
Théorème1. Soit f ∈ L(E) tel que son polynôme caractéristique Pf soit scindé sur K :
s
Pf = (−1)n i=1 (X− λi )αi . Alors
4. SOUS-ESPACES CARACTÉRISTIQUES - RÉDUCTION DE JORDAN 203
Unicité. Soit (d , n ) un autre couple vériant les conditions. On remarque d'abord que f ◦ d =
d ◦ f , donc pour tout i, Ni est stable par d (pour tout x ∈ Ni , (f − λi Id)αi [d (x)] = d ◦ (f −
λi Id)αi (x) = 0). Comme d|Ni = λi IdNi , on en déduit que d ◦ d = d ◦ d sur Ni . Ceci étant vrai
pour tout i, comme E = ⊕si=1 Ni , on en déduit que d et d commutent. De plus d et d sont
diagonalisables, on peut donc les diagonaliser dans une même base, ce qui prouve que d − d est
diagonalisable.
Comme n = f − d, n = f − d et que d ◦ d = d ◦ d, n et n commutent. Si on choisit p et q
tels que np = n q = 0, on a donc
p+q p+q i j
(n − n ) = n (−1)j n = 0
i
i+j=p+q
Soit y = pi (x) ∈ Im pi . On a
Miαi (f )(y) = Miαi (f ) ◦ Pi (f )(x) = Ui (f ) ◦ F (f )(x) = 0,
donc n = 0.
q
s s
1 Ui
= ou encore 1 = Ui Q i ,
F i=1
(X − λi )ri i=1
où Qi = j=i (X − λj )rj . Les projecteurs pi sont alors donnés par pi = Pi (f ) où Pi = Ui Qi
(voir la démonstration de la proposition 1).
Il est en général préférable de prendre pour le polynôme F le polynôme minimal Πf
de f (les degrés des polynômes intermédiaires sont moins élevés). Mais le calcul de Πf
peut être assez long, c'est pourquoi on choisit parfois de prendre F = Pf .
Application au calcul d'exponentielle. L'écriture f = d + n donnée par la décompo-
sition de Dunford est intéressante car d et n commutant, on peut utiliser la formule du
binôme pour calculer f p :
p
p
f p = (d + n)p = dk ◦ np−k .
k=0
k
Dans l'expression ci dessus, on peut retirer les termes de la somme pour lesquels p − k est
plus grand que l'indice de nilpotence de n.
Un autre intérêt est le calcul d'exponentielle. En eet, d et n commutant, on a exp(f ) =
exp(d+n) = exp(d) exp(n). Le calcul de exp(d) est simple si une base B de diagonalisation
de d est connue :
λ1 (0) eλ 1 (0)
si [d]B = ... , [exp(d)]B = exp([d]B ) = ... .
λn
(0) λn (0) e
q−1
1 p
Quant à exp(n), il sut d'écrire exp(n) = n où q est l'indice de nilpotence de n.
p=0
p!
Dans la pratique, on calcule d et n grâce à la méthode décrite plus haut. Avec les
notations précédentes, rappelons que
s
s
d= λi p i et n = (f − λi Id) pi .
i=1 i=1
Par ailleurs,
+∞ p
s
+∞
s
r −1
n (f − λi Id)p i
(f − λi Id)p
exp(n) = = pi = pi .
p=0
p! p=0 i=1
p! i=1 p=0
p!
4. SOUS-ESPACES CARACTÉRISTIQUES - RÉDUCTION DE JORDAN 207
Finalement, on en déduit
s
r −1
i
(f − λi Id)p
λi
exp(f ) = exp(d) exp(n) = e pi .
i=1 p=0
p!
Ainsi (i), (ii) et (iii) sont démontrés pour i = r − 1. Pour montrer (i), (ii) et (iii) pour i ∈
{1, . . . , r − 2}, nous allons utiliser une récurrence descendante. Supposons le résultat prouvé pour
i + 1 ∈ {2, . . . , r − 1} et montrons le pour i.
On s'intéresse au comportement de u sur Gi+1 . On a
(Ker u) ∩ Gi+1 = F1 ∩ Gi+1 ⊂ Fi ∩ Gi+1 = {0}
u(Gi+1 ) ⊂ u(Fi+1 ) ⊂ Fi
donc u applique injectivement Gi+1 dans Fi .
u(Gi+1 ) ∩ Fi−1 = {0}. En eet, soit x ∈ u(Gi+1 ) ∩ Fi−1 . Il existe y ∈ Gi+1 tel que x = u(y).
Or x ∈ Fi−1 donc 0 = ui−1 (x) = ui (y), d'où y ∈ Fi ∩ Gi+1 = {0}, c'est-à-dire y = 0, donc
x = u(y) = 0.
On a donc u(Gi+1 )⊕Fi−1 ⊂ Fi . On peut donc trouver un s.e.v Hi tel que u(Gi+1 )⊕Fi−1 ⊕Hi =
Fi . On pose alors Gi = u(Gi+1 ) ⊕ Hi , de sorte que Fi = Gi ⊕ Fi−1 et u applique injectivement
Gi+1 dans Gi .
Les s.e.v Gr , . . . , G1 et Hr−1 , . . . , H1 sont ainsi construits de proche en proche. Les propriétés (i)
et (iii) à l'ordre 1 sont
Ker u = F1 = G1 ⊕ F0 = G1 ⊕ {0} = G1
.
G1 = u(G2 ) ⊕ H1
En résumé, la suite G1 , . . . , Gr vérie
E = Gr ⊕ Gr−1 ⊕ · · · ⊕ G1
G1 = F1 = Ker u .
∀i, 2 ≤ i ≤ r, u applique injectivement Gi dans Gi−1
3) Partant d'une base εi,1 , . . . , εi,si de Gi , u(εi,1 ), . . . , u(εi,si ) est une famille libre de Gi−1 que
l'on peut compléter par εi−1,1 , . . . , εi−1,si−1 pour obtenir une base de Gi−1 . Nous obtenons en
réunissant toutes ces bases une base de E que nous pouvons écrire sous la forme du tableau à
double entrée suivant.
Gr er,1 ··· er,sr
Gr−1 u(er,1 ) ··· u(er,sr ) er−1,1 ··· er−1,sr−1
Gr−2 u2 (er,1 ) · · · u2 (er,sr ) u(er−1,1 ) ··· u(er−1,sr−1 ) er−2,1 ···
··· ··· ··· ··· ··· ··· ··· ··· ···
G1 ur−1 (e r,1 ) ··· ur−1 (e r,sr ) ur−2 (e r−1,1 ) ··· ur−2 (e r−1,sr−1 ) ur−3 (e r−2,1 ) · · · e1,1 · · · e1,s1
4) En lisant le tableau précédent colonne par colonne, de bas en haut puis de gauche à droite, nous
obtenons un nouvel ordre (e1 , . . . , en ) des vecteurs de cette base. On voit alors que u(ej ) = ej−1
si ej n'est pas situé sur la dernière ligne, u(ej ) = 0 si ej est situé sur la dernière ligne. La base
B = (e1 , . . . , en ) convient donc pour le théorème.
Remarque 3. Une autre manière de voir les choses est de remarquer que [u]B est constituée
de blocs nuls et de blocs de la forme
0 1 (0)
.. ... ...
.
.. ...
. 1
0 ··· ··· 0
centrés sur sa diagonale principale.
On peut aussi obtenir la réduction de Jordan d'un endomorphisme nilpotent dans le
cadre de la théorie des invariants de similitude (voir l'annexe B page 400).
4. SOUS-ESPACES CARACTÉRISTIQUES - RÉDUCTION DE JORDAN 209
Solution. Le polynôme caractéristique de M est PM = −(X − 2)2 (X − 3). Les valeurs propres
de M sont donc λ1 = 2 et λ2 = 3. Pour calculer l'exponentielle de M , nous allons utiliser la
méthode décrite page 206, en employant les mêmes notations. On part ici du polynôme annulateur
F = (X − 2)2 (X − 3). On a ici Q1 = (X − 3) et Q2 = (X − 2)2 . On recherche maintenant
210 4. RÉDUCTIONS D'ENDOMORPHISMES
Exercice 3. Soit M ∈ Mn (C). Donner une condition nécessaire et susante sur M pour
que M et 2M soient semblables.
On note maintenant B2 la base B2 = (e1 , 2e2 , . . . , 2n−1 en ). Pour tout i ∈ {1, . . . , n − 1}, on a
f (ei+1 ) = vi ei donc f (2i ei+1 ) = (2vi )(2i−1 ei ), et donc
0 2v1 (0)
...
0 0
[f ]B2 = .. ... = 2[f ]B1
. 2vn−1
0 ··· ··· 0
N2 N m−1
D=N− + · · · + (−1)m .
2 m−1
Comme on s'y attend, nous allons montrer que exp(D) = Im + N = C . Ceci peut se déduire
d'un calcul formel analogue au cas des séries entières sur C. Pour le lecteur non convaincu, nous
allons donner une autre démonstration. Pour tout t ∈ R, on pose
t2 2 tm−1 m−1
D(t) = tN − N + · · · + (−1)m N .
2 m−1
Par dérivation, on obtient D (t) = N − tN 2 + · · · + (−1)m tm−2 N m−1 , et comme N m = 0 (car N
est nilpotente), on a (Im + tN )D (t) = N . Si S(t) = exp[D(t)], comme D et D commutent on
a donc (Im + tN )S (t) = N S(t) (∗), et en dérivant une nouvelle fois (Im + tN )S (t) = 0, d'où
on tire S (t) = 0 car (Im + tN ) est toujours inversible (son inverse est Im − tN + t2 N 2 + · · · +
(−1)m−1 M m−1 ). Pour tout t, S (t) est donc une fonction constante, égale à S (0) = N d'après (∗).
Or S(0) = Im donc pour tout t, S(t) = Im +tN . En particulier, C = S(1) = exp[D(1)] = exp(D).
Ceci étant, soit µ ∈ C tel que eµ = λ (si λ = |λ|eiθ , il sut de prendre µ = log |λ| + iθ).
Alors exp(µIm + D) = exp(µIm ) exp(D) = (λIm )C = B .
Ainsi, pour tout i, il existe une matrice Ai telle que exp(Ai ) = Bi . Si on note
A1 (0) exp(A1 ) (0)
A = ...
on a
exp(A ) = ...
=M .
(0) Ap (0) exp(Ap )
On a
eλ 1 (0)
In = P −1 exp(B)P = exp(P −1 BP ) = ...
(0) e λn
donc pour tout j , eλj = 1, c'est-à-dire λj ∈ 2iπZ. Réciproquement, si B est diagonalisable à
valeurs propres dans 2iπZ, on a facilement exp(B) = In . Les matrices B telles que exp(B) = In
sont donc les matrices diagonalisables à valeurs propres dans 2iπZ.
2/ a) Le résultat de la question 1/a) nous assure l'existence d'une matrice M telle que A =
exp(M ). En posant B = exp(M/p), on a B p = exp(M ) = A.
b) Non ! Considérons une matrice nilpotente A dont l'indice de nilpotence est n, i. e. vériant
An = 0 = An−1 . Une telle matrice existe, par exemple le bloc de Jordan
0 1 (0)
.. ... ...
.
A= .. ... .
. 1
0 ··· ··· 0
Si A = Bp, alorsAn = = 0 donc B est une matrice nilpotente, donc B n = 0 (en eet,
B np
d'après la remarque 6 page 187, PB = (−1)n X n donc B n = 0 d'après le théorème de Cayley-
Hamilton). Or 0 = An−1 = B p(n−1) , donc forcément p(n − 1) < n, ce qui est impossible dès que
n ≥ 2.
3/ Il sut de montrer que Gn (C) est connexe par arcs. Soient P, Q ∈ Gn (C). Il existe deux
matrices A et B telles que P = exp(A) et Q = exp(B). Le chemin ϕ : [0, 1] → Mn (C) t →
exp(tA + (1 − t)B) relie continûment Q = exp(B) à P = exp(A). De plus, pour tout t ∈ [0, 1],
ϕ(t) est l'exponentielle d'une matrice, donc inversible. Finalement, ϕ relie continûment P et Q
dans Gn (C), d'où le résultat.
Remarque. Une matrice réelle inversible, même de déterminant positif, n'est pas forcément
l'exponentielle d'une matrice réelle (voir l'exercice 2 page 196).
5. Problèmes
Problème 1. Soit un entier n ≥ 2 et
a b ··· b
... ..
b a .
M = .. ... ... ∈ Mn (R), avec b = 0.
. b
b ··· b a
Solution. 1/ a) Il sut de montrer que toutes les valeurs propres de M sont nulles (voir la
remarque 6 page 187).
Comme le corps C est algébriquement clos, il existe une base B qui trigonalise f . Notons
λ1 , . . . , λq les valeurs propres de f (distinctes deux à deux), et α1 , . . . , αq leur ordre de multiplicité
dans le polynôme caractéristique de f . Les termes de la diagonale principale de [f ]pB sont les
puissances p-ièmes des termes de la diagonale principale de [f ]B et on en déduit
q
∀p, 1 ≤ p ≤ n, αi λpi = tr(f p ) = 0.
i=1
Raisonnons par l'absurde et supposons que f ait au moins une valeur propre non nulle. Quitte à
renuméroter les λi , on peut supposer que les λi non nuls sont λ1 , . . . , λr (avec 1 ≤ r ≤ q ) ce qui
donne
r
∀p, 1 ≤ p ≤ r, αi λpi = 0.
i=1
pour 1 ≤ p ≤ n, on a Pf = Pg .
218 4. RÉDUCTIONS D'ENDOMORPHISMES
c'est-à-dire que Lu et Rv commutent. On peut donc les diagonaliser dans une même base, et
cette base diagonalise Au,v = Lu − Rv .
b) Comme Pu est scindé sur K, on peut écrire (décomposition de Dunford, voir la partie 4.2
page 203) u = d + n, d diagonalisable, n nilpotente, avec n ◦ d = d ◦ n. Pour alléger les notations,
on note, pour f ∈ L(E), Af = Af,f .
On a Au = Ad + An . Or il existe p ∈ N∗ tel que np = 0, ce qui entraîne (An )p = Anp = 0,
c'est-à-dire que An est nilpotent. D'après 2/ a), Ad est diagonalisable. Les endomorphismes d et
n commutant, Ld , Rd , Ln et Rn commutent, donc Ad et An commutent.
Au = Ad + An est donc l'unique décomposition de Dunford de Au . Comme Au est diagonali-
sable, on a donc An = 0, c'est-à-dire que pour tout f ∈ L(E), n◦f −f ◦n = 0. En d'autres termes,
n commute avec tous les éléments de L(E) ; c'est donc une homothétie. Or n est nilpotente, donc
n = 0, et donc u = d est diagonalisable.
Remarque. Une conséquence de 1/ a) est que pour tout λ, dim(Ker(Lu − λ Id)) =
n dim(Ker(u − λ Id)). Cette égalité permet également de montrer 1/b).
Avec 1/c), on aurait pu démontrer directement 1/a) et 1/b).
(∃A, B ∈ C[X], A = 0, B = 0), AP = BQ avec deg(A) < deg(Q), deg(B) < deg(P ).
R : Γ m × Γn → C (P, Q) → R[P, Q]
vériant
(P et Q sont premiers entre eux ) ⇐⇒ (R[P, Q] = 0).
où B désigne la base (1, X, . . . , X m+n−1 ) de Cm+n−1 [X]. En d'autres termes, P et Q ne sont pas
premiers entre eux si et seulement si le déterminant
a0 a1 ··· am 0 ··· 0
..
...
0 a0 a1 ··· am .
..
... ... ... ...
. 0
0 ··· 0 a0 a1 ··· am
R[P, Q] =
b0 ··· bn−1 bn 0 ··· 0
... ..
0 b0 ··· bn−1 bn .
.. ... ... ... ...
. 0
0 ··· 0 b0 ··· bn−1 bn
est nul (ce déterminant est appelé résultant de P et Q). Ainsi dénie sur Γm × Γn , R est une
fonction continue de P et Q (car polynomiale en les coecients de P et Q), et vérie : P et Q
sont premiers entre eux si et seulement si R[P, Q] = 0.
2/ Un peu d'intuition nous guide. Nous allons montrer que D̊ = Γ, où Γ désigne l'ensemble des
matrices diagonalisables dont les valeurs propres sont toutes distinctes.
Montrons Γ ⊂ D̊. Soit M ∈ Γ. Dire que M ∈ Γ équivaut à dire que le polynôme caractéris-
tique PM de M n'a que des racines simples, ou encore que PM et PM sont premiers entre eux,
ϕ : Mn (C) → C M → R[PM , PM ]
est continue. On vient de voir que Γ = ϕ−1 (C∗ ), et donc Γ est ouvert (image réciproque d'un
ouvert par une fonction continue). Or Γ ⊂ D, donc Γ ⊂ D̊.
Montrons D̊ ⊂ Γ. Soit M ∈ D̊ et supposons M ∈ Γ. La matrice M est diagonalisable et
admet une valeur propre multiple λ, de sorte qu'il existe P ∈ Gn (C) telle que
X (0) λ 0
P −1 M P = où X = et Y est une matrice diagonale.
(0) Y 0 λ
Pour tout entier p > 0, on pose
Xp (0) λ 1/p
Np = où Xp = .
(0) Y 0 λ
Pour tout p, Np n'est pas diagonalisable, sinon la restriction Xp de Mp aux deux premiers
vecteurs de la base canonique de Cn serait diagonalisable, absurde car alors Xp serait semblable
à λI2 , donc égale à λI2 . Or M = limp→+∞ P Np P −1 , donc M est limite d'une suite de matrices
n'appartenant pas à D, donc M ∈ D̊. Ceci est absurde, et on a donc avoir M ∈ Γ. D'où le
résultat.
Remarque. On peut montrer (voir la démonstration de l'exercice 1 page 195) que Γ est
dense dans Mn (C).
P −1 Ei,j P = 2i−j Ei,j = 2j−i Ei,j . Si (*) est vérié ceci entraine Ei,j = P −1 Ei,j P =
2j−i Ei,j et comme i = j on a forcément Ei,j = 0 ce qui est impossible puisque Ei,j = 0.
2/ Soit N une semi-norme sur Mn (R) invariante par similitude. On reprend le raisonnement
précédent qui donne N(Ei,j ) = 0 dès que i = j . Ainsi pour toute matrice A = (ai,j )1≤i,j≤n ∈
Mn (R), l'écriture A = 1≤i,j≤n ai,j Ei,j entraîne, grâce à l'inégalité triangulaire,
n
N (A) ≤ N (ai,j Ei,j ) = |ai,j |N (Ei,j ) = |ai,i |N (Ei,i ).
1≤i,j≤n 1≤i,j≤n i=1
Ainsi si A a ses coecients diagonaux nuls, on a N (A) = 0. Il est classique que toute matrice
de Mn (R) de trace nulle est similaire à une matrice dont tous les coecients diagonaux sont
nuls (voir l'exercice 6 page 131), ainsi pour toute matrice A de trace nulle on a N (A) = 0. Si
M ∈ Mn (R) est une matrice quelconque, la matrice A = M − αIn , avec α = tr(M )/n, est de
trace nulle, donc N (M ) = N (A + αIn ) ≤ N (A) + N (αIn ) = N (αIn ). On a aussi N (αIn ) =
N (M − A) ≤ N (M ) + N (A) = N (M ), donc N (M ) = N (αIn ) = |α|N (In ) = β| tr(M )|, avec
β = N (In )/n. Réciproquement, on vérie facilement que M → β |tr M | est une semi-norme
invariante par similitude sur Mn (R) dès que β ∈ R+ . En synthèse, les semi-normes sur Mn (R)
invariantes par similitude sont de la forme N (M ) = β |tr(M )| avec β ∈ R+ .
Or lim u1/n = lim v1/n = 1 et lim (vu)n−1 1/n = lim ((vu)n−1 1/(n−1) )(n−1)/n =
n→+∞ n→+∞ n→+∞ n→+∞
ρ(vu). En faisant tendre n vers l'inni dans (∗∗), on obtient donc ρ(uv) ≤ ρ(vu). Par symétrie,
on a de même ρ(vu) ≤ ρ(uv), d'ou l'égalité recherchée.
2/ Supposons
n ρ(u)k< R. Nous allons montrer que |an | · un converge, ce qui entraînera que
la suite ( k=0 ak u )n∈N∗ est de Cauchy donc converge.
Soit nµ ∈ R tel que ρ(u) < µ < R. Comme R est le rayon de convergence de la série entière
n a n z , |an | µn converge (voir le tome d'analyse sur les séries entières). Or il existe N ∈ N∗ ,
tel que pour tout n ≥ N , un 1/n < µ, et donc un < µn . On en déduit que n≥N |an | un
converge et donc n∈N |an | un converge.
Supposons maintenant ρ(u) > R. Alors la suite (|an | ρ(u)n ) n'est pas bornée. Comme ρ(u) =
inf{un 1/n } on a pour tout n, un ≥ ρ(u)n et donc la suite (|an | un ) n'est pas bornée, ce
qui entraîne la divergence de la série an un .
3/ Notons µ(A) = sup{|λ| | λ valeur propre de A}. Remarquons ici que ρ(A) ne dépend pas de la
norme d'algèbre choisie sur Mn (C) (en eet, en dimension nie, les normes sont équivalentes et
pour tout x > 0, limp→+∞ x1/p = 1). Toute l'astuce va consister en le choix d'une bonne norme
d'algèbre pour montrer notre résultat.
Soit ε > 0. Montrons qu'il existe une norme d'algèbre · sur Mn (C) telle que A ≤ µ(A)+ε.
Munissons Cn de la norme (x1 , . . . , xn )∞ = supi |xi |. Pour tout M = (mi,j )1≤i,j≤n ∈ Mn (C),
M ∞ = supX∞ =1 M X∞ dénit une norme d'algèbre sur Mn (C). Un petit calcul donne
d'ailleurs facilement
M ∞ = sup |mi,j | . (∗∗∗)
i j
ce qui s'écrit aussi ≥ µ(A). En faisant tendre p vers l'inni. on obtient ρ(A) ≥ µ(A).
Ap 1/p
Finalement, on a montré que µ(A) ≤ ρ(A) ≤ µ(A) + ε, et ceci pour tout ε > 0, d'où l'égalité
recherchée.
Remarque. Les résultats de 1/ et 2/ restent vrais sur l'algèbre des endomorphismes
continus Lc (E) sur un espace de Banach E (on sait en eet que Lc (E) est une algèbre de
Banach). On a ainsi généralisé le résultat de la proposition 3 page 193.
donc ϕ(ab) = ϕ(a)ϕ(b). Ainsi ϕ est un morphisme d'algèbre. Il est injectif car si ϕ(a) = 0, on
a nécéssairement 0 = ϕ(a)(1A ) = a. Choisissons une base B = (e1 , . . . , ed ) de A, où d est la
dimension de A. L'application ψ : A → Md (K) dénie par ψ(a) = [ϕ(a)]B (matrice de ϕ(a)
dans la base B ) est un morphisme d'algèbre, injectif, et C = Im(ψ) = ψ(A) est une sous-algèbre
de Md (K). Ainsi ψ est un isomorphisme d'algèbre de A vers C .
2/ Les n valeurs propres de M étant distinctes, M est diagonalisable. Soit P ∈ Gn (C) telle
que M = P −1 DP , où D ∈ Mn (C) est une matrice diagonale, dont nous notons λ1 , . . . , λn ses
termes diagonaux. Nous allons montrer qu'il n'y a qu'un nombre ni de sous-algèbres de Mn (C)
contenant D, on conclura facilement pour M . Soit A une sous-algèbre de Mn (C) contenant
D. Notons (Ei,j )1≤i,j≤n la base canonique de Mn (C) (Ei,j est la matrice n × n dont tous les
coecients sont nuls sauf celui d'indice (i, j) qui vaut 1). Comme D ∈ A et que A est une algèbre,
tout polynôme en D est dansA. Choisissons en particulier les polynômes d'interpolation de
Lagrange dénis par Li (X) = j=i (X − λj )/(λi − λj ) et qui vérient Li (λj ) = 0 si j = i, = 1 si
j = i. On a Li (D) = Ei,i , dont Ei,i ∈ A pour 1 ≤ i ≤ n. Pour toute matrice N ∈ Mn (C), notons
N (i, j) son coecient d'indice (i, j). Supposons maintenant i = j et qu'il existe une matrice
N ∈ A tel que N (i, j) = 0. Alors Ei,j = (1/N (i, j))Ei,i N Ej,j ∈ A. Ainsi, l'ensemble d'indices
Γ = {(i, j) | ∃N ∈ A, N (i, j) = 0} vérie la propriété (i, j) ∈ Γ ⇐⇒ Ei,j ∈ A (c'est vrai aussi si
i = j car on a vu plus haut que les Ei,i sont dans A). Comme A est une algèbre on en déduit
A = Vect(Ei,j )(i,j)∈Γ . Comme il n'y a qu'un nombre ni de parties Γ de {1, . . . , n}2 , on en déduit
qu'il n'y a qu'un nombre ni de sous-algèbres A de Mn (C) qui contiennent D.
Revenons maintenant à la question initiale. Comme l'application θ : N → P N P −1 est
un automorphisme d'algèbre de Mn (C), B est une sous-algèbre de Mn (C) contenant M si et
seulement si A = P BP −1 = θ(B) est une sous-algèbre contenant D, donc il n'y a qu'un nombre
ni de sous-algèbres B de Mn (C) contenant M .
Problème 11. Soit E un C-e.v de dimension nie, G un sous-groupe ni de G(E). Soit
F = {x ∈ E | ∀g ∈ G, g(x) = x}. Si q = Card(G), montrer
q · dim F = tr(g).
g∈G
de E donc il existe P ∈ K[X], deg P < p, tel que u(e1 ) = P (v)(e1 ). On en déduit, pour tout
k ∈ {1, . . . , p},
u(ek ) = u(v k−1 (e1 )) = v k−1 u(e1 ) = v k−1 P (v)(e1 ) = P (v)(v k−1 (e1 )) = P (v)(ek ).
Donc u et P (v) sont égaux sur chaque vecteur de la base (e1 , . . . , ep ) donc u = P (v). Récipro-
quement tout polynôme en v commute avec v . Donc le commutant de u est {P (v) | P ∈ K[X]},
et nalement Γv = u0 + {P (v) | P ∈ K[X]}.
Remarque. Il n'y a aucun lien entre la continuité et
le fait d'admettre un polynôme
minimal. Munissons par exemple R[X] de la norme nk=0 ak xk = supk |ak |.
L'endomorphisme v de R[X] déni sur la base canonique de R[X] par v(X n ) =
X /(n + 1) est continu mais il admet une innité de valeurs propres, donc pas de poly-
n
nôme minimal. L'endomorphisme v de R[X] déni par v(X 2n ) = nX 2n+1 et v(X 2n+1 ) = 0
n'est pas continu mais admet un polynôme minimal car v 2 = 0.
on a Bej = λj ej + i<j bi,j ei . Soit j le plus petit indice tel que P ej = 0 (j existe, sinon P = 0).
Alors
AP ej = P Bej = P λj ej + bi,j ei = λj P ej ,
i<j
donc λj est valeur propre de A (un vecteur propre associé est P ej ), donc valeur propre commune
à A et B .
Condition susante. Trigonalisons A supérieurement et B inférieurement, en supposant que λ ∈
C est valeur propre commune à A et B : il existe P1 , P2 ∈ Gn (C) tels que
λ × ··· × λ 0 ··· 0
... .. ... ..
0 × . × × .
T = P1−1 AP1 = . ... ... et S = P2−1 BP2 =
. ... ... .
.. × .. 0
0 ··· 0 × × ··· × ×
En désignant par Y la matrice dont tous les coecients sont nuls sauf celui d'indice (1, 1) qui
vaut 1, on a T Y = λY et Y S = λY . Ainsi, (P1−1 AP1 )Y = Y (P2−1 BP2 ), et en multipliant à
gauche par P1 et à droite par P2−1 on obtient AP = P B avec P = P1 Y P2−1 = 0.
b) Le cas r = 1 est une conséquence du résultat de la question précédente, et lorsque r = n c'est
immédiat car les matrices A et B sont alors semblables, donc ont même polynôme caractéristique.
Pour traiter
le cas général, on se ramène au cas plus simple où la matrice P est de la forme
Jr = I0r 00 . Comme la matrice P est de rang r, elle est équivalente à la matrice Jr ce qui s'écrit
P = QJr R avec Q, R ∈ Gn (C). On a donc
A(QJr R) = (QJr R)B donc A Jr = Jr B , avec A = Q−1 AQ et B = RBR−1 .
La matrice A est semblable à A donc PA = PA , de même
PB = PB . En écrivant les matrices
A A B B
A et B par blocs sous la forme A = A0 A1 et B = B0 B1 (avec A0 et B0 dans Mr (C))
2 3 2 3
l'égalité A Jr = Jr B s'écrit
A0 A1 Ir 0 Ir 0 B0 B1 A0 0 B0 B1
= donc =
A2 A3 0 0 0 0 B2 B3 A2 0 0 0
ce qui entraîne A0 = B0 , A2 = 0 et B1 = 0. En notant S = A0 = B0 , on a donc
S A1 S 0
A =
et B =
.
0 A3 B2 B3
Ceci montre que PA = PS PA3 et PB = PS PB3 , donc le polynôme PS divise PA = PA et
PB = PB , et comme deg(PS ) = r ceci entraîne bien deg(pgcd (PA , PB )) ≥ r.
La réciproque est vraie lorsque r = 1 (on a exhibé une matrice P de rang 1 vériant AP = P B
dans la solution de la question précédente), mais fausse dans le cas général. Par exemple, lorsque
r = n avec n ≥ 2, on peut avoir PA = PB sans que A et B vérient AP = P B avec rg(P ) = n,
car ceci impliquerait que P est inversible, donc A et B seraient semblables. Or deux matrices
ayant même polynôme caractéristique ne sont pas forcément semblables, comme le montre le
contre-exemple où A = 0 et B une matrice nilpotente non nulle.
228 4. RÉDUCTIONS D'ENDOMORPHISMES
Problème 15. Soit A ∈ Mn (C). Montrer que det(I + AA) ∈ R+ . (Indication : si U est
un vecteur propre de AA associé à une valeur propre λ ∈ R+ , montrer que V = AU est
aussi un vecteur propre de AA, et que la famille (U, V ) est libre).
Solution. Nous procédons par récurrence sur n. Si n = 1 le résultat est immédiat. Supposons
maintenant n ≥ 2. Si toutes les valeurs propres (λi ) de
AA sont des nombres réels positifs, alors
en trigonalisant AA on s'aperçoit que det(I + AA) = i (1 + λi ), donc a bien det(I + AA) ∈ R+ .
Sinon, la matrice AA a au moins une valeur propre λ ∈ R+ . Soit U un vecteur propre associé.
Le vecteur V = AU vérie
AAV = AAAU = A(AAU ) = AλU = λV.
La famille (U, V ) est bien libre, car si on avait V = µU avec µ ∈ C, alors on aurait
λU = AAU = AV = µAU = µV = |µ|2 U
donc λ = |µ|2 ce qui est impossible puisque λ ∈ R+ . Si n = 2, la famille (U, V ) est une base de
vecteurs propres de AA associés aux valeurs propres λ et λ, et en diagonalisant AA on obtient
det(I +AA) = (1+λ)(1+λ) = |1+λ|2 ∈ R+ . Sinon n > 2, et on complète la famille (U, V ) en une
base B de Cn . Notons P la matrice de passage
de
la base canonique (E1 , . . . , En ) de C à la base
n
λ 0 ×
B . On a la forme par blocs P −1 AAP = 0 λ mais pour appliquer l'hypothèse de récurrence,
(0) ×
il faut montrer que le bloc inférieur droit est de la forme M M , ce qui n'est pas immédiat a priori.
An de montrer ce résultat, on remarque que P −1 AAP = BB où B = P −1 AP . Les matrices
BB et AA sont semblables, donc I + BB et I + AA également, d'où det(I + BB) = det(I + AA).
Comme P E1 = U et P E2 = V et que les vecteurs E1 et E2 ont leurs coordonnées réelles, on a
BE1 = P −1 AP E1 = P −1 AU = P −1 V = E2 ,
BE2 = P −1 AP E2 = P −1 AV = P −1 AAU = λP −1 U = λE1 .
Ceci montre que la matrice B a la forme par blocs
0 λ λ 0
C E
B= 1 0 donc BB = 0 λ .
0 D 0 DD
Cette écriture entraîne det(I + BB) = |1 + λ|2 det(I + DD), et ceci est bien un nombre réel
positif d'après l'hypothèse de récurrence appliquée à la matrice DD.
Remarque. D'après l'exercice 3 page 197, le polynôme caractéristique de AA est égal
à celui de AA. Ceci entraîne PAA = PAA = PAA , donc PAA a ses coecients réels. En
particulier, det(I + AA) = PAA (−1) ∈ R, mais ceci est un résultat moins fort que det(I +
AA) ∈ R+ .
Solution. Cela ressemble à l'exercice 4 page 190. On commence de la même manière. Soit
0 1 (0)
. .
. .. .. .
.
J = ... ∈ Mn (R).
0 1
1 0 ··· 0
On avait montré à l'exercice 4 page 190 que le polynôme caractéristique de J est PJ = (−1)p (X p −
1), et que A = Q(J), où Q = a0 + a1 X + · · · + ap−1 X p−1 ∈ Z[X]. Regardons A et J comme
des matrices à valeurs dans Z/pZ. Dans Z/pZ, PJ = (−1)p (X p − 1̇) = (−1)p (X − 1̇)p . Comme
A = Q(J), on a alors PA = (−1)p [X − Q(1̇)]p (pour s'en rendre compte, trigonaliser J dans
Mn (Z/pZ) voir la remarque 1 page 184), donc det A ≡ PA (0) ≡ Q(1)p ≡ Q(1) ≡ a0 +· · ·+ap−1
(mod p).
Solution. a) Il s'agit de prouver que PAB = PBA pour tous A, B ∈ Mn (C), ce qui est précisément
le résultat démontré dans l'exercice 3 page 197.
b) C'est plus délicat. Commençons par noter que deux matrices semblables prennent la même
valeur par Q (si B = P −1 AP avec P ∈ Gn (C), on a Q(B) = Q((P −1 A)P ) = Q(P (P −1 A)) =
Q(A)). Cette remarque va nous permettre de traiter aisément le cas des matrices diagonalisables,
puis de toutes les matrices par densité (les matrices diagonalisables forment un ensemble dense
dans Mn (C), voir l'exercice 1 page 195).
Pour tout n-uplet (λ1 , . . . , λn ) de Cn , on note D(λ1 , . . . , λn ) la matrice diagonale dont le
coecient d'indice (i, i) est λi . L'application Cn → C (λ1 , . . . , λn ) → Q(D(λ1 , . . . , λn )) est une
fonction polynôme en les λi que l'on note Π.
Supposons maintenant A diagonalisable et notons λ1 , . . . , λn ses valeurs propres. Pour toute
permutation σ ∈ Sn , A est semblable à la matrice diagonale Aσ = D(λσ(1) , . . . , λσ(n) ), ce qui
prouve que
Q(A) = Q(Aσ ) = Π(λσ(1) , . . . , λσ(n) ).
Ceci étant vrai pour tout σ ∈ Sn et pour toute matrice diagonalisable A, on en déduit que
Π est un polynôme symétrique en ses n variables. On peut donc l'écrire comme un polynôme
F en les polynômes symétriques élémentaires Σ1 , . . . , Σn (voir le théorème 1 page 84). On sait
que la valeur σi prise
par Σi au point (λ1 , . . . , λn ) est (−1) αi où αi est le coecient de X
i i
dans le polynôme ni=1 (X − λi ). Ce dernier polynôme étant égal à (−1)n PA , on en déduit que
σi = (−1)i fi (A). Finalement,
Q(A) = F (σ1 , . . . , σn ) = F (−f1 (A), . . . , (−1)n fn (A)). (∗)
Cette égalité est vraie pour toute matrice diagonalisable A. Les matrices diagonalisables formant
un ensemble dense dans Mn (C), les applications de l'égalité (∗) étant des fonctions continues
de A (ce sont des fonctions polynômes), on en déduit que (∗) est vrai pour toute matrice A de
Mn (C).
230 4. RÉDUCTIONS D'ENDOMORPHISMES
Solution. 1/ L'expression
ϕ(t) = det A(t) = ε(σ) aσ(1),1 (t) · · · aσ(n),n (t)
σ∈Sn
montre que ϕ est dérivable et permet d'obtenir, par dérivation,
n
ϕ (t) = ε(σ) aσ(1),1 (t) · · · aσ(k−1),k−1 (t) aσ(k),k (t) aσ(k+1),k+1 (t) · · · aσ(n),n (t)
σ∈Sn k=1
ce qui, en échangeant l'ordre des signes sommes, est précisément le résultat demandé.
2/a) Le résultat de la question 1/ reste valable pour les polynômes dérivés (la démonstration
peut être reprise telle quelle). En l'appliquant au polynôme dérivé de χA (X) = det(XIn − A), on
s'aperçoit que χA (X) est la somme des cofacteurs des éléments diagonaux de XIn −A, autrement
dit χA (X) = tr(com(XIn − A)).
b) Écrivons χA = X n + a1 X n−1 + · · · + an−1 X + an . Chaque cofacteur de la matrice XIn − A
est un polynôme en X de degré au plus n − 1, ce qui montre l'existence de matrices B0 , . . . , Bn−1
telles que
t
com(XIn − A) = B0 X n−1 + B1 X n−2 + · · · + Bn−1 .
L'égalité χA = tr(com(XIn − A)) = tr( tcom(XIn − A)) entraîne
(n − 1)a1 = tr(B1 ), ..., 1 · an−1 = tr(Bn−1 ). (∗)
Ceci étant, la relation (XIn − A) com(XIn − A) = det(XIn − A) In s'écrit
t
Solution. 1/ Dire que ΠM = (−1)n PM équivaut à dire que deg ΠM = n (car ΠM divise PM ),
ou encore que (In , M, . . . , M n−1 ) forme une famille libre de Mn (R).
Soit M ∈ Ω. La famille (In , M, . . . , M n−1 ) étant libre, on peut la compléter en une base
B0 = (In , M, . . . , M n−1 , En+1 , . . . , En2 ) de Mn (R). Fixons une base B de Mn (R). On dénit
l'application
ϕ : Mn (R) → R N → detB (In , N, . . . , N n−1 , En+1 , . . . , En2 ).
L'application ϕ est continue et par construction, ϕ(M ) = 0. Il existe donc un voisinage V de
M dans Mn (R) tel que pour tout N ∈ V , ϕ(N ) = 0. Ceci entraîne que pour tout N ∈ V ,
(In , N, . . . , N n−1 ) forme une famille libre de Mn (R), et donc V ⊂ Ω. L'ensemble Ω est donc
ouvert.
2/a) On a M ∈ Ω et M est la limite de la suite (Mm ). Comme Ω est ouvert, il existe ∈ N
tel que pour tout m ≥ , Mm ∈ Ω. Pour tout m, Mm est diagonalisable dans Mn (R) et ΠMm
est donc scindé sur R, à racines toutes simples. Or pour m ≥ , deg ΠMm = n, ΠMm a donc n
racines distinctes qui sont les valeurs propres de Mm , d'où le résultat.
b) Soit . une norme d'algèbre sur Mn (R). La suite (Mm )m∈N converge donc est bornée, i. e.
il existe K > 0 tel que pour tout m ∈ N, Mm ≤ K . D'après la proposition 1 page 193, pour
tout m ∈ N et pour toute valeur propre λ de Mm , on a |λ| ≤ Mm ≤ K .
232 4. RÉDUCTIONS D'ENDOMORPHISMES
Pour tout i, λi est valeur propre de M donc |λi | = 1 car M ∈ γ . En rééchissant un peu, on voit
qu'il existe une suite µp = (µ1 (p), . . . , µn (p)) de Cn vériant, pour tout p ∈ N :
Pour tout j et pour tout p, il existe r ∈ Q tel que µj (p) = exp(2iπr).
Les (µi (p))1≤i≤n sont distincts deux à deux.
Pour tout i, limp→∞ µi (p) = λi .
Pour tout p, on pose
µ1 (p) × ··· ×
... ..
0 µ2 (p) .
Mp = .. ... ...
. ×
0 ··· 0 µn (p)
(où la partie triangulaire supérieure est celle de Q−1 M Q). Les µi (p)1≤i≤n étant distincts, Mp est
diagonalisable, donc semblable à la matrice diagonale Dp dont les éléments diagonaux sont ceux
de Mp . Pour une valeur de p donnée, pour tout j , 1 ≤ j ≤ n, on peut écrire µj (p) = exp(2iπaj /bj )
où (aj , bj ) ∈ Z × N∗ . Si q = ppcm (b1 , . . . , bn ), on a µj (p)q = 1 pour tout j , donc Dpq = In , donc
Mpq = In , c'est-à-dire pour tout p, Mp ∈ Γ. Or par construction, M = limp→∞ QMp Q−1 . Comme
pour tout p, QMp Q−1 ∈ Γ, on en déduit M ∈ Γ.
est majoré et que sa borne supérieure λ0 est une valeur propre de A strictement positive
associée à un vecteur propre X > 0.
b) Montrer que pour toute valeur propre complexe λ = λ0 de A, on a |λ| < λ0 (on dit
alors que λ0 est valeur propre dominante de A).
c) Montrer que le sous-espace propre Eλ0 de A associé à la valeur propre λ0 est de
dimension 1.
d) Montrer que λ0 est racine simple du polynôme caractéristique de A (on dit alors que
λ0 est valeur propre simple de A). (Indication : raisonner par l'absurde en considérant
deux vecteurs indépendants X et Y tels que X > 0 avec AX = λ0 X et AY = λ0 Y + αX ,
puis considérer Ak Y ).
2/ (Matrices stochastiques
) Soit A = (ai,j ) ∈ Mn (R) une matrice vériant A ≥ 0 et telle
que pour tout i, on a nj=1 ai,j = 1 (on dit que A est une matrice stochastique).
a) Si A > 0, montrer que 1 est valeur propre simple et dominante de A.
b) S'il existe k ∈ N∗ tel que Ak > 0 (on dit alors que A est régulière), montrer que 1 est
valeur propre simple et dominante de A.
c) Si A est régulière, montrer que la suite de matrices (Ak ) converge, et que sa limite est
un projecteur de rang 1.
Solution.1/ a) L'ensemble Λ est non vide (car 0 ∈ Λ) et évidemment majoré (par exemple par
la somme des éléments de A).
234 4. RÉDUCTIONS D'ENDOMORPHISMES
En d'autres termes, A|Z| ≥ |λ| |Z| où |Z| désigne le vecteur dont les composantes sont les |zi |, ce
qui prouve que |λ| ∈ Λ (car quitte à multiplier |Z| par une constante non nulle, on peut supposer
|Z| ∈ S ), et donc |λ| ≤ λ0 par dénition de λ0 .
Il nous reste à prouver que si λ = λ0 , alors |λ| < λ0 . Supposons |λ| = λ0 . Comme A > 0,
il existe δ > 0 susamment petit tel que Aδ = A − δIn > 0. Comme λ0 est la plus grande
valeur propre réelle positive de A, λ0 − δ est la plus grande valeur propre réelle positive de
Aδ . En répétant l'argument précédent à la matrice Aδ et à la valeur propre λ − δ , on obtient
|λ − δ| ≤ λ0 − δ . Mais
λ0 = |λ| = |λ − δ + δ| ≤ |λ − δ| + δ ≤ λ0 ,
de sorte que |λ| = |λ − δ| + δ , ce qui n'est possible que si λ est un réel positif. Donc λ = |λ| = λ0 ,
ce qui contredit le fait que λ = λ0 . Donc |λ| < λ0 .
c) D'après a), il existe X > 0 tel que X ∈ Eλ0 . Supposons dim Eλ0 ≥ 2, de sorte qu'il existe un
vecteur réel Y ∈ Eλ0 tel que la famille (X, Y ) soit libre. Choisissons µ tel que X − µY ≥ 0 et
X −µY > 0 (on a µ = inf{xi /yi | yi = 0}). Comme (X, Y ) est une famille libre, X −µY n'est pas
nul, et comme A > 0 et X −µY ≥ 0, on a facilement A(X −µY ) > 0, c'est-à-dire λ0 (X −µY ) > 0
(c'est le même argument que dans a)), donc X − µY > 0. Ceci est en contradiction avec le choix
de µ. Ainsi, dim Eλ0 = 1.
d) Supposons que λ0 est racine d'ordre ≥ 2 de PA . D'après 1/a), il existe un vecteur propre
X ≥ 0 de A vériant AX = λ0 X . Complétons X en une base B = (X, X2 , . . . , Xn ) de Rn et
notons P la matrice dont les vecteurs colonnes sont ceux de B. On a
λ0 × · · · ×
0
P −1 AP = . avec B ∈ Mn−1 (R).
.. B
0
L'égalité PA = (λ0 − X)PB montre que λ0 est racine du polynôme caractéristique PB de B
(car λ0 est racine d'ordre ≥ 2 de PA par hypothèse), donc valeur
propre de B . Ainsi, il existe
Z ∈ Rn−1 non nul tel que BZ = λ0 Z , donc le vecteur Y = P Z0 vérie AY = λ0 Y + αX avec
α ∈ R (en d'autres termes, on a commencé à triangulariser la matrice A à partir de la valeur
propre λ0 , et on a considéré les deux premiers vecteurs X et Y de la base correspondante).
On a forcément α = 0 sinon Y serait un vecteur propre de A, et comme la famille (X, Y ) est
libre, ceci est impossible compte tenu du résultat obtenu précédemment. Maintenant, l'égalité
AY = λ0 Y + αX donne facilement Ak Y = λk0 Y + kαλk−1 0 X pour tout k ∈ N . Comme A ≥ 0,
∗ k
on en déduit
Ak |Y | ≥ |Ak Y | = |λk0 Y + kαλk−1 k−1 k k−1
0 X| ≥ |kαλ0 X| − |λ0 Y | = λ0 (k|αX| − λ0 |Y |).
5. PROBLÈMES 235
k
n
k k
∀k ≥ n, B k = (D + N )k = Dk−j N j = Dk−j N j ,
j j
j=0 j=0
car N j = 0 pour j > n. Choisissons une norme quelconque de l'espace des vecteurs, et normons
l'espace des matrices par la norme d'algèbre M = supX=1 M X. On a D < 1 car D
est le maximum des modules |λi | de ses termes diagonaux. L'égalité précédente entraîne
n
n
n
k k
B k ≤ Dk−j N j ≤ Dk−n N j ≤ Dk−n k j N j .
j j
j=0 j=0 j=0
236 4. RÉDUCTIONS D'ENDOMORPHISMES
Ainsi, B k est majoré par Dk−n F (k) où F est une fonction polynôme. Comme D < 1 ceci
entraîne limk→∞ B k = 0. On a
1 0 ··· 0 1 0 ··· 0
0 0
−1 −1
Ak = P . P donc lim Ak = π, π=P . P .
.. Bk k→∞ .. 0
0 0
La matrice π est de rang 1 et vérie π 2 = π , c'est donc bien un projecteur.
Remarque. Le théorème de Perron s'étend au cas où A ≥ 0, avec des résultats plus
faibles. Il est également vrai sous des hypothèses diérentes (théorème de Frobenius sur
les matrices irréductibles). Les matrices stochastiques apparaissent dans l'étude des chaînes
de Markov à espace d'états nis.
Πf ∈ Ix1 , le polynôme Πx1 divise Πf , et Πf étant irréductible, Πx1 = Πf . Le polynôme Πx1 est
donc irréductible.
Soit y ∈ Ex1 ∩ F . Il existe un polynôme P ∈ K[X] tel que y = P (f )(x1 ). Si y = 0, alors
P ∈ Ix1 = (Πx1 ), donc Πx1 ne divise pas P , et Πx1 étant irréductible, Πx1 et P sont premiers
entre eux. D'après le théorème de Bezout, il existe donc U, V ∈ K[X] tels que U P + V Πx1 = 1,
donc
x1 = U (f ) ◦ P (f )(x1 ) + V (f ) ◦ Πx1 (f )(x1 ) = U (f )(y).
Or y ∈ F et F est stable par f , donc x1 = U (f )(y) ∈ F . Ceci est absurde par construction de
x1 . On a donc y = 0 et Ex1 ∩ F = {0}.
On vient de montrer que Ex1 et F sont en somme directe et Ex1 stable par f . Si F ⊕Ex1 = E ,
on choisit S = Ex1 et c'est terminé. Sinon, on choisit x2 ∈ E (F ⊕ Ex1 ) et on recommence
en remplaçant cette fois ci F par F ⊕ Ex1 . Itérant ainsi le procédé, on voit qu'au bout d'un
nombre ni d'itérations (E est de dimension ni), on aura trouvé des vecteurs x1 , . . . , xk tels que
E = F ⊕ Ex1 ⊕ · · · ⊕ Exk et pour tout i, Exi stable par f . Le s.e.v S = Ex1 ⊕ · · · ⊕ Exk est donc
stable par f et vérie F ⊕ S = E .
c) Condition nécessaire. Supposons f semi-simple. Soit Πf = M1α1 · · · Mrαr la décomposition de
Πf en facteurs irréductibles unitaires de K[X]. Il s'agit de montrer que pour tout i, αi = 1.
Supposons au contraire qu'il existe i tel que αi ≥ 2. Notons M = Mi , de sorte qu'il existe
N ∈ K[X] tel que Πf = M 2 N .
Soit F = Ker M (f ). Le s.e.v F est stable par f semi-simple donc il existe un supplémentaire
S de F stable par f .
Montrons que M N (f ) s'annule sur S . Si x ∈ S , alors M N (f )(x) ∈ F car M (f )[M N (f )(x)] =
Πf (f )(x) = 0, et M N (f )(x) ∈ S car S est stable par f . Donc M N (f )(x) ∈ F ∩ S = {0}, et
donc M N (f )(x) = 0.
L'endomorphisme M N (f ) s'annule donc sur S . Il s'annule aussi sur F car si y ∈ F =
Ker M (f ), alors M N (f )(y) = N [M (f )(y)] = 0. Comme F ⊕ S = E , M N (f ) s'annule sur E tout
entier, i. e. M N (f ) = 0. Ceci contredit la minimalité du degré du polynôme minimal Πf = M 2 N .
D'où la condition nécessaire.
Condition susante. Supposons Πf = M1 · · · Mr avec les Mi irréductibles unitaires et distincts
deux à deux. Soit F un s.e.v de E stable par f . Pour tout i, notons Fi = Ker Mi (f ). On a
E = F1 ⊕ · · · ⊕ Fr , et on a vu à la question a) que F = ⊕ri=1 [F ∩ Fi ].
Pour tout i, Fi est stable par f . Notons fi ∈ L(Fi ) la restriction de f à Fi . On a Mi (fi ) = 0
et Mi est irréductible, ce qui prouve que le polynôme minimal de fi est Mi . D'après b), fi est
donc semi-simple. Or F ∩ Fi est stable par fi , donc il existe un s.e.v Si stable par fi (donc par
f ) tel que (Fi ∩ F ) ⊕ Si = Fi . Si maintenant on pose S = S1 ⊕ · · · ⊕ Sr , on a
r
r r
E = F1 ⊕ · · · ⊕ Fr = [(Fi ∩ F ) ⊕ Si ] = [ (Fi ∩ F )] ⊕ [ Si ] = F ⊕ S,
i=1 i=1 i=1
Espaces euclidiens
L a notion de forme quadratique naît avec l'étude des coniques par Fermat au dix-
septième siècle puis celle des quadriques par Euler au dix-huitième siècle. C'est
Cauchy qui en 1826, en vue de son enseignement à l'École Polytechnique, unie
les résultats concernant la réduction des formes quadratiques. C'est d'ailleurs
sans doute à cette occasion qu'il se pose le problème de la recherche des valeurs
propres d'une matrice symétrique (en langage moderne) et démontre la réalité
des racines du polynôme obtenu.
Ainsi est née la théorie des espaces euclidiens. Le passage à la dimension
innie s'eectue à la n du dix-neuvième siècle notamment grâce à Hilbert,
puis par Schmidt et Fréchet en 1908.
Les espaces euclidiens et hermitiens ont beaucoup de propriétés communes, et pour
cette raison, nous les étudierons parallèlement.
1 1
Sn + An = Mn (K) car ∀A ∈ Mn (K), A = (A + tA) + (A − tA) .
2 2
∈Sn ∈An
1. FORMES QUADRATIQUES - FORMES HERMITIENNES 241
De plus, dim Sn = n(n + 1)/2 et dim An = n(n − 1)/2 (si Ei,j désigne la matrice
dont tous les coecients sont nuls sauf celui d'indice (i, j) qui vaut 1, la famille
((Ei,i )1≤i≤n , (Ei,j + Ej,i )1≤i<j≤n ) est une base de Sn , la famille (Ei,j − Ej,i )1≤i<j≤n
est une base de An ).
En conséquence, si la caractéristique de K est diérente de 2, l'ensemble S (resp. A)
des formes bilinéaires symétriques (resp. antisymétriques) sur E (avec dim E = n)
est un K-e.v de dimension n(n + 1)/2 (resp. n(n − 1)/2). De plus, si B désigne le
K-e.v des formes bilinéaires sur E , on a S ⊕ A = B .
Définition 4. Soit ϕ une forme sesquilinéaire sur un C-e.v E . On dit que ϕ est à symétrie
hermitienne si pour tout (x, y) ∈ E 2 , ϕ(x, y) = ϕ(y, x).
Remarque 3. Si ϕ est à symétrie hermitienne, alors pour tout x ∈ E , ϕ(x, x) ∈ R
(ceci car ϕ(x, x) = ϕ(x, x)).
Si E est de dimension nie sur C et si B est une base de E , alors une forme
sesquilinéaire ϕ sur E est à symétrie hermitienne si et seulement si sa matrice M
t
dans la base B vérie M = M . On dit alors que M est une matrice hermitienne.
Toute matrice hermitienne M ∈ Mn (C) peut s'écrire de manière unique sous la
forme M = S + iA, où S, A ∈ Mn (R) avec S symétrique et A antisymétrique.
L'ensemble des matrices hermitiennes de Mn (C) forme un R-e.v de dimension n2
(mais attention, ce n'est pas un C-e.v).
Formes quadratiques. On suppose ici que la caractéristique de K est diérente de 2.
Définition 5. On appelle forme quadratique sur E toute application q de la forme
q: E→K x → ϕ(x, x)
où ϕ est une forme bilinéaire symétrique sur E .
Proposition 1. Soit q une forme quadratique sur E . Il existe une unique forme bilinéaire
symétrique ϕ telle que pour tout x ∈ E , q(x) = ϕ(x, x). La forme bilinéaire ϕ s'appelle la
forme polaire de q et on a
1 1
∀(x, y) ∈ E 2 , ϕ(x, y) = [q(x + y) − q(x) − q(y)] = [q(x + y) − q(x − y)].
2 4
Exemple 2. Si ϕ(x, y) = i,j ai,j xi yj , la forme quadratique associée à ϕ est
q(x) = ai,i x2i + (ai,j + aj,i ) xi xj .
i i<j
Réciproquement, si q(x) = 2
i ai,i xi + i<j ai,j xi xj , alors q est une forme quadra-
tique et sa forme polaire est
1
ϕ(x, y) = ai,i xi yi + ai,j (xi yj + xj yi ).
i
2 i<j
Définition 6. Soit q une forme quadratique sur E , où E est de dimension nie, et B
une base de E . On appelle matrice de q dans la base B la matrice de la forme polaire ϕ
de q dans la base B , et rang de q le rang de cette matrice. Le rang de q est aussi le rang
de sa forme polaire.
Exemple 3. On se place dans R3 et on y dénit la forme quadratique q par
u = (x, y, z) → q(u) = 3x2 + y 2 + 2xy − 3xz.
Alors la matrice de q dans la base canonique de R3 est
3 1 − 32
A = 1 1 0 .
− 32 0 0
242 5. ESPACES EUCLIDIENS
Formes hermitiennes.
Définition 7. On appelle forme hermitienne sur un C-e.v E toute application de la
forme
Φ: E→R x → ϕ(x, x)
où ϕ est une forme sesquilinéaire à symétrie hermitienne.
Proposition 2. Soit Φ une forme hermitienne. Il existe une unique forme sesquilinéaire
à symétrie hermitienne ϕ telle que pour tout x ∈ E , Φ(x) = ϕ(x, x). La forme ϕ s'appelle
la forme polaire de Φ, et on a
1
∀(x, y) ∈ E 2 , ϕ(x, y) = [Φ(x + y) − Φ(x − y) + iΦ(x − iy) − iΦ(x + iy)].
4
Définition 8. Soit Φ une forme hermitienne sur un C-e.v E de dimension nie et B
une base de E . On appelle matrice de Φ dans la base B la matrice de sa forme polaire ϕ
dans B , et rang de Φ le rang de cette matrice. Le rang de Φ est aussi le rang de sa forme
polaire.
Exemple 4. Sur C2 , si Φ : u = (x, y) → xx − 2yy + 32 yx + 32 yx, alors Φ est une forme
hermitienne de forme polaire
3 3
ϕ(u1 , u2 ) = x1 x2 − 2y1 y2 + y1 x2 + x1 y2 ,
2 2
1 3
et la matrice de Φ dans la base canonique de R2 est 3 2 , son rang est 2.
2
−2
1.2. Orthogonalité
E désigne toujours un K-e.v (ou un C-e.v lorsque l'on parle de forme hermitienne).
On se xe une forme quadratique (resp. hermitienne) Φ sur E , de forme polaire ϕ.
Définition 9. On appelle cône isotrope de Φ l'ensemble CΦ = {x ∈ E | Φ(x) = 0}. On
dit que Φ est dénie si CΦ = {0}. Un vecteur x ∈ E est dit isotrope (pour Φ) si Φ(x) = 0,
i.e. x ∈ CΦ .
Définition 10. Deux vecteurs x et y de E sont dit orthogonaux selon Φ (ou selon ϕ) si
ϕ(x, y) = 0 (ce qui équivaut à ϕ(y, x) = 0).
Soit A ⊂ E . On appelle orthogonal de A selon Φ (ou ϕ) l'ensemble
A⊥ = {y ∈ E | ∀x ∈ A, ϕ(x, y) = 0}.
Deux sous-ensembles A et B de E sont dit orthogonaux selon Φ (ou selon ϕ) si pour
tout x ∈ A et pour tout y ∈ B , ϕ(x, y) = 0. On note alors A ⊥ B .
Remarque 4. Si A ⊂ E , A⊥ est un s.e.v de E et on a A⊥ = (Vect A)⊥ .
Si B désigne le sous-ensemble de E ∗ (dual de E ) déni par B = {ϕ(x, ·) | x ∈ A},
A⊥ est l'orthogonal (au sens dual) de B , i. e. A⊥ = B ◦ (voir la partie 4.3 page 134).
Proposition 3. On parle d'orthogonalité au sens de Φ.
(i) Si F ⊂ E, F ⊂ F ⊥⊥ (ii) Si A ⊂ B ⊂ E, B ⊥ ⊂ A⊥ .
Définition 11. On appelle noyau de Φ le s.e.v de E noté Ker Φ déni par
Ker Φ = E ⊥ = {x ∈ E | ∀y ∈ E, ϕ(x, y) = 0}.
La forme Φ est dite non dégénérée si Ker Φ = {0}, dégénérée si Ker Φ = {0}.
Proposition 4. On a Ker Φ ⊂ CΦ . En particulier, si Φ est dénie, alors Φ est non
dégénérée.
1. FORMES QUADRATIQUES - FORMES HERMITIENNES 243
Bases Φ-orthogonales.
Définition 12. Une base B de E est dite Φ-orthogonale si pour tout couple d'éléments
distincts (e, e ) de B , on a ϕ(e, e ) = 0.
Remarque 6. En dimension nie, si B = (e1 , . . . , en ) est une base Φ-orthogonale, alors
n n
∀(xi ) ∈ Kn , Φ xi e i = x2i Φ(ei ).
i=1 i=1
Autrement dit, la matrice de Φ dans la base B est diagonale.
Théorème 1. Si E est de dimension nie, il existe une base Φ-orthogonale de E .
Démonstration. On procède par récurrence sur la dimension n de E . Pour n = 1, il n'y a rien à
montrer. Supposons le résultat vrai au rang n−1 et montrons le au rang n. Si Φ est identiquement
nulle, alors toute base de E est Φ-orthogonale. Sinon, il existe v ∈ E tel que Φ(v) = 0. Dans ce
cas, l'application f = ϕ(v, ·) dénie par f (x) = ϕ(v, x) est une forme linéaire non nulle sur E . Son
noyau H est un hyperplan de E , et comme v ∈ H , on a E = H ⊕Vect(v). Comme dim H = n−1,
d'après l'hypothèse de récurrence, il existe une base (e1 , . . . , en−1 ) de H orthogonale pour Φ|H .
On voit alors facilement que (e1 , . . . , en−1 , v) est une base Φ-orthogonale.
En procédant par récurrence, nous allons écrire Φ comme combinaison linéaire de carrés
de formes linéaires indépendantes. Il y a deux cas.
Premier cas. Il existe au moins un indice i tel que ai,i = 0, par exemple a = a1,1 = 0.
On peut écrire Φ sous la forme
Φ(x1 , . . . , xn ) = a x21 + x1 B(x2 , . . . , xn ) + C(x2 , . . . , xn ),
Les deux premiers termes du dernier membre de cette égalité sont les carrés de formes
linéaires, et on itère la méthode de Gauss en partant cette fois de D − BC/a, forme
quadratique en (x3 , . . . , xn ).
Remarque 8. Il existe bien sûr d'autres moyens d'écrire une forme quadratique
comme combinaison linéaire de carrés de formes linéaires. L'avantage de la méthode
de Gauss est qu'elle assure l'indépendance des formes linéaires obtenues (résultat
non démontré ici, mais facile à obtenir).
Le cas des formes hermitiennes se traite de manière analogue, en remplaçant les
carrés par les carrés des modules. Par exemple la forme hermitienne
1
Φ(x, y) = xy + xy se réduit en Φ(x, y) = (|x + y|2 − |x − y|2 ).
2
1. FORMES QUADRATIQUES - FORMES HERMITIENNES 245
La forme hermitienne
Φ(x, y, z) = xx + yy − 2ixy + 2ixy + 2yz + 2yz se réduit en
2
2z 4
Φ(x, y, z) = (x − 2iy)(x + 2iy) − 3yy + 2yz + 2yz = |x − 2iy| − 3 y − + |z|2 . 2
3 3
Propriétés des orthogonaux selon Φ. La lettre Φ désigne toujours une forme quadra-
tique (resp. hermitienne) sur E et lorsque l'on parlera d'orthogonal, ce sera par rapport
à Φ.
Proposition 6. Supposons E de dimension nie. Tout s.e.v F de E vérie
(i) dim F + dim F ⊥ = dim E + dim(F ∩ Ker Φ).
(ii) F ⊥⊥ = F + Ker Φ.
Démonstration. (i). On considère l'application ψ : F → E ∗ x → ϕ(x, ·). Cette application est
linéaire, donc dim(Ker ψ) + dim(Im ψ) = dim F . Or Ker ψ = F ∩ Ker Φ et (Im ψ)◦ = F ⊥ (voir
la remarque 4). Comme d'après le théorème 3 page 134, on a dim(Im ψ)◦ = dim E − dim(Im ψ),
on en déduit
dim F ⊥ = dim E − (dim F − dim(Ker ψ)) = dim E − dim F + dim(F ∩ Ker Φ),
d'où (i).
(ii). On a F ⊂ F ⊥⊥ et Ker Φ ⊂ F ⊥⊥ , donc F + Ker Φ ⊂ F ⊥⊥ . Pour prouver l'égalité, nous
allons prouver l'égalité des dimensions. En appliquant (i) à F ⊥ , on a
dim F ⊥ + dim F ⊥⊥ = dim E + dim Ker(F ⊥ ∩ Ker Φ) = dim E + dim(Ker Φ)
(comme Ker Φ ⊂ F ⊥ , F ⊥ ∩ Ker Φ = Ker Φ). En retranchant (i) à cette égalité, on obtient
dim F ⊥⊥ − dim F = dim(Ker Φ) − dim(F ∩ Ker Φ)
donc dim F ⊥⊥ = dim(F + Ker Φ) et le résultat.
Loi d'inertie de Sylvester. Dans toute la suite, Φ représente soit une forme quadratique
sur un R-e.v E , soit une forme hermitienne sur un C-e.v E .
Supposons E de dimension nie n. D'après le théorème
1, il existe une base (e1 , . . . , en )
qui est Φ-orthogonale. Ceci entraîne que pour tout x = ni=1 xi ei ,
n
n
Φ(x) = |xi |2 Φ(ei ) = λi |e∗i (x)|2 , où λi = Φ(ei ) ∈ R.
i=1 i=1
246 5. ESPACES EUCLIDIENS
Chaque λi est soit positif, soit négatif, soit nul. Supposons par exemple
λ1 , . . . , λp > 0, λp+1 , . . . , λp+q < 0 et λp+q+1 = · · · = λn = 0.
Pour i, 1 ≤ i ≤ p, on peut écrire λi = ωi2 et pour i, p + 1 ≤ i ≤ p + q , on peut écrire
λi = −ωi2 , où les ωi sont réels non nuls. En posant fi = ωi e∗i , on a
Φ(x) = |f1 (x)|2 + · · · + |fp (x)|2 − |fp+1 (x)|2 − · · · − |fp+q (x)|2 , (∗)
et f1 , . . . , fp+q sont des formes linéaires linéairement indépendantes.
Théorème 2 (Sylvester). Quelle que soit la décomposition de Φ du type (∗)
Φ(x) = |g1 (x)| + · · · + |gp (x)|2 − |gp +1 (x)|2 − · · · − |gp +q (x)|2 ,
2
(∗∗)
où g1 , . . . , gp +q sont des formes linéaires linéairement indépendantes, on a p = p et
Supposons Φ dénie et x = 0 (le cas x = 0 est trivial). Alors Φ(x) = 0, de sorte que (∗) est une
égalité si et seulement si le discriminant de (∗∗) est nul, c'est à dire si et seulement s'il existe
λ0 ∈ R tel que Φ(λ0 x + y) = 0, ce qui équivaut à λ0 x + y = 0 puisque Φ est dénie, c'est-à-dire
que la famille (x, y) est liée.
Conséquence. Si Φ est positive, alors CΦ = Ker Φ, CΦ désignant le cône isotrope de Φ. En
particulier, une forme positive Φ est dénie si et seulement si elle est non dégénérée.
Corollaire 2 (Inégalité de Minkowsky) . Si Φ est positive, alors
∀(x, y) ∈ E 2 , Φ(x + y) ≤ Φ(x) + Φ(y).
L'inégalité de Minkowsky est une conséquence
immédiate de l'inégalité de Schwarz.
Elle exprime que si Φ est positive, S(x) = Φ(x) dénit une semi-norme. Si de plus Φ
est dénie, S est une norme (on dit alors que ϕ est un produit scalaire, voir la section 2).
1.4. Exercices
Exercice 1. Décomposer sous forme de somme de carrés les formes quadratiques ou
hermitiennes suivantes ; en déduire leur signature et leur rang.
a) Φ(x, y, z, t) = xy + yz + zt + tx, (x, y, z, t) ∈ R4 .
b) Φ(x, y, z) = x2 − 2y2 + xz + yz , (x, y, z) ∈ R3 .
c) Φ(x, y, z) = xx + yy + zz + xy + xy − yz − yz , (x, y, z) ∈ C3 .
Solution. On va appliquer la méthode de Gauss, garantissant ainsi l'indépendance linéaire des
formes linéaires obtenues, ce qui nous permettra de calculer la signature de la forme correspon-
dante.
a) Il sut d'écrire
1
Φ(x, y, z, t) = (x + z)(y + t) = [(x + z + y + t)2 − (x + z − y − t)2 ].
4
La signature de Φ est donc (1,1), son rang 1 + 1 = 2.
b) On a
z 2 z 2 z 2 z 2 z 2 z 2
Φ(x, y, z) = x + − − 2y 2 + yz = x + −2 y− + −
2 4 2 4 8 4
z 2 z 2 z 2
= x+ −2 y− − .
2 4 8
La signature de Φ est donc (1, 2), son rang est 3.
c) On a
Φ(x, y, z) = (x + y)(x + y) + zz − yz − yz
= (x + y)(x + y) + (z − y)(z − y) − yy = |x + y|2 + |z − y|2 − |y|2 .
La signature de Φ est donc (2, 1) et son rang est 3.
donc ϕ(P, Q) = 0. Avec la remarque 9 page 246, on en conclue que la signature de Φ est
(dim P, dim I) = ([n/2] + 1, [(n + 1)/2]) (où la notation [x] désigne la partie entière de x).
Exercice 3 (Quelques formes quadratiques sur Mn (R)). Montrer que les appli-
cations suivantes sont des formes quadratiques et calculer leur signature.
a) q1 : Mn (R) → R A → (tr A)2 .
b) q2 : Mn (R) → R A → tr( tAA).
c) q3 : Mn (R) → R A → tr(A2 ).
d) q4 : Mn (R) → R A → tr(SA tA), où S ∈ Mn (R) est une matrice symétrique xée.
Solution. Tout au long de l'exercice, nous aurons besoin du résultat suivant :
Si P = (pi,j )1≤i,j≤n et Q = (qi,j )1≤i,j≤n ∈ Mn (R), on a tr(P Q) = pi,j qj,i . (∗)
1≤i,j≤n
La preuve
est simple, il sut de remarquer que l'élément d'indice (i, i) dans la produit P Q est
égal à nj=1 pi,j qj,i .
a) L'application q1 est bien une forme quadratique, sa forme polaire étant ϕ1 : (A, B) →
tr(A) tr(B).
L'application trace est une forme linéaire sur Mn (R). Son noyau H est donc un hyperplan
de Mn (R). Soit S un supplémentaire de H dans Mn (R), de sorte que dim S = 1 et ∀A ∈ S{0},
tr A = 0. Ainsi,
∀A ∈ H, q1 (A) = 0 et ∀B ∈ S{0}, q1 (B) > 0. (∗∗)
De plus, pour tout couple (A, B) ∈ H × S , ϕ1 (A, B) = tr(A) tr(B) = 0, donc H et S sont
q1 -orthogonaux. Avec (∗∗) et d'après la remarque 9 page 246, ceci sut pour conclure que la
signature de q1 est (1, 0).
1. FORMES QUADRATIQUES - FORMES HERMITIENNES 249
b) On a bien aaire à une forme quadratique, la forme polaire associée étant ϕ2 : (A, B) →
tr( tAB). Maintenant, en appliquant le principe (∗), on voit que toute matrice A = (ai,j )1≤i,j≤n ∈
Mn (R) vérie q2 (A) = i,j a2i,j , ce qui sut à prouver que q2 est une forme dénie positive,
donc de signature (n2 , 0) (en d'autres termes, c'est un produit scalaire sur Mn (R)).
c) La forme polaire associée à q3 est ϕ3 : (A, B) → tr(AB).
La relation (∗) prouve que si A ∈ S (s.e.v des matrices symétriques de Mn (R)), q3 (A) =
a 2 donc la restriction q de q à S est dénie positive. Si A ∈ A (s.e.v des matrices
i,j i,j 3 |S 3
antisymétriques), (∗) montre que q3 (A) = − i,j a2i,j , ce qui prouve que q3 |A est dénie négative.
De plus, S ⊕ A = Mn (R) (voir la remarque 2) et S et A sont ϕ3 -orthogonaux puisque si S ∈ S
et A ∈ A,
ϕ3 (S, A) = tr(SA) = tr( t(SA)) = tr( tA tS) = tr(−AS) = − tr(SA) = −ϕ3 (S, A),
donc ϕ3 (S, A) = 0. D'après la remarque 9, ceci sut pour conclure que la signature de q3 est
(dim S, dim A) = (n(n + 1)/2, n(n − 1)/2).
d) Remarquons tout d'abord que q4 (A) = tr(SA tA) = tr( tASA). La forme polaire de q4 est
ϕ4 : (A, B) → tr( ASB).
t
Les applications fi,j : B → ai,j où ai,j est le coecient d'indice (i, j) dans A = P −1 B formant
une famille libre de formes linéaires de Mn (R)∗ , l'expression (∗∗∗) montre que la signature de
q4 est (np, nq).
Nous venons de montrer S1 ∩ S2⊥ = {0}, c'est à dire que S1 et S2⊥ sont en somme directe,
ce qui entraîne dim S1 + dim S2⊥ ≤ dim E = n. La forme quadratique Φ étant non dégénérée,
la proposition 6 entraîne dim S2⊥ = n − dim S2 , donc nalement dim S1 + n − dim S2 ≤ n, i.e
dim S1 ≤ dim S2 . Par symétrie, on a également dim S2 ≤ dim S1 , d'où dim S1 = dim S2 et
dim F1 = dim(F ⊕ S1 ) = dim F + dim S1 = dim F + dim S2 = dim(F ⊕ S2 ) = dim F2 .
2. Espaces préhilbertiens
2.1. Généralités
Soit Φ une forme quadratique (resp. hermitienne) sur un R-e.v (resp. un C-e.v) E . On
rappelle que Φ est positive si pour tout x ∈ E , Φ(x) ≥ 0.
Supposons Φ dénie positive. Sa forme polaire ϕ s'appelle un produit scalaire (resp.
un produit scalaire hermitien ). On note souvent ϕ(x, y) = x · y (ou (x|y), ou encore x, y).
On a x · y = y · x (resp. x · y = y · x). On écrit souvent x2 pour x · x.
Dans ce cas, l'inégalité
de Minkowsky
√
(voir le corollaire 2 de la partie précédente)
montre que x = Φ(x) = x · x dénit une norme sur E . Cette norme s'appelle
norme euclidienne (resp. norme hermitienne) et fait de E un e.v normé.
Un R-e.v muni d'un produit scalaire s'appelle un espace préhilbertien réel (s'il est de
plus complet pour la norme issue du produit scalaire on dit que c'est un espace
hilbertien réel). S'il est de dimension nie, on l'appelle également espace euclidien. Sauf
mention explicite, la norme utilisée sur un espace préhilbertien est la norme euclidienne.
Un C-e.v muni d'un produit scalaire hermitien s'appelle un espace préhilbertien com-
plexe. S'il est de dimension nie, on l'appelle également espace hermitien.
L'inégalité de Schwarz
∀x, y ∈ E, |x · y| ≤ x · y
entraîne la continuité du produit scalaire dans l'espace préhibertien E . Si E est un espace
préhilbertien réel, cette inégalité entraîne
x·y
∀x, y ∈ E, x = 0, y = 0, ∃!θ ∈ [0, π], cos θ = .
x · y
Le nombre réel θ s'appelle l'écart angulaire de x et y .
Remarque 1. On ne dénit pas l'écart angulaire dans un espace préhilbertien complexe.
Dans toute la suite, nous utiliserons ces notations.
2.2. Orthogonalité
L'orthogonalité dénie pour une forme quadratique ou hermitienne s'applique en par-
ticulier pour un produit scalaire. Ainsi, deux vecteurs x et y sont dit orthogonaux si et
seulement si x · y = 0 (ou encore si et seulement si y · x = 0).
Une famille de vecteurs non nuls (ei )i∈I est dite orthogonale si elle vérie ei · ej = 0
dès que i = j (et c'est alors une famille libre). Si de plus on a ei = 1 pour tout i ∈ I ,
la famille est dite orthonormale (ou orthonormée).
On peut ainsi parler de base orthogonale ou orthonormale. Si E est un espace euclidien
(resp. hermitien) et si (e1 , . . . , en ) est une base orthonormée de E , alors
n
n
n
n
∀x = xi ei ∈ E, ∀y = yi ei ∈ E, x·y = xi yi (resp. x · y = xi yi ).
i=1 i=1 i=1 i=1
Proposition
1. Si (ei )i∈I est une famille nie orthogonale de vecteurs de E , on a l'égalité
i∈I e i 2 = i∈I ei 2 .
Remarque 2. Dans un espace préhilbertien réel, si x + y2 = x2 + y2 , alors x et y
sont orthogonaux. Ceci est faux dans un espace préhilbertien complexe (par exemple, si
x = 0, x + ix2 = |1 + i|2 x2 = 2x2 = x2 + ix2 et pourtant x et ix ne sont pas
orthogonaux).
Remarque 5. L'assertion (ii) reste vraie en dimension innie si F est complet mais est
fausse dans le cas général (voir l'exercice 11 page 265).
Projection et symétrie orthogonale.
Définition 1. Soit E un espace préhilbertien et F un s.e.v de E de dimension nie. Le
théorème précédent dit que F ⊕ F ⊥ = E .
On appelle projection orthogonale sur F la projection sur F parallèlement à F ⊥ .
On appelle symétrie orthogonale par rapport à F la symétrie par rapport à F
parallèlement à F ⊥ .
254 5. ESPACES EUCLIDIENS
Définition 4. Soit f une isométrie d'un espace euclidien E . On dit que f est une
isométrie directe si det f = 1, une isométrie indirecte si det f = −1.
L'ensemble {f ∈ O(E) | det f = 1} est un sous-groupe distingué de O(E) appelé
groupe spécial orthogonal de E et noté O+ (E) (on le note encore SO(E)).
Si E est hermitien, l'ensemble {f ∈ U(E) | det f = 1} est un sous-groupe distingué
de U (E) noté SU(E).
Pour les matrices, on note également
SOn = On+ = {A ∈ On | det A = 1} et SUn = {A ∈ Un | det A = 1}.
L'ensemble SOn est un sous-groupe distingué de On , SUn un sous-groupe distingué
de Un .
Remarque 9. La réduction des endomorphismes orthogonaux ou unitaires fait l'objet de la
partie 3.1. Dans le cas particulier du plan ou de l'espace, on trouve les résultats classiques
suivant :
La matrice d'une isométrie
θ −directe du plan s'écrit dans toute base orthonormale B
sous la forme R(θ) = cos sin θ
sin θ cos θ avec θ ∈ R (rotation d'angle θ).
cos θ − sin θ 0
La matrice d'une isométrie directe de l'espace s'écrit sous la forme sin θ cos θ 0
0 0 1
dans une base orthonormale B bien choisie (rotation d'angle θ autour du dernier
vecteur de la base B ).
2.4. Endomorphismes adjoints
Définition 5 (Adjoint). Soit E un espace euclidien (resp. hermitien) et f et g ∈ L(E).
Les endomorphismes f et g sont dits adjoints si
∀(x, y) ∈ E 2 , f (x) · y = x · g(y). (∗)
L'endomorphisme f étant donné, il existe au plus un endomorphisme g vériant (∗).
Lorsqu'il existe, on l'appelle adjoint de f et on le note f ∗ . Lorsque f = f ∗ , f est dit
autoadjoint.
Remarque 10. L'adjoint f ∗ d'un endomorphisme f n'existe pas toujours (nous ver-
rons cependant qu'en dimension nie, et plus généralement dans un espace hilber-
tien lorsque f est continu, l'adjoint de f existe).
Lorsque f ∗ existe, (f ∗ )∗ = f ∗∗ existe et on a f ∗∗ = f .
Étude en dimension nie. Notation. Nous utiliserons la notation t
introduite dans la
partie 1.2 : si M désigne une matrice complexe, on note M ∗ = M sa transconjuguée.
Ainsi, lorsque M est une matrice réelle, M ∗ désignera simplement la transposée de M .
Soit E un espace euclidien ou hermitien, B une base orthonormée de E . Soit f ∈ L(E),
M la matrice de f dans la base B : M = [f ]B . On cherche un endomorphisme g qui soit
l'adjoint de f . En notant N = [g]B , on voit que (∗) est vériée si et seulement si
pour tous vecteurs X, Y, (M X)∗ Y = X ∗ (N Y ) ou encore X ∗ M ∗ Y = X ∗ N Y.
L'endomorphisme g est donc l'adjoint de f si et seulement sa matrice N dans la base B
vérie N = M ∗ . En résumé, pour tout f ∈ L(E), f ∗ existe et [f ∗ ]B = [f ]∗B .
Remarque 11. Attention, [f ∗ ]B = [f ]∗B seulement si la base B est orthonormée.
Si E est euclidien, un endomorphisme f ∈ L(E) est autoadjoint (on dit encore sy-
métrique) si et seulement si la matrice de f dans une base orthonormée quelconque
de E est symétrique.
Si E est hermitien, f est autoadjoint si et seulement si sa matrice M dans une base
t
orthonormée de E est hermitienne (i.e si elle vérie M = M ).
256 5. ESPACES EUCLIDIENS
Soit f ∈ L(E) dont la matrice dans la base canonique B de E est M : [f ]B = M . Comme f est
autoadjoint (car M est symétrique, resp. hermitienne), il existe d'après le théorème précédent
une base B orthonormée de E telle que [f ]B = D soit diagonale réelle. Si on désigne par C la
matrice de passage de la base B à la base B , C est une matrice orthogonale (resp. unitaire) et
C −1 M C = C ∗ M C = D.
2. ESPACES PRÉHILBERTIENS 257
Remarque 12. On rappelle qu'une matrice symétrique (resp. hermitienne) M est positive
si la forme quadratique (resp. hermitienne) X → X ∗ M X est positive. Elle est dite dénie
positive si cette forme quadratique est dénie positive. Le corollaire montre que M est
positive (resp. dénie positive) si et seulement si toutes ses valeurs propres sont positives
(resp. strictement positives).
Corollaire 2. Soit Φ une forme quadratique (resp. hermitienne) sur un espace euclidien
(resp. hermitien) E . Alors il existe une base orthonormée de E dans laquelle la matrice
de Φ est diagonale réelle.
Démonstration. Soit B une base orthonormée de E et soit M la matrice de Φ dans la base B .
La matrice M est symétrique (resp. hermitienne), et d'après le corollaire précédent, il existe une
matrice C orthogonale (resp. unitaire) telle que C ∗ M C = D est diagonale réelle. La matrice C
déni un changement de base orthogonal qui fait passer de la base B à une base orthonormée
B , et la matrice de Φ dans la base B est D, d'où le résultat.
Remarque 14. Ce dernier corollaire rend parfois de précieux services. On peut le voir
comme un résultat de pseudo-réduction simultanée. Prenez garde au fait que la matrice
C n'est en général pas orthogonale (ou unitaire).
2.5. Exercices
Exercice 1 (Racine carrée d'une matrice hermitienne positive). Soit H ∈
Mn (C) une matrice hermitienne positive. Montrer qu'il existe une unique matrice R
hermitienne positive telle que H = R2 .
Solution. Existence. La matrice H étant hermitienne, il existe une matrice unitaire C telle que
λ1 (0)
t
CHC = C −1 HC =
...
= D,
(0) λn
D étant diagonale réelle. Comme H est positive, tous les λi sont positifs donc pour tout i, il
existe µi ≥ 0 tel que λi = µ2i . En posant
µ1 (0)
D = ...
,
(0) µn
t
on a D 2 = D de sorte que R = CD C −1 = CD C est hermitienne positive et vérie
2
R2 = CD C −1 = CDC −1 = H.
258 5. ESPACES EUCLIDIENS
trigonalise f|H . La matrice de f dans la base orthonormée (e1 , . . . , en−1 , e) (elle est orthonormée
car e est orthogonal à H ) de E est donc de la forme
× ··· × ×
... .. ..
0 . .
.. ... ,
. × ×
0 ··· 0 ×
donc triangulaire supérieure, d'où le résultat.
b) Nous allons ici aussi donner deux méthodes.
Première méthode. D'après le théorème 5 page 176, il existe une base B = (e1 , . . . , en ) de E
trigonalisant f et g . Pour les mêmes raisons que dans la première solution de la question a), la
base de Schmidt orthonormée associée à B trigonalise f , ainsi que g , d'où le résultat.
Seconde méthode. Procédons par récurrence sur la dimension n de E . Pour n = 1, c'est évident.
Supposons le résultat vrai au rang n − 1 et montrons le au rang n. Dans une base orthonormée
de E , les matrices de f ∗ et g ∗ sont les transposées de celles de f et g donc elles commutent, ce
qui entraîne que f ∗ et g ∗ commutent. Il existe donc un vecteur propre e normé commun à f ∗ et
g ∗ (c'est classique, voir le préliminaire de la preuve du théorème de trigonalisation simultanée
page 176). Pour les mêmes raisons que dans la deuxième solution de la question a), H = (Vect e)⊥
est un hyperplan de E stable par f et g . Comme f|H et g|H commutent, l'hypothèse de récurrence
entraîne l'existence d'une base orthonormée (e1 , . . . , en−1 ) de H trigonalisant f|H et g|H . La base
(e1 , . . . , en−1 , e) est orthonormée et on voit facilement qu'elle trigonalise f et g .
Remarque. De la même manière qu'à l'exercice 4 page 181, le résultat b) se généralise à
une famille quelconque (fi )i∈I d'endomorphismes commutant deux à deux.
est dénie positive (on pourra utiliser le critère de Sylvester, voir l'exercice précédent).
Solution.a) Il est clair que la matrice A est symétrique. Maintenant, remarquons qu'une somme
nie de matrices (Mi )1≤i≤p symétriques dénies positives est dénie positive. En eet, il sut
de remarquer que pour tout vecteur colonne X = 0 de Rn , on a
p
p
∀i, XMi X > 0 donc
t t
XMi X = tX Mi X > 0.
i=1 i=1
Ceci étant vrai pour tout X = 0, on a prouvé que i Mi est dénie positive.
Ici, on a aaire non pas à une somme nie, mais une somme continue. On procède de la même
manière. Fixons un vecteur colonne X de Rn , X = 0. Pour tout t ∈ ]0, 1[, on a tXM (t)X > 0,
donc par continuité de t → tXM (t)X
1 1
XM (t)X dt > 0 ou encore
t t
X M (t) dt X = tXAX > 0.
0 0
Ceci étant vrai pour tout X = 0, A est dénie positive.
2. ESPACES PRÉHILBERTIENS 261
b) On remarque que
1
1
= t|i−j| dt.
1 + |i − j| 0
D'après a), le résultat sera prouvé si on montre que pour tout t ∈ ]0, 1[, la matrice symétrique
M (t) = (t|i−j| )1≤i,j≤n est dénie positive.
Pour tout r, 1 ≤ r ≤ n, on pose Dr (t) = det(t|i−j| )1≤i,j≤r . Nous allons prouver que Dr (t) =
(1 − t2 )r−1 ce qui prouvera, en vertu du critère de Sylvester, que M (t) est dénie positive pour
t ∈ ]0, 1[.
On procède par récurrence sur r. Pour r = 1, c'est évident car D1 (t) = 1. Supposons le
résultat vrai au rang r et montrons le au rang r + 1. En retranchant à la dernière colonne t fois
l'avant dernière, on obtient
1 t ··· tr−1 tr 1 t ··· tr−1 0
... ... ... ...
t 1 tr−1 t 1 0
. ... ... ... .. . ... ... ... .. = (1 − t2 )D (t),
Dr+1 (t) = .. . = .
. . r
tr−1 . . . . . . 1 t tr−1 . . . . . . 1 0
tr tr−1 · · · t 1 tr tr−1 · · · t 1 − t2
d'où le résultat.
Si A n'est pas inversible, c'est un peu plus délicat. Nous allons donner deux méthodes, la
première étant de nature constructive, la seconde de nature topologique.
Première méthode. Notons a et h les endomorphismes de Cn dont les matrices dans la base
canonique de Cn sont A et H . Comme a∗ a = h2 avec h autoadjoint, on a
∀x ∈ Cn , a(x)2 = a(x) · a(x) = x · a∗ a(x) = x · h2 (x) = h(x) · h(x) = h(x)2 , (∗)
donc Ker h = Ker a. En diagonalisant h dans une base orthonormée on s'aperçoit que Im h =
(Ker h)⊥ et Cn = Im h ⊕ Ker h, et que la restriction de h à Im h est un automorphisme de Im h.
Pour que a = u ◦ h sur Cn = Im h ⊕ Ker h, il sut que cette égalité soit vraie sur Im h
puisque si x ∈ Ker h = Ker a, l'égalité a(x) = u ◦ h(x) est toujours vraie (les termes sont nuls
dans ce cas). Pour cette raison, nous dénissons u par u(x) = a ◦ h−1 | Im h (x) lorsque x ∈ Im h.
Pour que u soit unitaire, il faut que lorsque x ∈ Ker h le vecteur u(x) soit orthogonal à Im a.
Si u0 désigne un isomorphisme unitaire xé qui envoie Ker h sur (Im a)⊥ (c'est possible puisque
dim Ker h = dim Ker a = dim(Im a)⊥ ), on pose donc u(x) = u0 (x) lorsque x ∈ Ker h. En résumé,
262 5. ESPACES EUCLIDIENS
La matrice est symétrique positive (c'est hyper-classique, elle est symétrique car (A∗ A)∗ =
A∗ A
A∗ A∗∗= A∗ A,
positive car ∀X ∈ Rn , X ∗ (A∗ A)X = (AX)∗ AX = AX22 ≥ 0). Il existe donc
une matrice orthogonale P telle que A∗ A = P −1 DP = P ∗ DP où D est une matrice diagonale.
On a
A22 = sup X ∗ (P ∗ DP )X = sup (P X)∗ D(P X).
X2 =1 X2 =1
En notant λ1 , . . . , λn les coecients diagonaux de D (ce sont les valeurs propres de la matrice
dénie positive A∗ A, donc positives, et vérient supi λi = ρ(A∗ A)), on a
y n n
1
∀Y = .. ∈ Rn tel que Y 2 = 1, Y ∗ DY = λi yi2 ≤ ρ(A∗ A) yi2 = ρ(A∗ A),
.
yn i=1 i=1
1 1 1
ψ(rx, z) = ψ(p · x, z) = p ψ( x, z) = p ψ(x, z) = r ψ(x, z). (∗∗∗)
q q q
Par construction, ψ est continue, et comme Q est dense dans R, (∗∗∗) entraîne
∀λ ∈ R, ψ(λx, z) = λψ(x, z). (∗∗∗∗)
Les relations (∗∗) et (∗∗∗∗) assurent la bilinéarité de ψ . Comme ψ est symétrique et dénie
positive (on a ψ(x, x) = 4x2 ), ψ dénit bien un produit scalaire. Il en est donc de même de
ϕ = 14 ψ , et comme x2 = ϕ(x, x), · est bien une norme euclidienne.
X ∗ AX = f 2 (X) et X ∗ BX = g 2 (X).
En développant f 2 et g 2 , on s'aperçoit alors que A = (λi λj )1≤i,j≤n et B = (µi µj )1≤i,j≤n . Donc
A ◦ B = [(λi µi )(λj µj )]1≤i,j≤n , donc cette matrice est positive car
n
X ∗ (A ◦ B)X = h2 (X) ≥ 0 avec h(X) = (λi µi )xi .
i=1
Traitons maintenant le cas général. L'entier r désignant le rang de A, on peut écrire
r
X ∗ AX = fi (X)2 ,
i=1
3. COMPLÉMENTS DE COURS 267
où f1 , . . . , fr sont des formes linéaires indépendantes (ceci parce que la signature de A est (r, 0)).
Pour tout i, 1 ≤ i ≤ r, notons Ai la matrice de la forme quadratique fi2 , de sorte que X ∗ Ai X =
. Les matrices Ai sont symétriques positives et derang 1 (leur signature est (1, 0)) et
fi2 (X)
A = ri=1 Ai . On écrirait de même B sous la forme B = sj=1 Bj où s = rg B et où les Bj sont
des matrices symétriques positives de rang 1. Donc A ◦ B = i,j Ai ◦ Bj , somme de matrices
positives, est positive.
b) Les matrices A et B étant dénies positives, on peut écrire
n
n
X ∗ AX = fi2 (X) et X ∗ BX = gj2 (X),
i=1 j=1
où les formes linéaires (fi )1≤i≤n sont linéairement indépendantes, ainsi que les (gj )1≤j≤n . Notons
(λk,i )i les coecients de fk , (µ,j )j ceux de g , de sorte que
n
n
fk (X) = λk,i xi et g (X) = µ,j xj .
i=1 j=1
Les matrices
n nquadratiques fk et g
des formes 2 2 sont A = (λ λ )
k k,i k,j i,j et B = (µ,i µ,j )i,j , et on a
A = k=1 Ak et B = =1 B . Ainsi, A◦B = k, Ak ◦B . Maintenant, l'égalité X ∗ (A◦B)X = 0
entraîne k, X ∗ (Ak ◦ B )X = 0, et les matrices Ak ◦ B étant positives,
n
2
∗
∀k, , X (Ak ◦ B )X = 0 = λk,i µ,i xi . (∗)
i=1
Les n formes linéaires (fk )1≤k≤n étant linéairement indépendantes, ceci entraîne Y = 0, donc
µ,i xi = 0 pour tout i, et par sommation g (X) = 0. Ceci étant vrai pour tout , comme les
formes linéaires (g )1≤≤n sont linéairement indépendantes, on a nécessairement X = 0, ce qui
prouve que A ◦ B est dénie.
c) En utilisant le résultat de la question a), on a facilement par récurrence sur m ∈ N que la
matrice Am = (am i,j )1≤i,j≤n est positive. Maintenant, pour tout entier M positif, on a
M
M
1 1 ∗
n ∗
∀X ∈ R , X Am X= X Am X ≥ 0.
m! m!
m=0 m=0
En passant à la limite lorsque M tend vers l'inni, on obtient X ∗ EX ≥ 0, et ceci pour tout X ,
ce qui prouve que E est positive.
Si de plus A est dénie, alors E est dénie car
∀X = 0, X ∗ EX ≥ X ∗ AX > 0.
3. Compléments de cours
Cette section propose quelques études complémentaires très classiques, et souvent
utiles dans les exercices ou les problèmes.
268 5. ESPACES EUCLIDIENS
Maintenant, d'après la proposition 1 le s.e.v F ⊥ est stable par u, et u|F ⊥ est une isométrie donc
il existe d'après l'hypothèse de récurrence une base orthonormale B1 de F ⊥ qui diagonalise u|F ⊥ .
La base B obtenue en concaténant B0 et B1 est orthonormale et dans cette base, la matrice de
u a la forme voulue, d'où le théorème.
droites (matrice 10 −1 0
). Notez d'ailleurs la relation R(θ)R(θ ) = R(θ + θ ), qui
entraîne la commutativité des rotations dans le plan.
Les isométries
directes de l'espace sont des rotations d'angle θ autour d'un axe
cos θ − sin θ 0
(matrice sin θ cos θ 0 , le dernier vecteur de la base étant l'axe de rotation).
0 0 1
Lorsque θ = π , on parle de retournement.
cos θ − sin θ 0
Les isométries indirectes de l'espace ont pour matrice sin θ cos θ 0 . Lorsque
0 0 −1
θ = 0, on a aaire à une symétrie par rapport à un plan et on parle alors de réexion.
Remarque 2. La version matricielle de ce théorème est la suivante. Soit M ∈ Mn (R) une
matrice orthogonale. Alors il existe une matrice orthogonale P telle que P −1 M P = P ∗ M P
ait la forme (∗).
Réduction des endomorphismes unitaires.
Théorème 2. Soit E un espace hermitien et u ∈ L(E) un endomorphisme unitaire. Alors
il existe une base orthonormale qui diagonalise u, et toutes les valeurs propres de u ont
leur module égal à 1.
Démonstration. La preuve est plus simple que la précédente. Il est d'abord clair que toute valeur
propre λ de u vérie |λ| = 1, car si u(x) = λx avec x = 0, on a x = u(x) = |λ| x. On
procède ensuite par récurrence sur n = dim E . Le cas n = 1 est immédiat, et le passage du rang
n − 1 au rang n se fait comme suit.
Le corps de base C étant algébriquement clos, u admet au moins une valeur propre complexe
λ. Soit x un vecteur propre associé, x = 1. La droite F = Vect(x) est stable par u, donc
d'après la proposition 1, l'hyperplan F ⊥ est également stable par u. L'endomorphisme u|F ⊥ est
unitaire, et d'après l'hypothèse de récurrence, il existe une base orthonormale B0 de F ⊥ qui
diagonalise u|F ⊥ . En ajoutant x à B0 , on obtient une base orthonormale de E qui diagonalise u
et le théorème est prouvé.
Remarque 3. Notez que ce résultat n'est pas spécique aux endomorphismes normaux.
Lemme 2. Soit u ∈ L(E) un endomorphisme normal. Si Eλ est un sous-espace propre de
u (associé à une valeur propre λ), alors Eλ⊥ est stable par u.
Démonstration. Comme u et u∗ commutent, Eλ est stable par u∗ (voir la proposition 7 page 175),
donc d'après le lemme 1, Eλ⊥ est stable par (u∗ )∗ = u.
Nous pouvons maintenant énoncer et démontrer notre résultat principal.
Théorème 3. Soit u ∈ L(E). Les assertions (i), (ii) et (iii) sont équivalentes.
(i) u est normal.
(ii) u se diagonalise dans une base orthonormale de E .
(iii) u et u∗ se diagonalisent dans une base orthonormale commune.
Démonstration. Nous montrerons (i) =⇒ (ii), (ii) =⇒ (iii) et (iii) =⇒ (i).
(i) =⇒ (ii). On procède par récurrence sur n = dim E . Pour n = 1, c'est évident. Sinon,
supposons le résultat vrai jusqu'au rang n − 1 et montrons le au rang n. Le corps de base de E
est C, donc u admet au moins une valeur propre λ. Soit Eλ le sous-espace propre correspondant.
Le sous-espace F = Eλ⊥ est stable par u (lemme 2) et par u∗ (lemme 1). Comme u|F et (u|F )∗ =
(u∗ )|F commutent et que dim F ≤ n − 1, il existe d'après l'hypothèse de récurrence une base
orthonormale B1 de F qui diagonalise u|F . Si maintenant B2 désigne une base orthonormale de
Eλ , on voit que B = (B1 , B2 ) est une base orthonormale de E diagonalisant u.
(ii) =⇒ (iii). Soit B une base orthonormale diagonalisant u, M la matrice de u dans B . La
matrice de u∗ dans B est M ∗ . La matrice M est diagonale donc M ∗ est diagonale, ce qui entraîne
que la base B diagonalise u et u∗ .
(iii) =⇒ (i). Soit B une base orthonormale diagonalisant u et u∗ . Les matrice M = [u]B et
M ∗ = [u∗ ]B étant diagonales, elles commutent, donc u et u∗ commutent.
telle que [u|F ]B1 a la forme (∗). Si B2 désigne une base orthonormale de Eλ , on voit alors que
B = (B1 , B2 ) est une base orthonormale de E dans laquelle [u]B a la forme (∗).
Sinon u est sans valeur propre réelle. Soit Q = X 2 − 2αX + β un facteur irréductible dans
R[X] (on a donc α2 − β < 0) du polynôme minimal πu de u, et N = Ker Q(u).
On a N = {0}. En eet, si N = 0 alors Q(u) est inversible. En notant R le polynôme tel que
πu = QR, on a donc Q(u)R(u) = 0 donc R(u) = 0 par inversibilité de Q(u), ce qui est absurde
compte tenu de la dénition du polynôme minimal de u.
Il est clair que N est stable par u. Le s.e.v N est également stable par u∗ car la commu-
tativité de u et u∗ entraîne u∗ Q(u) = Q(u)u∗ . Posons v = u|N . On a v ∗ = u∗|N , de sorte que
l'endomorphisme v ∗ v = (u∗ u)|N est symétrique et admet donc une valeur propre µ ∈ R. Soit
x ∈ N , x = 0, tel que v ∗ v(x) = µx. Posons F = Vect(x, u(x)). Comme u n'admet pas de valeur
propre réelle, x et u(x) forment une famille libre donc dim F = 2. Le s.e.v F est stable par u
puisque comme x ∈ N , on a u2 (x) = 2αu(x) − βx (∗∗).
Nous allons montrer que F est également stable par u∗ . Remarquons tout d'abord que l'égalité
(∗∗) entraîne F = Vect(u(x), u2 (x)) (ceci car β = 0, Q étant irréductible sur R[X]). On écrit
maintenant
u∗ [u(x)] = v ∗ v(x) = µx ∈ F
et comme u et u∗ commutent,
u∗ [u2 (x)] = u ◦ u∗ [u(x)] = u(µx) = µu(x) ∈ F,
Maintenant, on a vu que F est stable par u∗ , donc F ⊥ est stable par u∗∗ = u d'après le lemme 1.
Le même lemme montre que, F étant stable par u, F ⊥ est stable par u∗ . Donc (u|F ⊥ )∗ = (u∗ )|F ⊥ ,
ce qui prouve que u|F ⊥ est normal. Comme dim F ⊥ = n−2 < n, l'hypothèse de récurrence assure
l'existence d'une base B1 orthonormale de F ⊥ dans laquelle la matrice de u a la forme (∗).
La base B = (B1 , B2 ) est alors une base orthonormale dans laquelle la matrice de u a la
forme (∗).
où pour tout i, Xi = Xi∗ Xi désigne la norme hermitienne standard.
Si pour tout i, Xi = 0, l'inégalité (∗) est une égalité si et seulement si la famille (Xi )
est orthogonale.
Démonstration. Si det M = 0, l'inégalité est évidemment vériée. Sinon, (X1 , . . . , Xn ) forme une
base de Cn . En utilisant le procédé d'orthonormalisation de Schmidt (voir la partie 2.2 de ce
chapitre), on construit une base orthogonale (Y1 , . . . , Yn ) de Cn telle que
∀k, Yk = Xk + λ1,k Y1 + · · · + λk−1,k Yk−1 , λi,k ∈ C.
On ne change pas un déterminant en retranchant à une colonne une combinaison linéaire des
autres, ce qui prouve det M = det N , où N = (Y1 | · · · |Yn ) est la matrice dont les vecteurs
colonnes sont les Yi . Posons D = N ∗ N = (di,j )1≤i,j≤n . On voit facilement que di,j = Yi∗ Yj . Les
Yi étant orthogonaux deux à deux, on a di,j = 0 dès que i = j . Par ailleurs, di,i = Yi∗ Yi = Yi 2 ,
d'où
Y1 2 0
N ∗N = ...
,
0 Yn 2
et donc n
det(N ∗ N ) = det(N ∗ ) det(N ) = | det(N )|2 = Yi 2 ,
i=1
n
ce qui entraîne | det N | = i=1 Yi . Or pour tout k , Xk = Yk − λ1,k Y1 − · · · − λk−1,k Yk−1 , donc
2
Xk = Yk 2 + |λ1,k |2 Y1 2 + · · · + |λk−1,k |2 Yk−1 2 . (∗)
Cette égalité entraîne Yk ≤ Xk , donc
n
n
| det M | = | det N | = Yi ≤ Xi . (∗∗)
i=1 i=1
Cas d'égalité. Si les Xi sont orthogonaux entre eux deux à deux, on a Xi = Yi pour tout i,
et d'après ce que l'on a vu plus haut, | det M | = | det N | = Y1 · · · Yn = X1 · · · Xn .
Réciproquement, supposons qu'il y ait égalité et que pour tout i, Xi = 0. Alors det M = 0.
Il faut alors que (∗∗) soit une égalité, c'est à dire Y1 · · · Yn = X1 · · · Xn = 0. Or, pour
tout i, Yi ≤ Xi , on doit donc avoir Xi = Yi pour tout i. Ceci entraîne avec (∗) que tous
les λj,k sont nuls, donc que Yk = Xk pour tout k. Les Xi sont donc deux à deux orthogonaux.
Remarque 8. Le théorème reste vrai dans Mn (R) ⊂ Mn (C).
3.4. Matrices de Gram
Définition 2. Soit E un espace préhilbertien (réel ou complexe) et x1 , · · · xn n vecteurs
de E . On appelle matrice de Gram de x1 , . . . , xn la matrice [(xi · xj )]1≤i,j≤n et déterminant
de Gram le déterminant de cette matrice, noté G(x1 , . . . , xn ).
Proposition 3. Toute matrice de Gram est hermitienne positive. Réciproquement, toute
matrice hermitienne positive est une matrice de Gram.
De plus, la matrice de Gram de n vecteurs x1 , . . . , xn est dénie si et seulement si la
famille (xi )1≤i≤n est libre.
Démonstration. Soient x1 , . . . , xn des vecteurs d'un espace préhilbertien E et M leur matrice de
Gram. Soit F = Vect(x1 , . . . , xn ) et m = dim F . Fixons nous une base orthonormée B de F , et
pour tout i notons Xi le vecteur colonne des coordonnées de xi dans B. On a xi · xj = Xi∗ Xj , de
sorte que M = N ∗ N où N désigne la matrice m × n dont les colonnes sont les Xi . Ceci montre
que la matrice carrée M de taille n est hermitienne (M ∗ = N ∗ N ∗∗ = N ∗ N = M ) et positive (car
pour tout vecteur colonne X , X ∗ M X = (X ∗ N ∗ )(N X) = (N X)∗ (N X) = N X2 , · désignant
la norme euclidienne (resp. hermitienne) standard).
Réciproquement, si M = (ai,j )1≤i,j≤n est une matrice hermitienne positive, d'après l'exer-
cice 1 page 257, il existe une matrice n × n hermitienne H telle que M = H 2 = H ∗ H . Si on
3. COMPLÉMENTS DE COURS 275
3.5. Exercices
Exercice 1. Soit A = (ai,j )1≤i,j≤n ∈ Mn (R) telle que
∃c > 0, ∀(i, j), |ai,j | ≤ c.
Montrer que | det M | ≤ cn nn/2 .
Solution. Il sut d'utiliser l'inégalité d'Hadamard (qu'il faut, au besoin, savoir redémontrer). No-
tons A1 , . . . , An les vecteurs colonnes de A. D'après le théorème 7, on a | det M | ≤ A1 · · · An
où pour tout j ,
n
√ √
Aj = A∗j Aj = a2i,j ≤ nc2 = n c.
i=1
√
On en déduit | det M | ≤ ( n c)n = cn nn/2 .
276 5. ESPACES EUCLIDIENS
Par ailleurs, la famille (u1 , . . . , un+1 ) est liée (n + 1 vecteurs en dimension n), donc d'après la
proposition 3, det M = G(u1 , . . . , un+1 ) = 0.
Calculons det M . En additionnant les n premières colonnes à la dernière, on obtient
1 α ··· 1 + nα 1 α ··· 1
... ... ..
... ... ..
α . α .
det M = .. ... = (1 + nα) .. ... .
. 1
1 + nα . 1 1
α ··· α 1 + nα α ··· α 1
(Ce résultat peut s'obtenir également à partir du résultat décrit dans le problème 1 page 214
donnant la liste des valeurs propres de M ).
Comme det M = 0, l'égalité (∗∗) montre α = −1/n car α = 1 par hypothèse.
b) Notons M la matrice symétrique (*) dans laquelle on choisit α = −1/n. D'après le problème 1
page 214, les valeurs propres de M sont 0 et 1 − α = 1 + n1 . Elles sont positives, donc M est
une matrice positive. D'après la proposition 3, M est une matrice de Gram, c'est-à-dire qu'il
existe n + 1 vecteurs U1 , . . . , Un+1 de Rn+1 tels que M soit la matrice de Gram des Ui . Ainsi, les
vecteurs Ui vérient la condition de a) avec α = − n1 . Comme det M = 0 = G(U1 , . . . , Un+1 ), la
famille (Ui )1≤i≤n+1 est liée. Ainsi, il existe un s.e.v F de Rn+1 de dimension n contenant les Ui .
Résumons. Nous avons trouvé un espace euclidien de dimension n (ici F ) et n + 1 vecteurs
de cet espace vériant la condition de la question a). Par isomorphisme d'espace euclidien, on
peut donc trouver n + 1 vecteurs u1 , . . . , un+1 dans E vériant cette condition.
Solution. Tout polynôme en u commutant avec u, la condition susante est immédiate. Montrons
maintenant la condition nécessaire. Supposons u normal. D'après le théorème 3, u se diagonalise
dans une base B orthonormée de E . Autrement dit, il existe des nombres complexes distincts
λ1 , . . . , λr tels que
λ1 Iα1 0
[u]B = ...
,
0 λ r I αr
3. COMPLÉMENTS DE COURS 277
où les αi sont des entiers naturels non nuls. La base B étant orthonormée, on a
λ1 I α1 0
t
[u∗ ]B = [u]B = ...
.
0 λr I αr
Notons P ∈ C[X] le polynôme de Lagrange (voir la partie 2.4 page 65) tel que P (λi ) = λi pour
tout i (on peut car les (λi )1≤i≤r sont deux à deux distincts). On voit alors que P ([u]B ) = [u∗ ]B ,
donc P (u) = u∗ .
Exercice 4. a) Soit A = (ai,j )1≤i,j≤n ∈ Mn (C) une matrice hermitienne dénie positive.
Démontrer que det A ≤ a1,1 · · · an,n . Donner une condition nécessaire et susante pour
que cette inégalité soit une égalité.
b) Soit p ∈ N tel que 0 < p < n et q = n − p. On écrit A sous la forme
A1 B
A= avec A1 ∈ Mp (C) et A2 ∈ Mq (C).
B ∗ A2
Montrer que det A ≤ det A1 · det A2 .
Solution. a) D'après la proposition 3, on peut voir A comme la matrice de Gram de n vecteurs
U1 , . . . , Un de Cn . Si M désigne la matrice dont les vecteurs colonnes sont
U1 , . . . , Un , on a
A = M ∗ M . D'après l'inégalité d'Hadamard (théorème 7), on a | det M | ≤ ni=1 Ui , où pour
tout i, Ui 2 = Ui∗ Ui = ai,i . Finalement, on peut écrire
n
n
det A = | det M |2 ≤ Ui 2 = ai,i .
i=1 i=1
L'égalité se produit lorsque la matrice M vérie | det M | = ni=1 Ui , c'est à dire lorsque
les Ui sont orthogonaux entre eux deux à deux (voir le théorème 7), ce qui équivaut à dire que
∀i = j, Ui · Uj = ai,j = 0, ou encore que A est diagonale.
b) Nous nous ramenons d'abord au cas plus simple où A1 et A2 sont des matrices diagonales.
Les matrices A1 et A2 sont symétriques, il existe donc deux matrices unitaires P ∈ Mp (C) et
Q ∈ Mq (C) telles que P ∗ A1 P = D1 et Q∗ A2 Q =D2 , où D1 et D2 sont deux matrices diagonales
réelles. En dénissant la matrice par blocs M = P0 Q0 ∈ Mn (C), un calcul simple donne
P ∗ A1 P P ∗ BQ D1 P ∗ BQ
M ∗ AM = =C avec C = .
Q∗ B ∗ P Q∗ A2 Q Q∗ B ∗ P D2
La matrice C est congrue à A, donc hermitienne dénie positive, donc d'après le résultat de la
question précédente, le déterminant de C est inférieur au produit de ses coecients diagonaux.
Comme D1 et D2 sont des matrices diagonales, ceci s'écrit det C ≤ det D1 · det D2 . Comme
det M = det P · det Q = 1 (M est même une matrice unitaire), on en déduit
det A = det(M ∗ AM ) = det C ≤ det D1 · det D2 = det A1 · det A2 .
Solution. 1/ Notons J = 01 −10 . Un calcul facile donne J = −I2 , ce qui entraîne pour tout
2
+∞ n
+∞
+∞
θ (−1)n θ2n (−1)n θ2n+1
exp(θJ) = Jn = I2 + J = (cos θ)I2 + (sin θ)J,
n! (2n)! (2n + 1)!
n=0 n=0 n=0
où pour tout i, R(θi ) est la matrice de rotation 2 × 2 d'angle θi , et où εj ∈ {−1, 1} pour tout
j . Par hypothèse, u est une isométrie directe donc det u = 1. Le calcul de déterminant par blocs
donne
det u = det R(θ1 ) · · · det R(θr ) ε1 · · · εs = ε1 · · · εs .
Ainsi, le produit des εi vaut 1, donc il y en a un nombre pair 2p (avec p ∈ N) qui valent −1, et
les q autres valent 1 (avec 2p + q = s). Quitte à permuter les s derniers vecteurs de la base B ,
on peut même supposer que les 2p premiers εj valent −1, et les q derniers valent 1. Comme la
matrice −1 0 −1 est une matrice de rotation d'angle π , il revient au même de dire que la matrice
0
de u dans B a la forme
R(θ1 )
... 0
[u]B = ,
R(θm )
0
Iq
3. COMPLÉMENTS DE COURS 279
Solution. 1/ Munissons le R-e.v E = C([0, 1], R) des fonctions continues de [0, 1] dans R du
produit scalaire 1
∀f, g ∈ E, f, g = f (t)g(t) dt.
0
Par commodité de notation, pour tout entier i on désigne par xi la fonction [0, 1] → R x → xi .
En notant En = Vect(x, . . . , xn ), on remarque que
n
ϕ(a1 , . . . , an ) = 1 − P 2 , où P = − ai xi ∈ En ,
i=1
et où . désigne la norme issue du produit scalaire , . Déterminer µ = inf a∈Rn ϕ(a), c'est
donc rechercher d(1, En )2 = inf P ∈En 1 − P 2 = µ.
La proposition 2 de la page 254 assure l'existence et l'unicité d'un point P0 de En tel que
1 − P0 = d(1, En ) (de plus, P0 est la projection orthogonale de 1 sur En ). Le minimum de ϕ
est donc atteint en un point unique de Rn . D'après le théorème 8 sa valeur µ est donnée par
G(1, x, . . . , xn )
µ = d(1, En )2 = . (∗)
G(x, . . . , xn )
Comme xi , xj = 1/(i + j + 1), on a
1 1
G(1, x, . . . , xn ) = det et G(x, . . . , xn ) = det .
i+j−1 1≤i,j≤n+1 i+j+1 1≤i,j≤n
Ces déterminants sont des déterminants de Cauchy (voir l'exercice 7, page 150) que l'on sait
calculer. Ils valent respectivement
1≤i<j≤n+1 (i − j)2 1≤i<j≤n (i − j)2
n
G(1, x, . . . , x ) = et G(x, . . . , x ) = n
.
1≤i,j≤n+1 (i + j − 1) 1≤i,j≤n (i + j + 1)
En utilisant l'égalité (∗) et l'identité 1≤i,j≤n+1 (i + j − 1) = 0≤i,j≤n (i + j + 1), on a donc
1≤i≤n [i − (n + 1)]2 n!2 1
µ= 2
= = .
(n + 1)! (n + 1)!2 (n + 1)2
2/ Calculons µ sans utiliser (*). Notons a
= (a1 , . . . , an ) ∈ Rn le point en lequel est atteint le
minimum de ϕ. Nous avons vu que P0 = − ni=1 ai xi est la projection orthogonale de 1 sur En .
Donc 1 − P0 , xk = 0 pour 1 ≤ k ≤ n, et µ = 1 − P0 , 1 − P0 = 1 − P0 , 1. Autrement dit
n n
1 ai ai
∀k ∈ {1, . . . , n}, + =0 et µ=1+ .
k+1 i+k+1 i+1
i=1 i=1
En considérant la fraction rationnelle F (X) = 1/(X + 1) + ni=1 ai /(X + i + 1), ceci s'écrit aussi
F (k) = 0 pour k = 1, . . . , n et µ = F (0). La forme réduite de F a donc la forme
n
(X − i)
F (X) = α n i=1
. (∗∗)
i=0 (X + i + 1)
n
−(1 + i)
Pour déterminer α, on multiplie F par X+1 et on fait X = −1, ce qui fournit 1 = α =
i
i=1
(−1)n (n + 1) donc α = (−1)n /(n + 1). On conclut avec l'expression (**), en écrivant
n
(−i) (−1)n 1
µ = F (0) = α ni=1 =α = .
i=0 (i + 1) n + 1 (n + 1)2
Cet exercice est à rapprocher du problème du tome d'analyse portant sur le théorème
de Müntz.
4. PROBLÈMES 281
4. Problèmes
Problème 1 (Théorème de Fisher-Cochran). Soit E un espace euclidien de dimen-
sion n et u1 , . . . , up des endomorphismes symétriques de E . On suppose que
(i) rg u1 + · · · + rg up = n.
(ii) q1 (x) + · · · + qp (x) = x · x, où qi désigne la forme quadratique qi (x) = ui (x) · x
pour tout i.
Montrer que E = Im u1 ⊕ · · · ⊕ Im up , que les Im ui sont orthogonaux entre eux deux à
deux, et que pour tout i, ui est le projecteur orthogonal sur Im ui .
Solution. La relation (ii) s'écrit aussi
∀x ∈ E, (u1 + · · · + up − IdE )(x) · x = 0. (∗)
L'endomorphisme v = u1 + · · · + up − IdE étant symétrique, (∗) entraîne v = 0 (en eet, v est
diagonalisable et (∗) montre que la seule valeur propre
de v est 0). Donc u1 + · · · + up = IdE ,
d'où on tire E = Im u1 + · · · + Im up . Comme de plus pi=1 dim(Im ui ) = dim E d'après (i), on a
E = Im u1 ⊕ · · · ⊕ Im up (∗∗)
(voir la proposition 6 page 117).
En appliquant maintenant l'égalité IdE = u1 + · · · + up au vecteur uk (x), on obtient
∀k, ∀x ∈ E, uk (x) = u1 uk (x) + · · · + up uk (x). (∗∗∗)
D'après (∗∗), la décomposition d'un élément de Im uk se fait de manière unique dans ⊕pi=1 Im ui ,
d'où on déduit, avec (∗∗∗) que uk (x) = u2k (x) et ∀ = k, uk u (x) = 0. Ceci étant vrai pour tout
x ∈ E , on en tire uk = u2k et ∀ = k , uk u = 0. Les endomorphismes uk sont donc des projecteurs,
orthogonaux puisqu'ils sont symétriques (ses sous-espaces propres sont orthogonaux, et ce sont
ici Ker uk et Im uk ).
Il nous reste à montrer que les Im uk sont orthogonaux entre eux deux à deux. Pour k = ,
on a vu uk u = 0, ce qui entraîne Im u ⊂ Ker uk . L'endomorphisme uk étant un projecteur
orthogonal, on a Ker uk = (Im uk )⊥ , donc Im u ⊂ (Im uk )⊥ , ce qui prouve que Im u et Im uk
sont orthogonaux. Ceci est vrai dès que le couple (k, ) vérie k = , d'où le résultat.
Traitons maintenant le cas général. Commençons par munir S d'un produit scalaire. Si S, T ∈
S , on dénit le produit scalaire de (S, T ) par (S | T ) = tr(ST ). Il s'agit bien d'un produit scalaire
282 5. ESPACES EUCLIDIENS
puisque c'est une forme bilinéaire symétrique, et la forme quadratique associée est dénie positive
car
∀S = (si,j )1≤i,j≤n ∈ S, tr(S 2 ) = si,j sj,i = s2i,j .
i,j i,j
va nous permettre de trouver la valeur de | det ϕA |. Posons M = A tA. C'est une matrice symé-
trique, donc diagonalisable, de sorte qu'il existe une matrice orthogonale P telle que M = tP DP ,
où D est une matrice diagonale. On vérie facilement que ϕM = ϕP ◦ ϕD ◦ ϕ tP . Comme
ϕP ◦ ϕ tP = ϕ tP P = IdS , ϕM est semblable à ϕD donc det ϕM = det ϕD = (det D)n+1 d'après
(∗). Comme det D = det M = (det A)2 , ceci s'écrit aussi
Solution. a) Commençons par montrer que pour toute matrice A ∈ Γ, tr(AH) ≥ n(det H)1/n . Le
problème étant invariant par changement de base orthonormale, on peut supposer H diagonale.
Notons λ1 ,
. . . , λn les coecients diagonaux de H et considérons A = (ai,j )1≤i,j≤n ∈ Γ. On a
tr(AH) = ni=1 λi ai,i . Le logarithme étant une fonction concave, on peut écrire
n n 1/n n 1/n
1
1/n
(λi ai,i ) ≥ (λi ai,i ) = (det H) ai,i ,
n
i=1 i=1 i=1
n
et comme 1 ≤ det A ≤ i=1 ai,i d'après la question a) de l'exercice 4 page 277, ceci implique
tr(AH) ≥ n(det H)1/n .
Achevons notre raisonnement. Nous venons de montrer que inf A∈Γ tr(AH) ≥ n(det H)1/n . Il
s'agit maintenant de prouver l'inégalité réciproque. Il y a deux cas.
Premier cas. Si H est dénie, alors pour tout i, λi > 0. Soit A la matrice dénie par
λ−1
1 0
A = (det H)1/n ...
.
0 λ−1
n
Second cas. Si la matrice H n'est pas dénie, l'une au moins des valeurs propres λi est
nulle, par exemple λn = 0. Pour tout p ∈ N∗ , on dénit
p−1
... 0
Ap = ∈ Γ.
p−1
0
pn−1
n−1
λi
On a tr(Ap H) = i=1
, donc lim tr(Ap H) = 0 = n(det H)1/n , ce qui prouve le
p p→∞
résultat.
b) Pour toute matrice M ∈ Γ, on a
tr[(A + B)M ] = tr(AM ) + tr(BM ) ≥ inf tr(AM ) + inf tr(BM ),
M ∈Γ M ∈Γ
donc
inf tr[(A + B)M ] ≥ inf tr(AM ) + inf tr(BM ),
M ∈Γ M ∈Γ M ∈Γ
ce qui prouve le résultat en vertu de la question a).
Résolvons la question sans l'aide de a). Si A et B ne sont pas dénies, c'est évident car
det A = det B = 0 et comme A + B est positive, det(A + B) ≥ 0. Sinon, l'une des matrices A ou
B est dénie. Supposons par exemple A dénie. Le corollaire 3 page 257 assure l'existence d'une
matrice inversible P telle que A = P ∗ P et B = P ∗ DP , où D est une matrice diagonale. Ainsi,
on se ramène à montrer que
[det(In + D)]1/n ≥ (det In )1/n + (det D)1/n .
En notant λi ≥ 0 les termes de la diagonale principale de D, cette inégalité s'écrit
n 1/n n
1/n
(1 + λi ) ≥1+ λi . (∗)
i=1 i=1
Nous allons prouver (∗) en utilisant des critères de convexité. Considérons l'application
n 1/n
ϕ : [0, 1] → R t → (t + λi ) .
i=1
Il s'agit de montrer ϕ(1) − ϕ(0) ≥ 1, ce qui sera vrai si on prouve ϕ (t) ≥ 1 pour t ∈ ]0, 1]. On a
n 1/n n
1 1
∀t ∈ ]0, 1], ϕ (t) = (t + λi ) ,
n t + λi
i=1 i=1
ou encore
n n
1 1 1 1
∀t ∈ ]0, 1], log ϕ (t) = log − log ,
n t + λi n t + λi
i=1 i=1
donc, en vertu de la concavité du logarithme, log ϕ (t) ≥ 0, c'est à dire ϕ (t) ≥ 1 pour t ∈ ]0, 1],
d'où le résultat.
Remarque. Notez l'utilisation fructueuse du corollaire 3 page 257 dans la preuve directe
de la question b).
Problème 6. a) Montrer que si le coecient diagonal d'indice (i, i) d'une matrice symé-
trique positive A ∈ Mn (R) est nul, alors la i-ième ligne de A est nulle.
b) Soit M ∈ M
n (R) une matrice symétrique positive. On écrit la matrice
M sous
la forme
A B A B
M = t avec A ∈ Mp (R) (1 ≤ p < n). Montrer que N = ∈ Mn (R)
B C 0 0
est diagonalisable.
4. PROBLÈMES 285
b) Soit A ∈ Mn (K) une matrice antisymétrique. Montrer qu'il existe P ∈ Gn (K) tel que
J
... (0)
J 0 1
t
P AP = 0 avec J = ∈ M2 (K).
−1 0
(0) ...
0
Solution. 1/a) On procède par récurrence sur n = dim E . Pour n = 1, ϕ est nulle et si n = 2,
le résultat est immédiat. Supposons donc n ≥ 3. Si ϕ = 0 le résultat est évident (dans ce cas
r = 0), sinon il existe deux vecteurs e1 et e2 de E tels que ϕ(e1 , e2 ) = 0. Quitte à multiplier
e1 par 1/ϕ(e1 , e2 ) on peut supposer ϕ(e1 , e2 ) = 1. Ces vecteurs sont forcément non nuls, et ils
forment une famille libre car si e2 = λe1 avec λ ∈ K, on aurait ϕ(e1 , e2 ) = λϕ(e1 , e1 ) = 0. Les
formes linéaires L1 = ϕ(e1 , ·) et L2 = ϕ(e2 , ·) forment une famille libre car si λ1 L1 + λ2 L2 = 0,
alors 0 = (λ1 L1 + λ2 L2 )(e1 ) = −λ2 , de même 0 = (λ1 L1 + λ2 L2 )(e2 ) = λ1 . Donc le s.e.v
F = Ker L1 ∩ Ker L2 est de dimension n − 2. D'après l'hypothèse de récurrence, on peut trouver
une base (e3 , . . . , en ) de F et r ≤ n/2 telle que la restriction ψ de ϕ à F × F s'écrive
n n
r
ψ xi ei , yi e i = (x2k−1 y2k − x2k y2k−1 ). (∗∗)
i=3 j=3 i=2
Par ailleurs Vect(e1 , e2 ) est en somme directe avec F (si e = λ1 e1 + λ2 e2 ∈ F alors 0 = L2 (e) =
λ1 ϕ(e2 , e1 )+λ2 ϕ(e2 , e2 ) = −λ1 donc λ1 = 0 et de même 0 = L1 (e) = λ2 ), donc (e1 , e2 , e3 , . . . , en )
est une base de E . Par construction de F , on a ϕ(x, y) = ϕ(y, x) = 0 dès que x ∈ Vect(e1 , e2 ) et
y ∈ F , donc
n n
n
n
ϕ xi ei , yj ej = ϕ(x1 e1 + x2 e2 , y1 e1 + y2 e2 ) + ψ xi ei , yj e j .
i=1 j=1 i=3 j=3
Montrer que ϕ(p) est une forme 2p-linéaire alternée. (Indication : traiter d'abord le cas
p = 2, puis montrer ϕ(p) (x1 , . . . , x2p ) = 0 si xk = xk+1 voir l'exercice 9 page 151.)
c) Si A ∈ A2m (K), on désigne par ϕA la forme bilinéaire sur E = K2m dont A est la matrice
4. PROBLÈMES 287
(on a pris en compte le fait que xj est la (j − 1)-ième coordonnée de x∗1,i si 3 ≤ j < i, la
(j − 2)-ième coordonnée si j > i) donc
ϕ(p) (x) = ϕ(x1 , x2 )ϕ(p−1) (x3 , . . . , x2p )
+ (−1)i+j−1 ϕ(x1 , xi )ϕ(x2 , xj )ϕ(p−2) (x∗1,2,j,i )
3≤i≤2p
3≤j<i
+ (−1)i+j−2 ϕ(x1 , xi )ϕ(x2 , xj )ϕ(p−2) (x∗1,2,i,j ).
3≤i≤2p
i<j≤2p
Supposons x1 = x2 . Le premier terme de cette somme est nul, on peut donc écrire
ϕ(p) (x) = (−1)i+j−1 ϕ(x1 , xi )ϕ(x1 , xj )ϕ(p−2) (x∗1,2,j,i )
3≤j<i≤2p
+ (−1)i+j−2 ϕ(x1 , xi )ϕ(x1 , xj )ϕ(p−2) (x∗1,2,i,j ).
3≤i<j≤2p
Chaque terme d'indice (j, i) de la première somme est l'opposé du terme d'indice (i, j) de la
seconde, on en déduit ϕ(p) (x) = 0.
288 5. ESPACES EUCLIDIENS
c) L'ensemble des formes 2m-linéaires alternées sur l'e.v E de dimension 2m est un e.v de
dimension 1 (voir le théorème 2 page 141). Comme ϕ(m) A et detB sont des formes 2m-linéaires
alternées et que detB est non nul, on en déduit l'existence de λ ∈ K tel que
(m)
∀(x1 , . . . , x2m ) ∈ E2m , ϕA (x1 , . . . , x2m ) = λ detB (x1 , . . . , x2m ).
En appliquant cette égalité pour xi = ei (1 ≤ i ≤ 2m), on obtient λ = Pf(A), d'où le résultat.
d) Lorsque A = (ai,j ) ∈ A4 (K), on a m = 2 et l'expression (∗∗) entraîne Pf(A) = a1,2 a3,4 −
a1,3 a2,4 + a1,4 a2,3 .
Lorsque A = (ai,j ) ∈ A2m (K), montrons maintenant que Pf(A) est un polynôme en les
coecients (ai,j )1≤i<j≤2m de A. Pour cela, nous allons prouver, en procédant par récurrence sur
(p)
p, que si 1 ≤ p ≤ m et 1 ≤ k1 < . . . < k2p ≤ 2m, alors ϕA (ek1 , . . . , ek2p ) = Pk1 ,...,k2p (A) où
Pk1 ,...,k2p (A) est un polynôme en les coecients (ai,j )1≤i<j≤2m de A. Cette propriété est vraie
pour p = 1 car ϕ(1) A (ek1 , ek2 ) = ak1 ,k2 . Si elle est vraie pour p − 1, alors l'écriture (∗) entraîne
2p
(p) (p−1)
ϕA (ek1 , . . . , ek2p ) = (−1)i ϕA (ek1 , eki )ϕA (ek2 , . . . , eki−1 , eki+1 , . . . , ek2p )
i=2
2p
= (−1)i ak1 ,ki Pk2 ,...,ki−1 ,ki+1 ,...,k2p (A),
i=2
(p)
donc est bien un polynôme en les coecients (ai,j )1≤i<j≤2m de A. La propriété
ϕA (ek1 , . . . , ek2p )
souhaitée est donc démontrée pour tout p, 1 ≤ p ≤ m. En particulier, elle est vraie pour p = m
donc Pf(A) = ϕ(m)
A (e1 , . . . , e2m ) est un polynôme en les coecients de A.
e) Pour tout x, y ∈ E = K2m on a ϕ tP AP (x, y) = tx tP AP y = t(P x)A(P y) = ϕA (P x, P y). Une
récurrence immédiate sur p entraîne alors
(p) (p)
∀(x1 , . . . , x2p ) ∈ E 2p , ϕ tP AP (x1 , . . . , x2p ) = ϕA (P x1 , . . . , P x2p ).
Comme p + q = n, on a ici F + ⊕ F − = E .
L'ensemble S + = {x ∈ F + | x = 1} est compact, donc ϕ0 étant continue
∃x ∈ S + , ϕ0 (x, x) = inf ϕ0 (y, y).
y∈S +
En notant α = ϕ0 (x, x) > 0, on voit que pour tout y ∈ S + , ϕ0 (y, y) ≥ α, donc pour tout y ∈ F + ,
ϕ0 (y, y) ≥ αy2 . On montrerait de même l'existence de β > 0 tel que tout y ∈ F − vérie
ϕ0 (y, y) ≤ −βy2 .
Soit γ = inf(α, β) et ψ ∈ B tel que |||ψ||| ≤ γ/2. Alors ϕ = ϕ0 + ψ vérie
γ γ
∀x ∈ F + , ϕ(x, x) = ϕ0 (x, x) + ψ(x, x) ≥ γx2 − x2 = x2
2 2
γ γ
∀x ∈ F − , ϕ(x, x) = ϕ0 (x, x) + ψ(x, x) ≤ −γx + x = − x2
2 2
2 2
On a donc ϕ(x, x) > 0 sur F + {0} et ϕ(x, x) < 0 sur F − {0}. Ceci sut pour conclure que
ϕ est de signature (p, q) (voir la remarque 9 page 246). La boule de centre ϕ0 de rayon γ/2 est
donc incluse dans Bp,q , d'où le résultat.
Solution. a) La matrice A étant hermitienne positive, il existe une matrice a ∈ Mn (C) hermi-
tienne positive telle que A = a2 (c'est très classique, voir l'exercice 1 page 257). Comme A est
dénie, a est inversible. L'égalité AB = a2 B = a(aBa)a−1 montre que AB est semblable à aBa.
Cette dernière matrice est hermitienne, et positive car la matrice B étant positive,
∀X, X ∗ (aBa)X = (aX)∗ B(aX) ≥ 0.
Finalement, on a montré que AB est semblable à une matrice hermitienne positive, ce qui sut
à montrer que AB est diagonalisable à valeurs propres réelles positives.
b) C'est plus délicat. Comme à la question précédente, nous allons passer par la matrice aBa.
Soit k = rg(aBa). La matrice aBa étant hermitienne positive, on est assuré de l'existence
d'une famille libre de k vecteurs propres e1 , . . . , ek associés à des valeurs propres strictement
positives λ1 , . . . , λk . Pour tout i ∈ {1, . . . , k}, l'égalité (aBa)ei = λi ei entraîne
(a2 Ba)ei = λi aei donc (AB)fi = λi fi , avec fi = aei .
290 5. ESPACES EUCLIDIENS
Problème 11. Soient R, S, T ∈ Mn (C) trois matrices hermitiennes positives telles que
la matrice M = RST est hermitienne. Montrer que M est positive.
Solution. Il y a certainement beaucoup de façons de procéder. Celle que nous décrivons se
décompose en trois étapes, selon les propriétés vériées par la matrice T .
Première étape. Supposons T dénie. Alors T est la matrice d'un produit scalaire, de sorte
qu'il existe P ∈ Gn (C) telle que T = P ∗ P . Comme RST est hermitienne, on a facilement
RST = T SR donc
RSP ∗ P = P ∗ P SR d'où (P ∗ )−1 RSP ∗ = P SRP −1 ou encore R S = S R
avec R = (P ∗ )−1 RP −1 et S = P SP ∗ . Ainsi, les matrices R et S commutent. Comme elles sont
diagonalisables (car hermitiennes), on peut les diagonaliser dans une même base. De plus, leurs
valeurs propres sont positives (R et S sont hermitiennes positives) donc les valeurs propres de
R S sont positives. Ainsi, la matrice hermitienne R S est positive. Comme RST = P ∗ (R S )P
est congrue à R S , c'est aussi une matrice hermitienne positive.
Deuxième étape. Supposons Ker T ∩ Ker R = {0}. Pour tout ε > 0, la matrice T + εR est dénie
positive. En eet, elle est positive comme somme de matrices positives, et elle est dénie car si
X ∗ (T + εR)X = 0, le fait que X ∗ T X ≥ 0 et X ∗ RX ≥ 0 entraîne X ∗ T X = X ∗ RX = 0, donc
X ∈ Ker T ∩ Ker R = {0}.
4. PROBLÈMES 291
b) Lorsque k < n et λk (A) > λk+1 (A), donner une condition nécessaire et susante sur
la matrice A pour que l'inégalité (∗) soit une égalité.
2/ Soient A et B ∈ Mn (R) deux matrices symétriques et C = A + B . Montrer
k
k
k
∀k ∈ {1, . . . , n}, λi (C) ≤ λi (A) + λi (B).
i=1 i=1 i=1
k
Notons µi = j=1 pi,j .
2 Les µi vérient les propriétés suivantes
n k
n k k n
(i) µi = p2i,j = ej 2 = k, (ii) µi = p2i,j ≤ p2i,j = 1
i=1 j=1 i=1 j=1 j=1 j=1
(la dernière égalité résulte du fait que les vecteurs lignes de la matrice P forment également une
base orthonormale). Ainsi, (**) apparaît comme une pondération des (λi )1≤i≤n à coecients
positifs et ≤ 1, dont la somme des poids vaut k. La valeur maximale de cette pondération se
produit lorsque les poids sont les plus grands possibles pour les plus grandes valeurs possibles de
λi , ce qui est précisément le résultat attendu. On démontre ceci en partant de l'égalité (∗∗) qui
entraîne
k
n
k
n
aj,j = λi µ i ≤ λi µi + λk+1 µi .
j=1 i=1 i=1 i=k+1
L'assertion (ii) permet d'écrire µi sous la forme µi = 1 − γi avec γi ≥ 0 pour 1 ≤ i ≤ k ,
chaque
n
k
k
et d'après (i), µi = k − µi = γi . Finalement,
i=k+1 i=1 i=1
k k
k
k k k
aj,j ≤ λi (1 − γi ) + λk+1 γi = λi + (λk+1 − λi )γi ≤ λi . (∗∗∗)
j=1 i=1 i=1 i=1 i=1 i=1
b) Si (∗) est une égalité, alors la dernière inégalité de (∗∗∗) est une égalité, et compte tenu des
hypothèses, ceci entraîne γi = 0 pour 1 ≤ i ≤ k. Autrement dit, µ1 = . . . = µk = 1 cequi en vertu
de l'assertion (ii) entraîne pi,j = 0 pour 1 ≤ i ≤ k et k + 1 ≤ j ≤ n. Ainsi, ej = ki=1 pi,j fi ∈
Vect(f1 , . . . , fk ) pour 1 ≤ j ≤ k , donc Vect(e1 , . . . , ek ) = Vect(f1 , . . . , fk ). Les bases (e1 , . . . , en )
et (f1 , . . . , fn ) étant orthogonales, on a alors Vect(ek+1 , . . . , en ) = Vect(fk+1 , . . . , fn ). Il n'en faut
pas plus pour conclure que A, matrice de Φ dans la base (e1 , . . . , en ), se met sous la forme
A1 0
A=
0 A2
où les valeurs propres de A1 ∈ Mk (R) sont λ1 , . . . , λk .
k
k
Réciproquement, si la matrice A possède cette propriété, alors ai,i = tr(A1 ) = λi .
i=1 i=1
2/ Soit P ∈ Gn (R) une matrice orthogonale telle que D = P −1 CP est diagonale, ses coecients
diagonaux étant égaux à λ1 (C), . . . , λn (C). Notons A = P −1 AP et B = P −1 BP . On a D = A +
B et les matrices A et B sont semblables à A et B , on a donc λi (A ) = λi (A) et λi (B ) = λi (B)
pour 1 ≤ i ≤ n. Pour simplier les notations, pour toute matrice M = (mi,j )1≤i,j≤n on note
trk (M ) = ki=1 mi,i . On conclut à partir du résultat de la question 1/a), en écrivant
k
k
k
∀k ∈ {1, . . . , n}, λi (C) = trk (D) = trk (A ) + trk (B ) ≤ λi (A) + λi (B).
i=1 i=1 i=1
Autrement dit, les sommes de Newton de la r-liste (ν1 , . . . , νr ) sont égales à celles de la p + q -liste
(λ1 , . . . , λp , µ1 , . . . , µq ). Le lemme suivant nous permet de conclure que p + q = r et que ces listes
sont égales à une permutation prés.
Lemme. Soit s, t ∈ N et (x1 , . . . , xs ), (y1 , . . . , yt ) deux listes de nombres réels
non nuls, telles que
s
t
∀k ∈ N∗ , xki = yik . (∗).
i=1 i=1
Alors t = s et les deux listes sont égales à une permutation près.
Montrons ce lemme par récurrence
sur s ∈ N. Si s = 0, alors t = 0 sinon l'égalité (*) appliquée
avec k = 2 entraînerait 0 = ti=1 yi2 , donc les yi seraient nuls, ce qui est contraire aux hypothèses.
Supposons maintenant le lemme vrai jusqu'au rang s − 1. Notons X = maxi |xi |, Y = maxi |yi |,
puis I = {i | |xi | = X}, J = {i | |yi | = Y }. Les ensembles I et J sont non vides, et dans l'égalité
(*) appliquée aux indices pairs k = 2
lorsque
→ +∞, le terme de gauche est équivalent à |I| X 2
et celui de droite à |J| Y 2 . On en déduit X = Y puis |I| = |J|. En notant I = {i | xi = X} et
J = {i | yi = X}, l'égalité (*) appliquée aux indices impairs k = 2
+ 1 lorsque
→ +∞ donne
|I |X 2+1 − (|I| − |I |)X 2+1 = |J |X 2+1 − (|J| − |J |)X 2+1 + o(X 2 ) donc 2|I | − |I| = 2|J | − |J|,
donc |I | = |J |. Ainsi, les listes (xi )i∈I et (yi )i∈J sont égales à une permutation prés. On conclut
avec l'hypothèse de récurrence appliquée à (xi )i∈I et (yi )i∈J . (Une autre preuve de ce lemme,
purement algébrique, consiste à utiliser l'expression des coecients symétriques en fonction des
sommes de Newton voir l'exercice 3 page 86 , en complétant préalablement l'une des deux
listes avec des termes nuls pour qu'elles aient la même taille).
Considérons maintenant les endomorphismes a et b de Rn dont A et B sont les matrices dans
la base canonique de Rn . On a rg a = p, rg b = q , rg(a + b) = r = p + q donc
dim(Im a ∩ Im b) = rg a + rg b − dim(Im a + Im b) ≤ p + q − rg(a + b) = 0.
Donc Im a ∩ Im b = {0}. Soit (e1 , . . . , ep ) une base orthonormée de Im a, et (f1 , . . . , fq ) une base
orthonormée de Im b, de sorte que B = (e1 , . . . , ep , f1 , . . . , fq ) est une base de E = Im a ⊕ Im b. Le
sous-espace F = E ⊥ = Im a⊥ ∩ Im b⊥ = Ker a ∩ Ker b est stable par a et b (car a et b s'annulent
sur F ), donc E = F ⊥ est stable par a et b. Ainsi si on monte que a = a|E et b = b|E vérient
a b = 0, on aura prouvé le résultat puisque ab = 0 sur F et que E ⊕ F = Rn . Déterminons les
coecients des matrices de a et b dans la base B. Comme a(fi ) ∈ Im a et a(ej ) = λj ej , puis
b(ei ) ∈ Im b et b(fj ) = µj fj , compte tenu du caractère auto-adjoint de a et b on a
p
p
p
a(fi ) = ej , a(fi ) ej = a(ej ), fi ej = λj ej , fi ej ,
j=1 j=1 j=1
q q q
b(ei ) = fj , b(ei ) fj = b(fj ), ei fj = µj fj , ei fj .
j=1 j=1 j=1
Notons Dλ ∈ Mp (R) et Dµ ∈ Mq (R) les matrices diagonales dont les coecients diagonaux sont
λ1 , . . . , λp et µ1 , . . . , µq , puis M = (ei , fj ) 1≤i≤p ∈ Mp,q (R). Les matrices de a , b et c = a + b
1≤j≤q
dans la base B sont alors
Dλ D λ M 0 0 Dλ Dλ M
[a ]B = , [b ]B = , [c ]B = .
0 0 Dµ tM Dµ Dµ tM Dµ
On va montrer M = 0 ce qui prouvera [a ]B [b ]B = 0, donc a b = 0. On remarque que
Dλ 0 Ip M
[c ]B = N où N= t ,
0 Dµ M Iq
d'où on déduit det c = det Dλ · det Dµ · det N . Or c = c|E où c = a + b a pour matrice C dans la
base canonique de Rn , donc c a les mêmes valeurs propres non nulles λ1 , . . . , λp , µ1 , . . . , µq que
la matrice C , donc
p
q
det c = λi µi = det Dλ · det Dµ ,
i=1 i=1
294 5. ESPACES EUCLIDIENS
d'où on déduit det N = 1 car les λi et µi sont non nuls. Compte tenu de l'égalité
Ip −M I 0
N = tp ,
0 Iq M − tM M + Iq
Problème 14. Soit A = (ai,j )1≤i,j≤n ∈ Mn (R) une matrice symétrique dénie positive.
Montrer que la matrice
ai,j
B=
i+j 1≤i,j≤n
Si on montre que A(t) est dénie positive pour tout t ∈ ]0, 1[, alors d'après l'exercice 5 page 260,
on aura prouvé que la matrice
1 1
i+j−1 ai,j
A(t) dt = ai,j t dt = =B
0 0 1≤i,j≤n i+j 1≤i,j≤n
et comme A est dénie positive, on en déduit tXA(t)X = t( tXt AXt ) > 0. Ainsi, A(t) est bien
dénie positive pour tout t > 0, d'où le résultat.
4. PROBLÈMES 295
Problème 15. Soit P ∈ R[X] un polynôme de degré n ≥ 1, dont on note (αi )1≤i≤n les
racines complexes. Pour tout k ∈ N, on note sk = ni=1 αik et on considère la matrice
s0 s1 · · · sn−1
s1 s2 sn
A=
... .. .
.
sn−1 sn · · · s2n−2
On note q la forme quadratique dont A est la matrice dans la base canonique de Rn .
Montrer que la signature de q est égale à (r + s, s) où r est le nombre de racines réelles
distinctes de P et 2s le nombre de racines complexes non réelles distinctes de P .
Solution. Notons (e1 , . . . , en ) la base canonique de Rn . On remarque tout d'abord que
n n
n 2
i+j−2
−1
q xi ei = si+j−2 xi xj = αk xi xj = αk x .
i=1 1≤i,j≤n 1≤i,j,k≤n k=1 =1
Remarque. Les coecients sk sont les sommes de Newton des racines de P , et peuvent
se calculer aisément à partir des coecients de P grâce aux formules de Newton (voir
l'exercice 3 page 86).
Problème 16. Soient A, B ∈ Mn (R) deux matrices réelles unitairement semblables, i.e.
t
∃U ∈ Mn (C), U unitaire, A = U BU.
Montrer que A et B sont orthogonalement semblables, c'est-à-dire
∃Ω ∈ Mn (R), Ω orthogonale, A = t ΩBΩ.
(Indication : montrer l'existence de P ∈ Gn (R) telle que A = P −1 BP et tA = P −1 tBP ,
puis considérer la décomposition polaire P = ΩS , avec Ω orthogonale et S symétrique
voir l'exercice 6 page 261.)
Solution. Suivons l'indication et commençons par montrer l'existence d'une matrice réelle inver-
sible P telle que P A = BP et P tA = tBP . Le principe ressemble à la solution de la question a) du
problème 14 page 167 (c'est classique). On écrit la matrice unitaire U sous la forme U = U1 +iU2 ,
t
où U1 , U2 ∈ Mn (R). L'égalité A = U BU entraîne U A = BU et U tA = tBU , donc
U1 A = BU1 , U2 A = BU2 et U1 tA = tBU1 , U2 tA = tBU2 . (∗)
Le polynôme ϕ(X) = det(U1 + XU2 ) ∈ R[X] ne s'annule pas puisque ϕ(i) = det U = 0,
donc n'a qu'un nombre ni de racines. En choisissant x ∈ R tel que ϕ(x) = 0, la matrice
P = U1 + xU2 ∈ Mn (R) est inversible et par linéarité, les égalités (∗) donnent P A = BP et
P tA = tBP .
Nous considérons maintenant la décomposition polaire de P . Nous la retrouvons ici dans le
cas des matrices réelles (l'exercice 6 page 261 traite le cas des matrices complexes). La matrice
t
P P est symétrique positive (c'est classique, la positivité provient de l'identité tX( tP P )X =
t
(P X)(P X) = P X2 ), donc on peut trouver une matrice symétrique positive S ∈ Mn (R) telle
que tP P = S 2 (c'est également classique, il sut de diagonaliser tP P dans une base orthonormée,
voir l'exercice 1 page 257). Comme P est inversible, S l'est également et la matrice Ω = P S −1
vérie t ΩΩ = S −1 ( tP P )S −1 = In , donc est orthogonale. Ainsi, on a P = ΩS avec Ω orthogonale
et S ∈ Mn (R) symétrique dénie positive.
Achevons notre raisonnement. En prenant en compte la forme polaire de P , les égalités
P A = BP et P tA = tBP entraînent respectivement
A = P −1 BP = S −1 t ΩBΩ S et A = tP B tP −1 = S t ΩBΩ S −1 .
On en déduit SAS −1 = S −1 AS , donc S 2 commute avec A. Nous allons montrer que cela entraîne
le fait que S et A commutent. Pour cela, désignons par 0 < λ1 < . . . < λr les valeurs propres
de S et (Eλi (S))1≤i≤r les sous-espaces propres associés. En diagonalisant S , on s'aperçoit que S
et S 2 ont les mêmes sous-espaces propres : Eλi (S) = Eλ2i (S 2 ). Maintenant, si x ∈ Eλi (S), on a
S 2 Ax = AS 2 x ce qui entraîne S 2 (Ax) = λ2i (Ax). On en déduit Ax ∈ Eλ2 (S 2 ), donc Ax ∈ Eλi (S),
i
donc SAx = λi Ax = ASx. Ainsi, A et S commutent sur chaque sous-espace propre de S , donc
sur Rn tout entier. En repartant de A = S −1 t ΩBΩS , on en déduit AS = SA = t ΩBΩS , donc
A = t ΩBΩ est orthogonalement semblable à B .
Remarque. On montre de même que deux matrices symétriques réelles semblables sont
orthogonalement semblables.
Solution. 1/ a) L'ensemble H(f ) est compact car c'est l'image par l'application continue x →
f (x) · x du compact {x ∈ E, x = 1}.
Montrons que H(f ) est convexe. Donnons nous x, y ∈ E , x = y = 1 et posons ξ = f (x)·x
et η = f (y) · y . Il s'agit de montrer [ξ, η] ⊂ H(f ). Si ξ = η c'est terminé. Sinon, ξ = η , et on va
se ramener sur [0, 1]. Il existe deux nombres complexes α et β tels que
αξ + β = 1 et αη + β = 0.
On pose g = αf + β IdE . On a
[ξ, η] ⊂ H(f ) ⇐⇒ ∀t ∈ [0, 1], tξ + (1 − t)η ∈ H(f )
⇐⇒ ∀t ∈ [0, 1], ∃z ∈ E, z = 1, tξ + (1 − t)η = f (z) · z
⇐⇒ ∀t ∈ [0, 1], ∃z ∈ E, z = 1, t = α tξ + (1 − t)η + β = g(z) · z
⇐⇒ [0, 1] ⊂ H(g).
Montrons donc [0, 1] ⊂ H(g). On sait que g(x) · x = 1 et g(y) · y = 0. Écrivons g = u + iv
avec u et v autoadjoints (il sut de prendre u = 12 (g + g ∗ ) et v = 2i (g ∗ − g)). Quitte à multiplier
x par λ ∈ C, |λ| = 1, on peut supposer v(x) · y ∈ i R. Par ailleurs g(x) · x = 1 = u(x) · x − iv(x) · x
donc v(x) · x = 0 (ceci car u et v étant autoadjoints, u(x) · x et v(x) · x sont des nombres réels).
On a de même v(y) · y = 0.
Ceci étant, on pose h(t) = tx + (1 − t)y pour t ∈ [0, 1]. Comme ξ = f (x) · x = f (y) · y = η ,
les vecteurs x et y forment une famille libre. Ceci prouve que h(t) = 0 pour tout t ∈ [0, 1] et
v[h(t)] · h(t) = t2 v(x) · x + t(1 − t)[v(x) · y + v(x) · y] + (1 − t)2 v(y) · y = 0
(car v(x) · y ∈ iR). La fonction
g[h(t)] · h(t)
ψ : [0, 1] → C t →
h(t)2
prend donc ses valeurs dans R. De plus ψ est continue, ψ(0) = 0 et ψ(1) = 1 donc d'après le
théorème des valeurs intermédiaires, [0, 1] ⊂ ψ([0, 1]) ⊂ H(g), d'où le résultat.
b) Soit (e1 , . . . , en ) une base orthonormale
de vecteurs propres de f , associés aux valeurs propres
λ1 , . . . , λn de f . Pour tout x = ni=1 xi ei ∈ E tel que x = 1, on a
f (x) · x = f xi ei · xi e i = |xi |2 λi .
i i i
Comme i |xi |2 = 1, on en conclue que H(f ) est l'enveloppe convexe des λi . Dans le plan
complexe, on peut aussi voir H(f ) comme l'intérieur du polygone convexe dont les sommets sont
les λi .
2/ On procède par récurrence sur n = dim E . Pour n = 1, c'est évident. Supposons le résultat
vrai au rang n − 1 et montrons le au rang n.
Montrons déjà que 0 ∈ H(f ). Soit B = (e1 , . . . , en ) une base orthonormée et A la matrice de f
dans cette base. Les termes de la diagonale principale ai,i de A vérient la relation ai,i = f (ei )·ei ,
298 5. ESPACES EUCLIDIENS
Il existe donc un vecteur normé f1 tel que f (f1 ) · f1 = 0. Notons F l'hyperplan {f1 }⊥ et
g = pF ◦ f|F , où pF désigne la projection orthogonale sur F , de sorte que dans toute base B de
F,
0 × ··· ×
×
[f ](f1 ,B ) = . .
.. [g]B
×
On a donc tr g = 0, donc d'après l'hypothèse de récurrence, il existe une base B orthonormale
de F dans laquelle la matrice de g n'ait que des zéros sur la diagonale principale. Ainsi, la base
B = (f1 , B ) est une base orthonormale de E (car f1 ∈ F ⊥ ) et
0 × ··· × 0 × ··· ×
× ... ..
× 0 .
[f ]B = . = . ... ... .
.. [g]B .. ×
× × ··· × 0
Probabilités
M esurer le hasard est un concept abstrait qui mit beaucoup de temps à émer-
ger. Les premiers écrits connus sur les chances de gagner au jeu, datent de
Cardan, au XVIe siècle. Au XVIIe siècle, Kepler et Galilée font usage de cal-
culs de probabilités, puis l'engouement pour les jeux de hasard de cette époque
accéléra le developpement du calcul combinatoire, notamment avec Pascal et
Fermat. Un pas est franchi avec Bernoulli en 1713 lorsqu'il formule une version
simple de la loi des grands nombres. Au XVIIIe, Bayes introduisit la notion
de probabilité conditionnelle. Une avancée majeure fut réalisée en 1812 par
Laplace, permettant aux probabilités de dépasser la combinatoire, lorsque ce
dernier énonça une version du théorème de la limite centrale. Kolmogorov, en
1933, a rigoureusement mis en place l'axiomatique des probabilités, qui est à
la base de la théorie désormais adoptée.
1. Dénombrement
Le dénombrement trouve naturellement sa place en première partie d'un cours de
probabilités, car dans une situation d'équiprobabilité sur un espace ni, la probabilité d'un
événement s'obtient comme le rapport entre le nombre d'issues favorables et le nombre
total d'issues possibles.
1.1. Cardinal des ensemble nis
Définition 1 (Ensemble fini et cardinal). On dit qu'un ensemble E est ni s'il est
vide ou s'il existe n ∈ N∗ tel qu'il existe une bijection de {1, 2, · · · , n} dans E . Dans ce
cas, l'entier n ne dépend pas de la bijection, on l'appelle cardinal de E . Il est noté |E| (ou
Card(E), ou encore #E ). Si E est vide son cardinal est égal à 0.
Remarque 1. Un ensemble qui n'est pas ni, est dit inni. Les ensembles innis n'ont pas
tous la même "sorte" d'inni. Les ensembles innis dénombrables sont ceux en bijection
avec N. L'ensemble des nombres réels n'est pas dénombrable.
Proposition 1. Soient E et F deux ensembles.
Si E est ni et s'il existe une bijection de E vers F , alors F est ni et |F | = |E|.
Si F est ni et s'il existe un injection de E vers F , alors E est ni et |E| ≤ |F |,
avec égalité si et seulement si f est bijective.
Si E est ni et s'il existe une surjection de E vers F , alors F est ni et |F | ≤ |E|,
avec égalité si et seulement si f est bijective.
Remarque 2. On détermine parfois le cardinal d'un ensemble en construisant une
bijection avec un autre ensemble plus simple dont on connait le cardinal (c'est
une approche combinatoire). Les constructions de telles bijections sont parfois as-
sez astucieuses (voir par exemple la preuve combinatoire de la détermination des
nombres de Catalan, question 2/ de l'exercice 10 page 315).
De manière générale, pour deux ensembles E et F (pas forcément nis), s'il existe
une bijection de E vers F on dit que E et F sont équipotents. Lorsqu'il existe une
300 6. PROBABILITÉS
injection de E vers F on dit que E est subpotent à F . En quelque sorte, ceci permet
de généraliser au cas inni la comparaison de taille entre les ensembles. Par exemple
un ensemble ni est subpotent à N, lui même subpotent à R. Un résultat classique
(théorème de Cantor-Bernstein) arme que si deux ensembles sont subpotents l'un
à l'autre, alors ils sont équipotents.
Corollaire 1 (Principe des tiroirs). Soient E et F deux ensembles nis avec |E| >
|F |. Si ϕ est une application de E vers F , alors il existe y ∈ F ayant au moins deux
antécédents par ϕ dans E .
Remarque 3. Ainsi, si on doit ranger n + 1 chaussettes dans n tiroirs, alors un
des tiroirs (au moins) contiendra deux chaussettes ou plus. En anglais on parle de
pigeonhole principle (qui fait référence à la répartition des pigeons dans les trous
d'un pigeonnier).
Le principe des tiroirs peut entrainer des résultats assez puissants. Par exemple, il
permet de montrer que pour tout x ∈ R et pour tout n ∈ N∗ , il existe p/q ∈ Q
avec 1 ≤ q ≤ n tel que |x − p/q| < 1/(qn). On se ramène au principe des tiroirs
en considérant les n + 1 valeurs {mx} pour m = 1, . . . , n + 1 ({y} = y − [y] est la
partie fractionnaire de y ), toutes dans [0, 1[, et les n tiroirs [r/n, (r + 1)/n[ pour
r = 0, 1, . . . , n − 1. Au moins deux réels {ax} et {bx} avec a < b se retrouvent dans
le même tiroir, ce qui implique |{bx}−{ax}| < 1/n et donc |(b−a)x−[bx]+[ax]| <
1/n. En notant p = [bx] − [ax] ∈ Z et q = b − a ∈ N∗ on en déduit |qx − p| < 1/n
avec 1 ≤ q ≤ n (note : ce résultat fait parti d'un exercice du tome d'analyse).
Une autre conséquence amusante est la suivante : si on choisit 6 nombres distincts
dans {1, 2, 3, 4, 5, 6, 7, 8, 9, 10}, il en existe deux dont la somme vaut 11. En eet,
chacun des 6 nombres est dans l'un des 5 sous-ensembles {1, 10}, {2, 9}, {3, 8},
{4, 7}, {5, 6}, donc il y en a deux parmi les 6 qui sont dans le même sous-ensemble,
et leur somme vaut donc 11.
D'autres applications du principe des tiroirs font l'objet de l'exercice 3 page 306.
Proposition 2. Soit B un ensemble ni et A une partie de B . Alors A est ni et
|A| ≤ |B|. Si |A| = |B| alors A = B .
Proposition 3. Soient A et B deux ensembles nis.
On a |A ∪ B| = |A| + |B| − |A ∩ B|.
En particulier si A et B sont disjoints, alors |A ∪ B| = |A| + |B|.
On a |A B| = |A| − |A ∩ B|. En particulier si B ⊂ A on a |A B| = |A| − |B|.
Proposition 4. Soient A1 , . . . , An des ensembles nis deux à deux disjoints, c'est-à-dire
que pour tout (i, j) tels que 1 ≤ i < j ≤ n, on a Ai ∩ Aj = ∅. Alors
n n
Ai = |Ai |.
i=1 i=1
Remarque 4. Un cas particulier de ce dernier résultat est le suivant : si A1 , . . . , An forment
une partition d'un ensemble ni E , (c'est-à-dire si les Ai sont deux à deux disjoints et
si ni=1 Ai = E ), alors |E| = ni=1 |Ai |. Lorsque tous les Ai on le même cardinal k , alors
|E| = nk . Ce dernier résultat est connu sous le nom de lemme des bergers et est souvent
utilisé (implicitement) dans les problèmes combinatoires. Cette dénomination provient du
fait qu'un berger peut compter ses moutons s'il ne voit que leurs pattes, en divisant le
nombre de pattes par quatre.
Le théorème suivant généralise le premier résultat de la proposition 3. Il n'est pas
au programme des classes préparatoires, néanmoins il est utile et la preuve proposée ci-
dessous est à retenir.
1. DÉNOMBREMENT 301
Démonstration. Il est possible de procéder par récurrence sur n mais cette approche est peu
commode. Une preuve plus naturelle s'obtient en considérant les fonctions indicatrices 1Ai dé-
nies sur E = ∪ni=1 Ai par : 1Ai (x) = 1 si x ∈ Ai , = 0 sinon. L'indicatrice d'une intersection
est le produit des indicatrices, et l'indicatrice du complémentaire A d'une partie A de E est
1A = 1 − 1A . Ainsi on peut écrire
n
1A1 ∪...∪An = 1 − 1A1 ∪...∪An = 1 − 1A1 ∩...∩An = 1 − 1A1 · · · 1An = 1 − (1 − 1Ai ).
i=1
On en déduit
n
n
1A1 ∪...∪An = (−1)k−1 1Ai1 · · · 1Aik = (−1)k−1 1Ai1 ∩...∩Aik .
k=1 1≤i1 <...<ik ≤n k=1 1≤i1 <...<ik ≤n
et donc n
n
Ai = 1A1 ∪...∪An (x) = (−1)k−1 1Ai1 ∩...∩Aik (x)
i=1 x∈E x∈E k=1 1≤i1 <...<ik ≤n
n
= (−1)k−1 1Ai1 ∩...∩Aik (x).
k=1 1≤i1 <...<ik ≤n x∈E
On conclut en observant que x∈E 1Ai1 ∩...∩Aik (x) = |Ai1 ∩ . . . Aik |.
Dans une liste, l'ordre des éléments importe (ce n'est pas un ensemble), et un
même élément peut gurer plusieurs fois dans la liste. Ainsi les listes modélisent
les tirages successifs avec remise. Par exemple, dans un jeu de 52 cartes, le nombre
de façons de tirer 10 cartes avec remise est 5210 .
Proposition 7. Soit E un ensemble. On pose n = |E|. Soit p ∈ N∗ , p ≤ n. On appelle
p-arrangement de E toute p-liste de E d'éléments distincts. Le nombre de p-arrangements
de E est Apn = n(n − 1) · · · (n − p + 1) = n!/(n − p)!. En particulier si p = n le nombre de
n-arrangements de E est n!.
Remarque 6. Construire un p-arrangement de E , c'est donc choisir un premier
élément de E (n possibilités), puis un deuxième élément distinct du premier ( n − 1
possibilités), etc, jusqu'à un p-ième élément distinct des p − 1 précédents (n − p + 1
possibilités). Le nombre total est donc bien n(n − 1) · · · (n − p + 1).
Dans les arrangements, l'ordre des éléments importe mais ceux ci sont distincts.
Ainsi les arrangements modélisent les tirages successifs sans remise. Par exemple,
dans un jeu de 52 cartes, le nombre de façons de tirer 10 cartes sans remise est
52 = 52 × 51 × . . . × 43.
A10
302 6. PROBABILITÉS
1.3. Combinaisons
Définition 3. Soit E un ensemble ni, soit n = |E|. Soit p ∈ N. On appelle p-combinaison
de E tout partie de Edecardinal p. Le nombre de p-combinaisons de E ne dépend que
n
de n et p. On le note ou encore Cnp .
p
n n! n
Proposition 10. Si 0 ≤ p ≤ n, on a = . Lorsque p > n on a = 0.
p p!(n − p)! p
Remarque 8. La notation Cnp est de moins en moins utilisée car peu commode.
Dans les combinaisons, les éléments sont distincts et leur ordre n'importe pas. Ainsi
les combinaisons modélisent les tirages simultanés. Par exemple, dans
un jeu de 52
52
cartes, le nombre de façons de tirer 10 cartes simultanément est .
10
n!
Il est remarquable que soit un entier. Cette propriété est utilisée dans le
p!(n − p)!
2n
sujet d'étude 1 page 47 à partir de l'entier pour prouver qu'il existe toujours
n
au moins un nombre premier p vériant n < p < 2n − 2, dès que n ≥ 4.
Pour 1 ≤ p ≤ n, on appelle p-liste strictement croissante de {1, . .. , n} toute famille
n
d'entiers (i1 , . . . , ip ) telle que 1 ≤ i1 < . . . < ip ≤ n. Il y a p-listes de cette
p
1. DÉNOMBREMENT 303
Démonstration. Remarquons que lorsque p > n, il est facile d'obtenir les trois dernières propriétés
(les termes sont nuls). On peut donc se placer dans le cas où p ≤ n.
Les trois premières propriétés sont faciles à montrer avec une approche combinatoire, ou à
partir de la proprosition 10.
q q+1 q
Pour montrer la dernière propriété on part de l'identité = − (consé-
p p+1 p+1
quence de la formule de Pascal) que l'on somme sur q . On peut aussi en obtenir une preuve
combinatoire en procédant comme suit. Pour tout k, 1 ≤ k ≤ n − p + 1, on note Ak l'ensemble
des parties P de {1, . . . , n + 1} à p + 1 éléments tel que le plus petit entier dans P est k. Il y a
autant d'éléments
dans Ak que dans l'ensemble des parties de {k + 1, . . . , n + 1} à p éléments,
n−k+1
donc |Ak | = . Comme toute partie de {1, . . . , n + 1} à p + 1 éléments est dans l'un
p
et l'un seulement des Ak avec 1 ≤ k ≤ n − p + 1, on en déduit
n−p+1
n+1 n n−1 p
= |Ak | = + + ··· + .
p+1 p p p
k=1
n
Remarque 9. Cette formule justie le nom de coecients binomiaux pour les .
k
Cette formule peut être utilisée lorsque a et b sont des nombres réels ou complexes,
des polynômes, et aussi lorsque a et b sont des matrices qui commutent.
La formule de Vandermonde énoncée ci-dessous n'est pas au programme des classes
préparatoires mais elle est classique et il faut savoir la redémontrer.
Remarque 10. La formule de Vandermonde est vériée même si p > n ou p > m
(rappelons que nk = 0 si k > n).
On peut aussi en donner une preuve combinatoire, en comptant de deux manières
diérentes le nombre de parties à p éléments d'un ensemble E ∪ F , ou E et F sont
disjoints de cardinal respectifs m et n.
Dans le cas particulier où m = p, on en déduit (en utilisant la formule de symétrie)
n
n m n+m
= .
k=0
k k m
En particulier si n = m on obtient
n 2
n 2n
= .
k=0
k n
Coecient multinomial.
Proposition 15. Soit E un ensemble ni non vide et soit n = |E|. Soit p ∈ N∗ et
i1 , . . . , ip des entiers naturels tels que i1 + · · · + ip = n. Alors le nombre de partitions
ordonnées (A1 , . . . , Ap ) de E , telles que pour tout k , |Ak | = ik est égal à
n n!
= .
i1 , . . . , ip i1 ! · · · ip !
1. DÉNOMBREMENT 305
1.4. Exercices
Exercice 1. On dispose d'un jeu de 32 cartes. On rappelle que la couleur désigne carreau,
coeur, pique ou trèe, et que la hauteur désigne (dans l'ordre) : as, roi, dame, valet, 10,
9, 8, 7. On tire 5 cartes dans le paquet de 32 cartes.
1/ Combien y a t-il de mains possibles ?
2/ Combien de mains contiennent :
a) un carré (4 cartes de même hauteur et une autre carte) ?
b) un full (3 cartes de même hauteur et 2 autres de même hauteur) ?
c) une quinte ush (5 cartes de hauteurs consécutives dans une même couleur) ?
d) une quinte (5 cartes de hauteurs consécutives pas toutes de même couleur) ?
1/ Une main correspond à un sous-ensemble de 5 cartes parmi les 32 cartes, donc il y
Solution.
32 32 × 31 × 30 × 29 × 28
en a = = 201 376.
5 1×2×3×4×5
2/a) Il y a 8 possibilités d'avoir 4 cartes de même hauteur (autant que de hauteurs), et la
cinquième carte doit être choisie parmi les 28 cartes restantes. On en déduit qu'il y a 8×28 = 224
carrés possibles.
4
b) Pour chacune des 8 hauteurs, il y a = 4 possibilités d'avoir trois cartes de cette hauteur,
3
ce qui donne 8 × 4 = 32 possibilités pour les trois premiers cartes. Les deux autres
cartes doivent
4
être de même hauteur parmi les 7 hauteurs restantes, donc au nombre de 7 × = 7 × 6 = 42.
2
En tout on a donc 32 × 42 = 1344 fulls possibles.
c) Pour chaque couleur, il y a 4 possibilités d'avoir 5 cartes de hauteurs consécutives, donc
4 × 4 = 16 quintes ush en tout.
d) Si on ne tient pas compte de la couleur, il y a 4 possibilités d'avoir 5 cartes de hauteurs consé-
cutives. Chacune peut prendre l'une quelconque des 4 couleurs donc cela fait 4 × 45 possibilités
d'avoir 5 cartes de hauteurs consécutives. En retirant les cas où les 5 cartes ont la même couleur
(les quintes ush) cela donne 4 × 45 − 16 = 4080 suites au total.
où on a utilisé la formule de Vandermonde pour la dernière égalité (voir la remarque qui suit la
proposition 14 page 304, dans le cas où n = m = p). On peut retrouver ce résultat sans passer par
306 6. PROBABILITÉS
la formule de Vandermonde, en remarquant que A est en bijection avec l'ensemble B des parties
de {1, 2, . . . , 2n} à n éléments : pour tout P ∈ A, on associe Q ∈ B déni par Q = Q0 ∪ Q1 , où
Q0 est l'ensemble des entiers pairs de P , et Q1 l'ensemble des entiers impairs de {1, . . . , 2n} qui
ne sont pas dans P . On a bien Q ∈ B car |Q| = |Q1 | + |Q2 | = |Q1 | + (n − |Q1 |) = n.
b) Le même raisonnement implique que le nombre de de parties recherchées est
n
n 2n 3n
= ,
k k n
k=0
où on a également utilisé la formule de Vandermonde, dans le cas m = p = 2n. Un raisonnement
combinatoire similaire au précédent permet aussi de retrouver directement ce résultat.
b) Prouver (*) directement, en construisant une bijection de Fc (p, n) vers l'ensemble des
parties à p éléments de {1, . . . , n + p − 1}.
c) Prouver (*) en considérant le coecient de xp dans la série entière 1/(1 − x)n .
Solution. Notons que ceci revient à dire que les p-combinaisons avec répétition de E sont les
classes d'équivalence des p-listes de E , pour la relation d'équivalence
(a1 , . . . , ap ) R (b1 , . . . , bp ) ⇐⇒ ∃σ ∈ Sp , (a1 , . . . , ap ) = (bσ(1) , . . . , bσ(p) ).
Solution. 1/ On va montrer que Fs (p, n) en est bijection avec les parties de {1, . . . , n} à p
éléments. Considérons une fonction f strictement croissante de {1, . . . , p} vers {1, . . . , n}. On
construit une partie de {1, . . . , n} par ϕ(f ) = {f (1), f (2), . . . , f (p)}. Comme f est stricte-
ment croissante, les f (k) sont distincts et donc ϕ(f ) est bien une partie à p éléments. ϕ est
injective. Réciproquement, considérons une partie P de {1, . . . , n} à p éléments. On peut écrire
P = {a1 , . . . , ap } avec a1 < . . . < ap . La fonction f (k) = ak est bien une fonction strictement
croissante de{1, . . . , p} dans {1, . . . , n}. Ainsi, on a montré que ϕ est bijective. On en déduit
n
|Fs (p, n)| = .
p
2/a) Notons F (p, n) l'ensemble des fonctions en question. Pour toute fonction f de F (p, n), on
construit la fonction g = ϕ(f ) de Fs (p, n − (p − 1)) par : g(k) = f (k) − (k − 1). Il est clair
que les conditions sur f sont équivalentes à dire
que g est strictement croissante. Donc ϕ est
n − (p − 1)
bijective, et |F (p, n)| = |Fs (p, n − (p − 1)| = .
p
b) On compte d'abord les façons de placer les adultes. Notons i1 < . . . < ip leur emplacement
sur le banc. Avoir au moins enfants entre chaque adulte, revient à avoir ik+1 − ik > pour
1 ≤ k ≤ p − 1. Ainsiil y a autant
de façons d'avoir des emplacements d'adultes que de fonctions
n − (p − 1)
dans F (p, n), donc façons. Pour chacun, il y a p! placements d'adultes, et il y a
p
ensuite (n − p)! façons de placer les n − p enfants sur les n − p places restantes. Le nombre de
façons de placer les n personnes sur le banc pour
avoir toujours au moins enfants entre deux
n − (p − 1)
adultes est donc égal à p!(n − p)! .
p
c) On numérote les emplacements de la table de 1 à n. Les places prises par les adultes autour
de la table correspondent à une partie P de {1, . . . , n} à p éléments (pour le moment on ne
considère que les placements absolus autour de la table, i.e. on diérencie les placements relatifs,
et on ne prend en compte que les places prises par les adultes). Les placements possibles sont
plus restreints que sur un banc car entre l'adulte d'emplacement de plus petit indice et celui du
plus grand indice, on doit avoir au moins enfants (du coté où on passe de l'emplacement n à
l'emplacement 1). Désignons par A l'ensemble des façons d'avoir des places d'adultes autour de
la table. On a P ∈ A si et seulement si les éléments i1 , . . . , ip de P , rangés en ordre croissants,
vérient ik+1 − ik > pour 1 ≤ k ≤ p − 1, et i1 + n − ip > . On partitionne les placements de
A en fonction du fait que le plus petit élément i1 de P vérie 1 ≤ i1 ≤ ou i1 > . Ceci revient
1. DÉNOMBREMENT 309
2n
b) Notons E la somme à gauche dans l'identité de la question 2/b). On va montrer E = 1.
n
Pour cela, on remarque que pour tout k on a
−1
n 2n 2n n! k!(2n − k)! (2n)! (2n − k)! 2n − k
= = = .
k k n k!(n − k)! (2n)! (n!)2 (n − k)!n! n
On a donc
n
−1 n
2n n n 2n 2n n 2n − k
E= (−1)k × = (−1)k = 1,
n k k k n k n
k=0 k=0
où la dernière égalité provient de l'identité de la question précédente.
vaut n (de manière équivalente, c'est l'ensemble des manières d'écrire n comme la somme
de 1 et de 2). Montrer que |An | = Fn .
b) On note Bn l'ensemble des parties de {1, . . . , n} sans entiers consécutifs. Montrer
|Bn | = Fn+1 , en établissant une bijection entre Bn et An+1 .
c) Montrer que
n − k
[n/2]
= Fn . (∗)
k=0
k
Solution. 1/ C'est hyper classique. On a aaire à une récurrence linéaire d'ordre 2 (voir le tome
analyse, dans la section
√ sur les suites),√dont l'équation caractéristique est x2 − x − 1. Elle a deux
racines, ϕ = (1 + 5)/2 et ψ = (1 − 5)/2 (notons que ψ = −1/ϕ). Ainsi on sait qu'il existe
deux coecients a et b tels que Fn √ = aϕn + bψ n . Les
√ cas n = 0 et n = 1 donnent 1 = a + b et
1 = aϕ + bψ d'où on déduit a = ϕ/ 5 et b = −ψ/ 5. On a donc
√ n+1 √ n+1
ϕn+1 − ψ n+1 1 1+ 5 1− 5
∀n ∈ N, Fn = √ =√ −
5 5 2 2
1 2 3 4 5 6 7 8 9 10 11
Or pour 1 ≤ i1 < . . . < ik ≤ n, Ai1 ∩. . .∩Aik est l'ensemble des permutations qui laissent i1 , . . . , ik
invariants, il y a donc (n − k)! permutations de ce type. Donc |Ai1 ∩ . . . ∩ Aik | = (n − k)!. Par
1. DÉNOMBREMENT 313
n
ailleurs, il y a façons d'avoir des indices i1 , . . . , ik tels que 1 ≤ i1 < . . . < ik ≤ n. Donc
k
n n!
Sk = (n − k)! = . D'après la formule précédente on en déduit
k k!
n
n
(−1)k
dn = |Dn | = n! − Ai = n! . (∗)
k!
i=1 k=0
2/ Fixons n ∈ N∗ et désignons par Fk l'ensemble des permutations de {1, . . . , n} qui ont k points
xes. Les (Fk )0≤k≤n forment une partition de l'ensemble des permutations de {1, . . . , n}. Choisir
une permutation dans Fk revient à choisir une partie P de n − k entiers parmi {1, . . . , n} puis à
choisir
une permutation
sans point xe de P (et laisser les k autres points xes). On en déduit
n
|Fk | = dn−k . On a donc
n−k
n
n
n
n n
n! = |Sn | = |Fk | = dn−k = dk .
n−k k
k=0 k=0 k=0
Donc
+∞ +∞ +∞ n
+∞
(−1)n (−1)k
n n n
D(z) = exp(−z) z = z z = zn.
n! k!
n=0 n=0 n=0 n=0 k=0
donc
+∞
+∞
dn − n! ≤ n!
=
1
+
1
+ ··· <
1 1
= .
e k! n + 1 (n + 1)(n + 2) (n + 1)p n
k=n+1 p=1
Lorsque n ≥ 2 on en déduit dn ≤ dn + 1/2 − 1/n < n!/e + 1/2 < dn + 1/2 + 1/n ≤ dn + 1 donc
dn < n!/e + 1/2 < dn + 1 et on a bien dn = [n!/e + 1/2]. Cette formule est également vraie
lorsque n = 1, d'où le résultat.
Remarque. On a ici répondu au célébre problème des chapeaux : n personnes laissent leur
chapeau à un vestiaire. En repartant, chaque personne reprend un chapeau au hasard.
Quelle est la probabilité qu'aucune personne ne reprenne son propre chapeau ? Cette
probabilité est égale à 1/e (à une erreur < 1/n! près).
Les dérangements sont un cas particulier des permutations dont les cycles sont tous de
longueur > k , étudiés dans le problème 3 page 369.
314 6. PROBABILITÉS
2/ A toute partition P de {1, . . . , n}, on peut associer une permutation ϕ(P ) de {1, . . . , n} qui
est le produit des cycles de chaque partition de P . Ainsi construite, ϕ est une application injective
vers le groupe symétrique Sn , donc Bn ≤ n! (on peut aussi retrouver ce résultat par récurrence
sur n avec la formule de récurrence précédente). On en déduit que le rayon de convergence de
B(z) est ≥ 1. La relation de récurrence établie précédemment s'interprète en produit de Cauchy,
en remarquant que
n
Bn+1 Bk 1
=
n! k! (n − k)!
k=0
qui entraîne, lorsque |x| < 1
+∞
+∞ +∞
Bn+1 Bn xn
n n
B (x) = x = x = B(x) exp(x).
n! n! n!
n=0 n=0 n=0
Ainsi, la fonction B vérie l'équation diérentielle B (x) = B(x)ex sur ]0, 1[. On en déduit
l'existence de λ ∈ R tel que B(x) = λ exp(exp(x)). En faisant x = 0 on a 1 = B0 = B(0) =
λ exp(1) donc λ = 1/e. Donc nalement B(x) = exp(exp(x))/e.
3/ La série entière dénissant l'exponentielle a un rayon de convergence inni. On peut donc
écrire, pour tout z ∈ C
+∞ mz
+∞
+∞
e (mz)n
exp(exp(z)) = = .
m! m!n!
m=0 m=0 n=0
La série double m,n um,n dénie par um,n = (mz)n /(m!n!) est sommable, car
M
N M
N M
(m|z|)n exp(m|z|)
∀(M, N ) ∈ N2 , |um,n | ≤ ≤ ≤ exp(exp(|z|)).
m!n! m!
m=0 n=0 m=0 n=0 m=0
On peut donc intervertir les signes de sommations, ce qui donne
+∞
+∞
1 1 mn z n
B(z) = exp(exp(z)) = .
e e m! n!
n=0 m=0
n
Remarque. On a Bn = k=1 S(n, k), où S(n, k) est le nombre de Stirling de seconde
espèce, qui compte le nombre de partitions de {1, . . . , n} de k sous-ensembles (voir la
remarque du problème 7 page 379).
Exercice 10 (Nombres de Catalan). On appelle mot binaire une liste de {0, 1}. Le
mot w = (a1 , a2 , . . . , ap ) est noté w = a1 a2 . . . ap , la longueur de w est p. La concaténation
de deux mots u et v est le mot noté uv , obtenu en mettant bout à bout u et v . Un préxe
d'un mot w = a1 . . . ap est tout mot de la forme w = a1 . . . aq avec 1 ≤ q ≤ p. Une
représentation graphique d'un mot binaire w = a1 . . . ap , est obtenue à partir la fonction
1 si ak = 1
fw : {0, 1, . . . , p} → Z fw (0) = 0, fw (k) − fw (k − 1) =
−1 si ak = 0
puis en construisant la ligne brisée qui relie les points (k, fw (k)) (voir la gure ci dessous).
Un mot binaire w est un mot de Dyck s'il contient autant de 0 que de 1, et si dans tous
2
1 3 4 5 6 7 8 9 10
les préxes de w il y a toujours moins de 0 que de 1. On note Dn l'ensemble des mots
de Dyck de longueur 2n. Par convention, le mot vide est un mot de Dyck (cas n = 0).
1/ Interpréter les mots de Dyck à partir de leur représentation graphique. Déterminer
une relation de récurrence sur Cn = |Dn |, puis calculer explicitement Cn .
2/ Pour tout mot w = a1 . . . ap et pour k ∈ N (k < p), on note ck (w) la permutation
circulaire ck (w) = ak+1 . . . ap a1 . . . ak (de même longueur p que w). Montrer que parmi les
permutations circulaires de tout mot binaire w constitué de n + 1 1 et n 0, il y en a
une et une seule qui s'écrit sous la forme w = 1w , où w est un mot de Dyck. Retrouver
ensuite directement l'expression de Cn .
Solution. 1/ Avoir autant de 0 que de 1 dans un mot binaire équivaut à ce que la ligne brisée
de sa représentation graphique revient sur l'axe des abscisses. Avoir tout préxe de ce mot avec
plus de 1 que de 0 revient à avoir cette ligne brisée toujours au dessus de l'axe des abscisses.
Ainsi les mots de Dyck sont ceux dont la représentation graphique est une ligne brisée toujours
au dessus de l'axe des abscisses, qui termine sur l'axe des abscisses (voir la gure ci-dessous).
Soit n ∈ N∗ . Pour obtenir une récurrence sur les Cn , on remarque que tout mot w ∈ Dn s'écrit
1 2 3 4 5 6 7 8 9 10
On en déduit
n−1
Cn = Ck Cn−1−k .
k=0
On reconnait l'expression de coecients d'un produit de Cauchy. Ceci nous invite à considérer la
+∞
série génératrice ordinaire des (Cn ), dénie par C(z) = Cn z n . Il y a moins de mots dans Dn
n=0
que de mots binaires de longueur 2n, donc Cn ≤ 22n , donc C(z) est une série entière de rayon
de convergence ≥ 1/4. Lorsque x ∈ R, avec |x| < 1/4 et x = 0, la relation de récurrence obtenue
plus haut permet d'écrire
n
+∞
+∞
C(x) − 1
C 2 (x) = Ck Cn−k xn = Cn+1 xn = .
x
n=0 k=0 n=0
1 + ε 1 − 4x
tions sont fε (x) = avec ε ∈ {−1, 1}. On note que lim f1 (x) = +∞ alors que
2x x→0
x>0 √
1 − 4x 1−
C(x) est continue en 0, donc C(x) = f1 (x). On en déduit C(x) = f−1 (x) = . Le
√ 2x
developpement en série entière de 1 + u = (1 + u) entraîne
1/2
+∞
n−1 n−1
√ 1 1 (−1)n−1 2k − 1
1 − 4x = n
an (−4x) , avec an = −k = .
n! 2 2 · n! 2
n=0 k=0 k=1
On a
(−1)n−1 (2n − 2)! (−1)n−1 (2n − 2)! (−1)n−1 1 2n − 2
an = = = 2n−1 .
2n n! 2 × 4 × · · · × (2n − 2) 2n n! 2n−1 (n − 1)! 2 n n−1
√ 2 2n − 2
On en déduit que le coecient de xn dans 1 − 4x est − . Compte tenu de l'expression
n n − 1
1 2n
C(z) = f−1 (x), l'identication de coecients fournit Cn = .
n+1 n
2/ Considérons un mot w formé de n + 1 1 et n 0. On s'aide de la représentation graphique
de w. On obtient les permutations cycliques de w à partir d'une fenêtre glissante de longueur
2n + 1 dans le mot w concaténé avec lui-même (sans la derniere lettre). Trouver un sous-mot
de Dyck de longueur 2n, juste après un 1, revient à pouvoir placer sous le graphe une règle
horizontale de longueur 2n, au dessus de laquelle est posée la représentation de ce sous-mot de
Dyck. Comme le suggère la gure ci-dessous, on trouve un mot de Dyck un pas après le dernier
minimum atteint par la courbe.
1 2 3 4 5 6 7 8 9 10
Figure 4. Représentation de w = 1010110, concaténé avec lui-même (en poin-
tillé) sans la dernière lettre. Un sous-mot de Dyck de longueur 6 (souligné) précédé
d'un pas croissant, se trouve un pas après le dernier moment où la courbe atteint
son minimum.
Cette constatation graphique nous invite à considérer l'indice
= max{k ≤ 2n | fw (k) = m}, où m = min{fw (0), fw (1), . . . , fw (2n)}.
Nous allons montrer que c (w) = 1y , où y est un mot de Dyck, et que ∈ N est le seul indice
La première lettre de c (w) est 1 . En eet, par dénition , on a fw (k) > m = fw ()
pour k > , en particulier a+1 = fw ( + 1) − fw () > 0 donc a+1 = 1. Le mot x = c (w)
s'écrit donc sous la forme x = 1y où y est un mot qui a forcément n 1 et n 0. Il reste
à montrer que dans tous les préxes de y , il y a moins de 0 que de 1. On remarque
que la fonction fx vérie
fw (k + ) − fw () pour 0 ≤ k ≤ 2n + 1 −
fx (k) =
fw (k + − (2n + 1)) + 1 − fw () pour 2n + 1 − < k ≤ 2n + 1
Comme le vecteur Vi − W a toutes ses coordonnées nulles, sauf la i-ième qui vaut ci − a on en
déduit
λ1 (c1 − a) = −µa, ..., λn (cn − a) = −µa. (∗)
Pour tout i, on a ci = |Ai | ≥ |Ai ∩ Aj | = a (en choisissant un j = i). Au plus l'un des ci est
égal à a (si ci = cj = a on a |Ai ∩ Aj | = |Ai | donc Ai ∩ Aj = Ai , de même Ai ∩ Aj = Aj donc
Ai = Aj , ce qui entraîne i = j d'après les hypothèses). Maintenant on traite deux cas.
Premier cas : ci > a pour tout i. Alors d'après (*) tous les λi ont le même signe, donc du
signe de µ = λ1 + · · · + λn , et comme λi (ci − a) = −µa la seule possibilité est λi = µ = 0.
Deuxième cas : l'un des ci est égal à a, par exemple cn = a, et ci > a pour i < n. Dans
ce cas µa = 0 (d'après la dernière égalité de (*)) donc µ = 0. Donc les n − 1 premières
égalités de (*) entraînent λi = 0 pour i < n, puis λn = µ − i<n λi = 0.
Ainsi la famille (Vi )1≤i≤n est libre, donc B est inversible. On en déduit rg tAA = n, donc rg A ≥ n,
et comme A a m lignes ceci n'est possible que si m ≥ n, ce qu'il fallait démontrer.
Remarque. On aurait pu également montrer l'inversibilité de B à partir du calcul de son
déterminant qui est classique (voir la question c) de l'exercice 2 page 145).
2. Espaces probabilisés
2.1. Le langage des probabilités
La théorie des probabilités modélise les phénomènes dans lesquels le hasard intervient.
Elle a des applications dans de nombreux domaines (physique, médecine, météorologie,
marchés boursiers, etc) et dans ce contexte, a son vocabulaire propre.
Les expériences aléatoires sont les expériences E dont le résultat est soumis au hasard.
L'espace des résultats possibles associés à l'expérience s'appelle l' univers, il est souvent
noté Ω (on l'appelle parfois espace d'états). Voici quelques exemples d'expériences aléa-
toires avec l'univers associé :
Lancement de dé : l'expérience aléatoire est celle du résultat d'un lancement de dé
à 6 faces, et l'univers est Ω = {1, 2, 3, 4, 5, 6}.
On tire successivement deux boules dans une urne contenant n boules noires et
blanches, puis on observe leurs couleurs. Ici Ω = {(B, B), (B, N ), (N, B), (N, N )}.
Un colis doit arriver entre 15h et 18h, on observe le temps d'attente. On a Ω = [0, 3].
On observe le prix d'une action en bourse, sur tout l'intervalle de temps [t0 , t1 ]. Ici
Ω = C([t0 , t1 ], R+ ), l'ensemble des fonctions continues de [t0 , t1 ] dans R+ .
Les événements (la dénition rigoureuse sera donnée plus bas) associés à l'expérience
aléatoire E , d'univers Ω, sont les sous-ensembles de Ω dont on peut dire s'ils sont réalisés
ou non. Des exemples d'événements sont les suivants :
2. ESPACES PROBABILISÉS 319
Dans l'expérience de lancement de dé, l'événement le dé montre une valeur paire
est le sous-ensemble A = {2, 4, 6} de Ω.
Dans l'attente du colis entre 15h et 18h, A = ]2, 3] est l'événement l'attente a duré
plus de 2 heures.
L'événement le prix d'une action en bourse ne varie pas plus de 10% entre t0 et
t1 est A = {f ∈ C([t0 , t1 ], R+ ) | supt0 ≤t≤t1 |f (t) − f (t0 )| ≤ f (t0 )/10}.
Ici aussi, plutôt que d'utiliser des termes ensemblistes, le langage utilisé sur les événements
est propre aux probabilités :
L'ensemble ∅ est l'événement impossible.
L'ensemble Ω est l'événement certain.
Deux événements A et B tels que A ∩ B = ∅ sont dit incompatibles.
Si A ⊂ B on dit que A implique B .
2.2. Probabilités
Intuitivement, la probabilité d'un événement est la vraisemblance qu'il se produise.
C'est un nombre réel dans [0, 1]. Pour dénir les probabilités sur l'ensemble des événements
A, il faut (pour des raisons techniques) que A vérie certaines propriétés. Lorsque Ω est
ni ou dénombrable, on verra qu'on peut choisir A = P(Ω), mais dans le cas général (par
exemple si Ω = R) , on ne sait pas toujours dénir une probabilité sur n'importe quelle
partie de Ω. La notion de tribu, dénie plus bas, permet de se limiter à des parties de Ω
dont on sait dénir leur probabilité de réalisation.
Tribus.
Définition 1. Soit Ω un ensemble. On appelle tribu sur Ω une famille T de parties de
Ω, vériant les propriétés
(i) ∅ ∈ T et Ω ∈ T .
(ii) Pour tout A ∈ T , on a AC ∈ T (AC désigne le complémentaire ΩA de A).
(iii) Si (An )n∈N est une suite d'éléments de T , alors ∪n∈N An ∈ T .
Le couple (Ω, T ) est alors appelé espace probabilisable , l'ensemble Ω l'univers, et les élé-
ments de T s'appellent des événements.
Remarque 1. (iii) et (ii) entraînent que l'intersection dénombrable d'éléments de T
est dans T .
La réunion (ou l'intersection) nie d'éléments de T est dans T (prendre Ak = ∅ à
partir d'un certain rang dans la propriété (iii)).
Notons que (iii) n'entraîne pas que T soit stable par réunion (ou intersection)
innie non dénombrable.
Exemple 1. T = {∅, Ω} est une tribu, appelée tribu grossière (ou triviale) sur Ω.
L'ensemble T = P(Ω) est une tribu sur Ω. C'est cette tribu que l'on choisira
pour l'ensemble A des événements dont on mesure la probabilité, chaque fois que
Ω est ni ou dénombrable. Dans le cas général, pour des raisons fondamentales
discutées rapidement plus bas, cette tribu sera trop grande dès que Ω est inni non
dénombrable, pour que l'on puisse dénir la probabilité de tous ses éléments.
Proposition 1. Soit (Tλ )λ∈Λ une famille de tribu sur Ω. Alors ∩λ∈Λ Tλ est une tribu sur
Ω. Ainsi, si X est une partie de P(Ω), l'intersection des tribus contenant X est la plus
petite tribu contenant X , on l'appelle tribu engendrée par X .
Exemple 2. Si A ⊂ Ω, la tribu engendré par {A} est T = {∅, A, AC , Ω}.
Si (Ai )i∈I est une partition nie ou dénombrable
de Ω, la tribu engendrée par
{Ai , i ∈ I} est l'ensemble des réunions BJ = j∈J Aj où J parcourt l'ensemble
des parties de I .
320 6. PROBABILITÉS
On dit alors que (Ω, A, P ) est un espace probabilisé, et P sa mesure de probabilité (ou loi
de probabilité).
Proposition 2. Soit (Ω, A, P ) un espace probabilisé. On a les propriétés suivantes :
(i) Pour tout événement A dans A, on a P (AC ) = 1 − P (A).
(ii) Pour tout n ∈ N∗ et A0 , . . . , An des événements dans A,
n
(a) si les (Ak )0≤k≤n sont deux à deux disjoints alors P (∪nk=0 Ak ) = P (Ak ),
k=0
n
(b) dans tous les cas P (∪nk=0 Ak ) ≤ P (Ak ).
k=0
(vi) Si (An )n∈N est une suite décroissante (au sens de l'inclusion, i.e pour tout n ∈ N,
An+1 ⊂ An ) de A, alors P (∩n∈N An ) = limn→∞ P (An ).
+∞
(vii) Si (An )n∈N est une suite d'événéments de A, alors P (∪n∈N An ) ≤ P (Ak ) (la
n=0
dernière somme étant éventuellement innie).
Démonstration.
Le résultat (ii) (a) est une conséquence de l'assertion (ii) de la dénition précédente en choi-
sissant Ak = ∅ pour k > n.
La résultat (i) est une conséquence de (ii)(a) appliqué à la partition de Ω formée de A et AC .
On montre (iii) en considérant l'ensemble C = B A, de sorte que A et C forment une partition
de B , donc d'après (ii)(a) on a P (A) + P (C) = P (B), d'où le résultat car P (C) ≥ 0.
Pour montrer (iv) on note C = A∩B de sorte que les trois ensembles AC , B C et C forment
une partition de A ∪ B . Ainsi, d'après la propriété (ii)(a), on a P (A C) + P (B C) + P (C) =
P (A∪B). Comme AC et C forment une partition de A, on a P (AC)+P (C) = P (A). De même
P (B C) + P (C) = P (B). On en déduit (P (A) − P (C)) + (P (A) − P (C)) + P (C) = P (A ∪ B),
ce qui prouve (iv) vu que C = A ∩ B .
La propriété (ii)(b) découle directement de (iv) qui entraîne P (A ∪ B) ≤ P (A) + P (B), puis
en procédant par récurrence sur n.
2. ESPACES PROBABILISÉS 321
Pour montrer (v), on considère la suite d'événements (Bn )n∈N dénie par B0 = A0 et Bn =
An An−1 pour n ∈ N∗ . On a P (Bn ) = P (An ) − P (An−1 ) pour n ∈ N∗ et les Bn sont deux à
deux disjoints. On peut donc appliquer l'assertion (ii) de la dénition précédente à (Bn )n∈N :
+∞
+∞
P (∪n∈N Bn ) = P (Bn ) = P (A0 ) + (P (An ) − P (An−1 )) = lim P (An ).
n→∞
n=0 n=1
On en déduit (iv) car ∪n∈N Bn = ∪n∈N An .
On prouve (vi) en appliquant (v) à la suite croissante (Bn ) dénie par Bn = AC
n , de sorte que
P (∩n∈N An ) = 1 − P ((∩n∈N An )C ) = 1 − P (∪n∈N Bn ) = 1 − lim P (Bn ) = lim P (An ).
n→∞ n→∞
n
Pour démontrer
(vii), on pose Bn = ∪nk=0 Ak .
D'après (ii)(b) on a P (Bn ) ≤ k=0 P (Ak ) donc
P (Bn ) ≤ +∞
k=0 P (A k ) . La suite (B n ) est croissante donc on peut lui appliquer (v), qui donne
limn→∞ P (Bn ) = P (∪n∈N Bn ). On en déduit le résultat car ∪n∈N Bn = ∪n∈N An .
Remarque 3. Les propriétés (v) et (vi) sont parfois appelées théorème de la limite mono-
tone. En corollaire, elles entraînent, pour une suite quelconque (An )n∈N dévénements,
P (∪n∈N An ) = lim P (∪nk=0 Ak ), P (∩n∈N An ) = lim P (∩nk=0 Ak )
n→∞ n→∞
L'usage de cette forme sera plus commode pour la démonstration. Prouvons donc (*) par ré-
currence sur n. Pour n = 1 le résultat est immédiat, pour n = 2 il s'agit du résultat (iv)
de la proposition précédente. Supposons (*) vrai pour n − 1 et montrons le pour n. On note
B = A1 ∪ . . . ∪ An−1 . Nous utiliserons l'égalité P (B ∪ An ) = P (B) + P (An ) − P (B ∩ An ), pour
ce faire on calcule P (B) et P (B ∩ An ). L'hypothèse de récurrence appliquée à B s'écrit
P (B) = (−1)|J|−1 P (∩j∈J Aj ) .
J⊂{1,...,n−1}
J=∅
On a B ∩ An = ∪n−1
i=1 Bi où Bi = Ai ∩ An donc l'hypothèse de récurrence appliquée à B ∩ An
entraîne
P (B ∩ An ) = (−1)|J|−1 P (∩j∈J Bj ) = (−1)|J| P (∩j∈J Aj )
J⊂{1,...,n−1} J⊂{1,...,n}
J=∅ n∈J,J={n}
322 6. PROBABILITÉS
Ainsi, la connaissance des P ({ωk }) sut pour connaitre celle de tout événement.
Exemples. Espaces probabilisés nis ou dénombrables classiques.
• Espaces nis
|A|
Loi uniforme. La loi dénie par P (A) = pour tout A ∈ P(Ω) est la
|Ω|
loi uniforme. Dans ce cas le calcul des probabilités se ramène à des problèmes
combinatoires.
Loi de Bernoulli. Sur Ω = {0, 1}, la loi de Bernoulli de paramètre p ∈ ]0, 1[
est dénie par P ({1}) = p et P ({0}) = 1 − p. On peut aussi dénir cette loi
pour un jeu de pile ou face ( Ω = {P, F}), elle modélise alors la chance que la
pièce tombe sur pile ou sur face. Lorsque la pièce est équilibrée on a p = 1/2,
dans le cas général la pièce est dite biaisée.
• Espaces dénombrables
Loi géométrique. Sur Ω = N, la loi géométrique de paramètre p ∈ ]0, 1[ est
dénie par P ({n}) = p(1 − p)n .
2. ESPACES PROBABILISÉS 323
Exemple 3. Un test de détection d'une maladie rare est positif à 99% lorsqu'un individu
est atteint de cette maladie, et il est positif à 0,1% lorsqu'il n'est pas atteint. Supposons
que 0,01% de la population soit atteint de cette maladie. On considère un individu pris
au hasard dans la population. Sachant qu'il est positif au test de detection, calculons la
probabilité qu'il soit atteint par la maladie. On considère l'événement A des individus
atteints de la maladie, et AC ceux qui ne le sont pas. Soit B l'événement "le test est
positif". Il s'agit de calculer P (A | B). La formule de Bayes donne
P (B | A)P (A) 0, 99 × 0, 0001
P (A | B) = = ,
P (B | A)P (A) + P (B | AC )P (AC ) 0, 99 × 0, 0001 + 0, 001 × 0.9999
et un calcul donne P (A | B) 0, 09. La probabilité est petite, ce qui peut sembler
contraire à l'intuition.
Indépendance. Étant donnés deux événéments A et B avec P (A) > 0, si le fait de savoir
A ne donne aucune information sur B , on a P (B | A) = P (B), donc P (A ∩ B)/P (A) =
P (B) ce qui entraîne P (A ∩ B) = P (A)P (B). Ceci introduit la notion d'événements
indépendants, dont la dénition ci-dessous reste valide lorque P (A) = 0.
Définition 6. Deux événements A et B d'un espace probabilisé (Ω, A, P ) sont dit indé-
pendants si
P (A ∩ B) = P (A)P (B).
Remarque 7. Lorsque P (A) > 0, les événements A et B sont indépendants si et
seulement si P (B | A) = P (B).
Un événement presque sûr est indépendant de tout autre.
Un événement négligeable est indépendant de tout autre.
Proposition 7. Soir A et B deux événements indépendants d'un espace probabilisé
(Ω, A, P ). Alors il en est de même de AC et B , de A et B C , de AC et B C .
On étend la dénition de l'indépendance à une famille quelconque d'événements.
Définition 7. Soit (Ai )i∈I une famille (éventuellement innie) d'événements d'un espace
probabilisé (Ω, A, P ). On dit que les (Ai )i∈I sont mutuellement indépendants si pour toute
partie nie J ⊂ I , on a
P (∩j∈J Aj ) = P (Aj ).
j∈J
Remarque 8. On se contente parfois de dire que les (Ai )i∈I sont indépendants. Si les (Ai )i∈I
sont indépendants alors ils sont indépendants deux à deux mais la réciproque est fausse.
Par exemple, on tire deux fois à pile ou face et on considère les événements A ="pile au
premier lancer", B ="pile au deuxième lancer", C ="même résultat aux deux lancers".
Ils sont indépendants deux à deux mais pas mutuellement indépendants.
Proposition 8. Soit (Ai )i∈I une famille d'événements indépendants d'un espace proba-
bilisé (Ω, A, P ). Pour toute famille (εi )i∈I d'éléments de {−1, 1}, (Aεi i )i∈I est une famille
d'événements indépendants (où pour tout événement B on a noté B 1 = B et B −1 = B C ).
Espaces de probabilité produit. Nous étudions ici comment construire un espace pro-
babilisé rendant compte de plusieurs expériences indépendantes les unes des autres.
Cas fini. Considérons n ≥ 2 espaces probabilisés (Ωk , Ak , Pk ) avec 1 ≤ k ≤ n et Ω =
Ω1 ×. . .×Ωn . On muni Ω de la tribu A engendrée par les pavés A1 ×. . .×An avec Ak ∈ Ak .
Un résultat de la théorie des probabilités que nous admettrons, arme qu'il existe une
unique probabilité P (appelée probabilité produit) sur l'espace probabilisable (Ω, A) tel
que sur les pavés de A on ait P (A1 × . . . × An ) = P1 (A1 ) · · · Pn (An ). La probabilité
2. ESPACES PROBABILISÉS 325
donc les hypothèses de la proposition 3 sont vériées, et (*) dénit bien une probabilité P sur
Ω. Pour prouver la propriété (**) on part de l'égalité
P (A1 × · · · × An ) = p1 (x1 ) · · · pn (xn )
x1 ∈A1 ,...,xn ∈An
puis on remarque que l'égalité (***) reste vraie même lorsque les Ak ne sont pas forcément nis,
étant en présence d'une famille sommable.
L'unicité de P vériant (**) est une conséquence de la même égalité (**) lorsqu'on l'applique
à tous les singletons {x1 } × . . . × {xn } = {(x1 , . . . , xn )}.
toire. Partant d'un espace probabilisé (E, T , P ), on dénit pour tout n ∈ N∗ et pour tout
(A1 , . . . , An ) ∈ T n le cylindre
∗
A1 × . . . × An × E × E × . . . = {w = (wi )i∈N∗ ∈ E N | ∀k ∈ {1, . . . , n}, wk ∈ Ak }
et on dénit la tribu A engendrée par tous les cylindres de cette forme. Ici aussi, nous ad-
mettrons un résultat dû à Kolmogorov, qui arme l'existence et l'unicité d'une probabilité
P ∗ sur (Ω, A) tel que pour tout cylindre, on ait
P ∗ (A1 × . . . × An × E × E × . . .) = P (A1 ) · · · P (An ).
326 6. PROBABILITÉS
C'est l'existence et l'unicité de cette probabilité qui permet par exemple de considérer
des probabilités sur des suites innies de tirage à pile ou face (voir par exemple l'exemple
ci-dessous, ou les exercices 5 et 6 pages 330 et 331), et c'est indispensable pour avoir le
droit de dénir une probabilité sur ces espaces. Dans la même veine, la proposition 17
page 344, assure l'existence d'une suite de variables aléatoires indépendantes qui suivent
une suite de lois donnée.
Exemple 4. On lance successivement et de manière indépendante une pièce, dont la pro-
babilité de tomber sur pile est p ∈ ]0, 1[ . On calcule la probabilité pour que pile appa-
raisse pour la première fois au n-ième lancer. Ici la probabilité P est celle sur les suites
(wn )n∈N∗ ∈ Ω = {P, F}N , dont l'existence et l'unicité est garantie par le résultat que nous
∗
avons présenté plus haut. Notons An l'événement Pile apparait pour la première fois au
lancer numéro n, qui correspond au cylindre {F}×. . .×{F}×{P}×E ×. . ., où il y a n−1
fois {F}. La probabilité P de An est donc P (An ) = (1 − p)n−1 p. Les événements (An )n∈N∗
forment une partition de Ω {PN∗ }, où PN∗ désigne la suite dont tous les éléments sont
des piles. On en déduit
+∞
+∞
P (Ω {PN∗ }) = P (An ) = (1 − p)n−1 p = 1.
n=1 n=1
Mentionnons également la notation lim inf n An = ∪p∈N (∩n≥p An ), qui désigne l'ensemble
des w ∈ Ω qui appartiennent à tous les An sauf éventuellement un nombre ni.
Muni de cette dénition, nous pouvons maintenant énoncer le lemme de Borel-Cantelli,
qui n'est pas au programme des classes préparatoires mais qu'il est très utile de connaitre
et de savoir démontrer (la preuve est assez simple). Il est presque systématiquement utilisé
chaque fois qu'on veut prouver qu'une propriété est vraie presque partout.
Théorème 1 (Lemme de Borel-Cantelli). Soit (An )n∈N une suite d'événements d'un
espace probabilisé
(Ω, A, P ). Alors
(i) Si n∈N P (An ) converge, on a P (lim supn An ) = 0.
(ii) Si les (An )n∈N sont mutuellements indépendants, et si n∈N P (An ) diverge, alors
P (lim supn An ) = 1.
Démonstration. (i) Notons Bp = ∪n≥p An . On a P (Bp ) ≤ n≥p P (An ) donc limp→+∞ P (Bp ) = 0.
Comme (Bp )p∈N est une suite décroissante (au sens de l'inclusion), on en déduit d'après (vi) de
la proposition 2 page 320, que P (lim supn An ) = P (∩p∈N Bp ) = limp→∞ P (Bp ) = 0.
(ii) Soit p ∈ N. Les (An ) sont indépendants, donc les (AC
n ) également, donc pour tout m > p,
m
m
m
m
P Ai = 1 − P AC
i
=1− P AC
i =1− (1 − P (Ai )).
i=p i=p i=p i=p
2. ESPACES PROBABILISÉS 327
m m
Lorsque x > 0, on a 1 − x < exp(−x), on en déduit i=p (1 −P (Ai )) ≤ exp(− i=p P (Ai )),
m
donc limm→∞ i=p (1 − P (Ai )) = 0, donc limm→+∞ P ∪i=p Ai = 1. On en déduit P (Bp ) =
m
Remarque 10. Une autre façon d'exprimer l'assertion (i) est d'armer que si n∈N P (An )
converge, alors presque surement, si ω ∈ Ω, il n'y a qu'un nombre ni de n pour lequel
ω ∈ An .
Voyons une conséquence typique de ce lemme. On considère l'espace Ω = {P, F}N des
∗
suites innies de tirages à pile ou face d'une pièce équilibrée. Pour tout n ∈ N∗ , considérons
l'événement la suite contient n piles consécutifs à partir de la position n, c'est-à-dire
2/ La probabilité que sa mère soit porteuse est modiée, ce qui modie P (A). Notons M l'évé-
nement sa mère est porteuse et F l'événement son frère est non-hémophile, de sorte que
P (A) = 12 P (M | F ). Comme précédemment on applique la formule de Bayes qui donne
P (M ∩ F ) P (F | M )P (M ) (1/2)(1/2) 1
P (M | F ) = = = = .
P (F ) P (F | M )P (M ) + P (F | M C )P (M C ) (1/2)(1/2) + 1 · (1/2) 3
Donc P (A) = 1/6. La même formule que celle utilisée dans 1/ avec cette nouvelle valeur de P (A)
donne
P (B | A)P (A) (1/4)(1/6) 1
P (A | B) = = = .
P (B | A)P (A) + P (B | AC )P (AC ) (1/4)(1/6) + 1 · (5/6) 21
328 6. PROBABILITÉS
Exercice 2. Une chaine de fabrication produit des pièces dont le nombre suit une loi de
Poisson : la probabilité d'avoir n pièces fabriquées en une journée est pn = e−λ λn /n! avec
λ = 1000. Une pièce a une probabilité p = 1/250 d'avoir un défault.
1/ Quelle est la plus grande valeur de k ∈ N pour laquelle la probabilité dk d'avoir moins
de k pièces avec défaut la même journée, vérie dk < 1/2 ?
2/ Un automate eectue un test de contrôle automatique de chaque pièce en sortie de la
chaîne et rejette les pièces lorsque celui ci est positif.
Si la pièce a un défaut, le test de contrôle est positif avec une probabilité q = 0, 98.
Si la pièce n'a pas de défaut, l'automate la rejette avec une probabilité r = 10−4 .
a) Quelle est la probabilité d'avoir 5 pièces rejetées en une seule journée ?
b) Quelle est la probabilité qu'en une journée, aucune pièce sans défaut n'ait été rejetée,
sachant que 5 pièces ont été rejetées ?
Solution. 1/ Notons An l'événement il y a n pièces fabriquées en une journée et Bk l'événement
il y a k pièces avec défaut
en une journée. Lorsqu'on a n ≥ k pièces produites en une journée,
n
il y a parmi celles-ci combinaisons possibles de k pièces avec défaut et n − k sans défaut,
k
n k
chacune ayant une probabilité pk (1 − p)n−k de se produire, donc P (Bk |An ) = p (1 − p)n−k .
k
La formule des probabilités totale donne
+∞
+∞
n k λn
P (Bk ) = P (Bk |An )P (An ) = p (1 − p)n−k e−λ
k n!
n=k n=k
+∞
(pλ)k ((1 − p)λ)n−k (pλ)k −pλ
= e−λ = e .
k! (n − k)! k!
n=k
Donc la probabilité d'avoir moins de k pièces avec défaut dans la même journée est
k
k
(pλ)j
dk = P (Bj ) = e−pλ .
j!
j=0 j=0
Exercice 3. Soit (Ω, A, P ) un espace probabilisé. 1/ Si (An )n∈N est une suite d'événe-
ments deux à deux disjoints. Montrer que limn→+∞ P (An ) = 0.
2/ Soit n ∈ N∗ . Soient A1 , . . . , An des événements tels que P (Ak ) > 1 − 1/n pour
2. ESPACES PROBABILISÉS 329
2/ Le cas n = 1 est évident car dans ce cas, P (A1 ) > 0 donc A1 = ∅. Pour traiter le cas n = 2,
on écrit P (A1 ∩ A2 ) = P (A1 ) + P (A2 ) − P (A1 ∪ A2 ) > (1 − 1/2) + (1 − 1/2) − 1 = 0, donc
A1 ∩ A2 = ∅.
Le cas n = 2 nous invite à traiter le cas général en prouvant par récurrence sur k la propriété :
k
∀k ∈ {1, . . . , n}, P (A1 ∩ . . . ∩ Ak ) > 1 − . (∗)
n
C'est vrai pour k = 1. Supposons le résultat vérié pour k < n. Par commodité on note B =
A1 ∩ . . . ∩ Ak . On a P (B) > 1 − k/n d'après l'hypothèse de récurrence, donc
P (A1 ∩ . . . ∩ Ak ∩ Ak+1 ) = P (B ∩ Ak+1 ) = P (B) + P (Ak+1 ) − P (B ∪ Ak+1 )
k 1 k+1
> 1− + 1− −1=1− .
n n n
Ainsi la propriété (*) est vraie pour tout k ≤ n, en particulier pour k = n, ce qui entraîne
P (A1 ∩ . . . ∩ An ) > 1 − n/n = 0, donc A1 ∩ . . . ∩ An = ∅.
3/ Si les (An )n∈N sont mutuellement indépendants, le résultat est une conséquence du lemme de
Borel-Cantelli (voir (ii) du théorème 1 page 326). Ici on n'a pas l'indépendance donc on procède
autrement. Comme la suite (P (An ))n∈N ne converge pas vers 0, il existe ε > 0 tel que
∀p ∈ N, ∃n ≥ p, P (An ) ≥ ε. (∗∗)
Ainsi, en notant Bp = ∪n≥p An , on a P (Bp ) ≥ ε pour tout p ∈ N (pour tout p, (**) nous assure
l'existence d'un n ≥ p tel que P (An ) ≥ ε, et comme An ⊂ Bp on a bien P (Bp ) ≥ P (An ) ≥ ε).
Comme (Bp )p∈N est une suite décroissante d'événements, on a limp→+∞ P (Bp ) = P (∩p∈N Bp ), on
en déduit P (∩p∈N Bp ) ≥ ε. En particulier ∩p∈N Bp n'est pas vide. En choisissant un ω ∈ ∩p∈N Bp ,
la dénition des Bp entraîne que ω se trouve dans une innité de An , on a donc prouvé le résultat.
Exercice 5. Alice et Zoé jouent à pile ou face en lançant indéniment une pièce non
équilibrée, dont la probabilité de tomber sur pile est p ∈ ]0, 1[ . Alice gagne dès que la
séquence FFP (face-face-pile) est apparue, alors que la séquence FPP n'est pas encore
apparue. Bernard gagne dès que la séquence FPP est apparue, alors que la séquence
FFP n'est pas encore apparue. Déterminer la probabilité de gain de Alice, et de Bernard.
Peut-on trouver une valeur de p telle qu'Alice et Bernard aientla même probabilité
de gain ? (indication : on pourra considérer la série génératrice n an z n où an est la
probabilité de gain au n-ième lancer.)
Solution. Supposons que Alice ou Zoé gagne au n-ième lancer. Soit w = (w1 , . . . , wn ) la n-liste
de {P,F} (pile ou face) correspondante. On a n ≥ 3. Notons w la (n − 3)-liste des n − 3 premières
lettres de w. En étudiant les enchaînements possibles de P et de F, on s'aperçoit que w a
la forme d'une séquence de P, suivi d'une séquence de FP, suivi d'une séquence de F (ces
séquences pouvant chacune être vide), ce qu'on note sous la forme w = Pq (FP)r Fs . Pour prouver
ce résultat on traite plusieurs cas :
w ne contient pas la lettre F. Alors w ne contient que la lettre P : w = Pn−3 .
Sinon il existe un plus petit entier q ∈ N tel que wq+1 = F. On a deux cas :
• soit il n'y a que des F dans w après la position q . Alors w = Pq Fs avec p+s = n−3.
• sinon le premier F est immédiatement suivi d'un P (sinon, comme on a un P
entre ce F et la n de w , la séquence FFP arriverait avant la position n). On note
r le nombre de FP consécutifs (à partir de la position q + 1). Si q + 2r < n − 3, après
le FP se terminant à la position q + 2r, on a forcément un F (sinon la séquence
FPP arriverait avant la position n). Si q + 2r + 1 < n − 3 on doit encore avoir un
F (par dénition de r ce ne peut pas être un P), puis uniquement des F (sinon
FFP arriverait avant la position n). En résumé, on ne peut avoir qu'une séquence de
F commençant à la position q + 2r + 1, jusque la n de w , et donc w = Pq (FP)r Fs .
En résumé, nous venons de montrer que w est forcément de la forme Pq (FP)r Fs où (q, r, s) ∈ N3
sont tels que q + 2r + s = n − 3. On en déduit que les séquences de gain w ont la forme suivante :
(i) Si Alice gagne, w = Pq (FP)r Fs FFP, avec q, r, s ∈ N , q + 2r + s = n − 3.
(ii) Si Zoé gagne, w = Pq (FP)r FPP, avec q, r ∈ N , q + 2r = n − 3.
Réciproquement il est clair que ces séquences sont bien associées à celles où Alice ou Zoé gagnent
au n-ième lancer.
Calculons maintenant an la probabilité de gain d'Alice au n-ième lancer. D'après (i) et sa
réciproque, on a
an =
pq (p(1 − p))r (1 − p)s 2
(1 − p) p.
q,r,s∈N
q+2r+s=n−3
En considérant les trois séries entières
+∞
+∞
+∞
Q(z) = pq z q , R(z) = pr (1 − p)r z 2r , S(z) = (1 − p)s z s ,
q=0 r=0 s=0
dont le rayon
de convergence est ≥ 1, un produit de Cauchy nous assure que la série génératrice
A(z) = +∞ n=0 an z (de rayon de convergence ≥ 1) vérie, pour |z| < 1
n
1 1 1
z 3 A(z) = Q(z)R(z)S(z)(1 − p)2 p = · · (1 − p)2 p.
1 − pz 1 − p(1 − p)z 2 1 − (1 − p)z
Les séries de fonctions en jeu convergent absolument pour z ∈ [−1, 1], donc sont dénies et
continues sur ce domaine et on en déduit que la probabilité de gain de Alice est
+∞
(1 − p)2 p 1−p
a= an = A(1) = Q(1)R(1)S(1)(1 − p)2 p = = .
(1 − p)(1 − p(1 − p))p 1 − p(1 − p)
n=0
En notant bn la probabilité de gain de Zoé au n-ième lancer, la même approche permet de
montrer, d'après (ii) et sa réciproque, que la série entière B(z) = +∞
n=0 bn z vérie z B(z) =
n 3
2. ESPACES PROBABILISÉS 331
Exercice 6. On lance indéniment une pièce de monnaie non équilibrée, dont la probabi-
lité de tomber sur pile est p ∈ ]0, 1[ . On note Ω = {P,F}N l'ensemble des suites possibles
∗
(i)), on en déduit que ∩n∈N∗ ∪p≥n Ap est négligeable. Donc, presque surement toute suite w
n'appartient qu'à un nombre ni de An , ce qu'il fallait démontrer.
b) Ici on ne peut pas appliquer directement l'assertion (ii) du lemme de Borel-Cantelli car les
(An ) ne sont pas mutuellement indépendants. On s'en sort en se restreignant à une sous-suite
de (An ) tels que les indices des suites impliqués dans la dénition des An ne se chevauchent pas.
On choisit Bn = Amn avec mn = 2n(n). Il existe N ∈ N tel que pour tout n ≥ N ,
(mn ) ≤ 1 + α log(2n(n)) = 1 + α log n + α log(2(n)) < 2α log n ≤ 2(n).
Lorsque n ≥ N , on a donc mn+1 = 2(n + 1)(n + 1) ≥ 2(n + 1)(n) = mn + 2(n) > mn + (mn ).
Ainsi les ensembles d'indices {mn + 1, . . . , mn + (mn )} impliqués dans la dénition de Bn sont
disjoints lorsque n ≥ N , ce qui entraîne que les (Bn )n≥N sont mutuellement indépendants. La
probabilité de Bn vérie
p p
P (Bn ) = p(mn ) ≥ pα log mn +1 = p mαn log p = α log(1/p)
≥ .
(2n(n)) 2n(n)
p p/(2α)
Comme ∼ , on en déduit que la série n≥N P (Bn ) diverge. On peut appliquer
2n(n) n log n
l'assertion (ii) du lemme de Borel-Cantelli, qui entraîne que ∩n≥N ∪p≥n Bn est presque sûr. Donc
presque surement, toute suite de Ω appartient à une innité de Bn , donc à une innité de Am ,
ce qu'il fallait démontrer.
a) Pour tout q ∈ N∗ , on note Aq = qN∗ . Montrer que les événements (Ap )p∈P sont
mutuellement indépendants.
b) En notant p1 < p2 < . . . les nombres premiers dans l'ordre croissant, en déduire que
+∞
1 1
= 1− s .
ζ(s) k=1 pk
c) Déterminer la nature de la série k≥1 1/pk .
2/a) Montrer qu'il n'existe pas de probabilité P sur N∗ telle que P (Aq ) = 1/q pour tout
q ∈ N∗ .
b) Soit n∈N∗ u(n) une série à termes positifs et convergente. Montrer qu'il n'existe pas
de probabilité P sur N∗ telle que |P (Aq ) − 1/q| < u(q) pour tout q ∈ N∗ .
Solution. 1/a) On commence par remarquer que pour tout q ∈ N∗ , on a
+∞
1 1 1
P (Aq ) = = s.
ζ(s) (qn)s q
n=1
Par ailleurs, lorsque q, r sont premiers entre eux, Aqr est l'ensemble des nombres entiers divisibles
par q et par r, donc Aqr = Aq ∩ Ar . Considérons maintenant k nombres premiers distincts
p1 , . . . , pk . L'observation précédente entraîne Ap1 ···pk = Ap1 ∩ . . . ∩ Apk donc on a
1 1 1
P (Ap1 ∩ . . . ∩ Apk ) = P (Ap1 ···pk ) = s
= s · · · s = P (A1 ) · · · P (Ak ),
(p1 · · · pk ) p1 pk
ce qui prouve bien l'indépendance des (Ap )p∈P .
2. ESPACES PROBABILISÉS 333
b) Comme les (Ap )p∈P sont indépendants, les (Ap )p∈P également (où A désigne le complémen-
taire de A). Ainsi pour tout K ∈ N∗ , l'événement BK = ∩K
k=1 Apk , qui est l'ensemble des entiers
divisibles par aucun des (pk )1≤k≤K , vérie
K
K
K
1
P (BK ) = P (Apk ) = (1 − P (Apk )) = 1− . (∗)
psk
k=1 k=1 k=1
donc +∞
1 1 1 1 1 dt
≤ P (BK ) ≤ + ≤ 1+ .
ζ(s) ζ(s) n>p ζ(s) ns ζ(s) pK ts
K
Il y a une innité de nombres premiers donc pK tend vers +∞ et comme l'intégrale 1+∞ dt/ts
converge, on en déduit limK→+∞ P (BK ) = 1/ζ(s), d'où le résultat en faisant tendre K vers +∞
dans (*).
c) Nous allons montrer que la série diverge. Raisonnonspar l'absurde et supposons qu'elle
converge. Alors comme | log(1 − 1/pk )| ∼ 1/pk , la série k≥1 | log(1 − 1/pk )| converge. Soit
M sa somme. Lorsque s > 1, on a | log(1 − 1/psk )| ≤ | log(1 − 1/pk )| et avec le résultat de la
question précédente, on en déduit
+∞
1
∀s > 1, |log ζ(s)| = log 1 − s ≤ M. (∗∗)
pk
k=1
Or on a la minoration
+∞
+∞ n+1
+∞
1 dt dt 1
∀s > 1, ζ(s) = ≥ = = .
ns t s t s s − 1
n=1 n=1 n 1
ce qui est incompatible avec (**). La série k≥1 1/pk diverge donc.
2/a) Supposons qu'une telle probabilité existe. Le même raisonnement que
dans 1/a) , montre
que les (Ap )p∈P sont mutuellement indépendants. D'après 1/c), la série k≥1 P (Apk ) diverge,
on peut donc appliquer le lemme du Borel-Cantelli (assertion (ii)) qui nous assure que presque
surement, tout entier est dans une innité de Apk , autrement dit que presque surement, tout
entier est divisible par une innité de nombres premiers, ce qui est absurde. On en déduit qu'une
telle probabilité n'existe pas.
b) On va également raisonner par l'absurde en supposant qu'une telle probabilité existe. Ici
l'utilisation du lemme de Borel-Cantelli n'est pas possible car les (Ap )p∈P ne sont pas indépen-
dants. On s'en sort en s'inspirant de la preuve de l'assertion (ii) du lemme de Borel-Cantelli,
en commençant par déterminer une minoration de P (∪m≤k≤n Apk ). En l'absence d'indépendance
des événements en présence, on utilise la formule du crible, qui s'écrit
P (∪m≤k≤n Apk ) = (−1)|J|−1 P (∩j∈J Apj ).
J⊂{m,...,n},|J|≥1
Or ∩j∈J Apj = Aq avec q = j∈J pj donc
1
P (∩j∈J Apj ) − ≤ u pj .
j∈J pj j∈J
On a donc
+∞
(−1) |J|−1
P (∪m≤k≤n Ap ) − ≤ u p ≤ u(k). (∗∗∗)
k j
J⊂{m,...,n},|J|≥1 j∈J pj J⊂{m,...,n},|J|≥1 j∈J k=pm
334 6. PROBABILITÉS
La dernière majoration est une conséquence du fait que, lorsque J parcourt les parties non vides
de {m, . . . , n}, les entiers j∈J pj sont tous distincts (d'après l'unicité de la décomposition en
facteurs premiers) et supérieurs à pm . On minore maintenant le terme de droite dans la valeur
absolue :
n n
n
(−1)|J|−1 1 1
=1− 1− ≥1− exp(−1/pk ) = 1 − exp − .
J⊂{m,...,n},|J|≥1 j∈J pj k=m
pk
k=m
pk
k=m
Réciproquement on ne peut pas déduire la loi conjointe à partir des lois marginales.
Proposition 1. Soit n ∈ N∗ et X = (X1 , . . . , Xn ) :Ω → E n un vecteur aléatoire discret.
Soit f : E → F une fonction. Alors f (X) : Ω → F est une variable aléatoire discrète,
n
(Une somme de cette forme est appelée convolution). De même min(X, Y ) est une variable
aléatoire discrète réelle, pour laquelle
P (min(X, Y ) = z) = P (X = z, Y = y) + P (X = x, Y = z).
x∈X(Ω), y∈Y (Ω) x∈X(Ω), y∈Y (Ω)
y≥z x>z
Remarque 3. La dénition ci dessous est générale et peut s'appliquer aux variables aléa-
toires non discrètes. Dans le cas discret, il sut d'avoir l'indépendance sur les singletons,
comme l'arme la propostion suivante.
Proposition 2. Avec les notations de la dénition précédente, les variables aléatoires
discrètes X et Y sont indépendantes si et seulement si
∀(x, y) ∈ X(Ω) × Y (Ω), P (X = x, Y = y) = P (X = x)P (Y = y).
3. VARIABLES ALÉATOIRES DISCRÈTES 337
Les variables aléatoires discrètes (Xi )i∈I sont mutuellement indépendantes si et seulement
si pour toute partie nie J ⊂ I , on a
∀(xj )j∈J ∈ Xj (Ω), P (∩j∈J {Xj = xj }) = P (Xj = xj ).
j∈J j∈J
Remarque 6. Le résultat se généralise comme suit : si (An )n∈I est une partition
nie ou dénombrable de Ω (où Ω n'est pas supposé ni ou dénombrable) telle que
X est constante sur chaque An , égale à xn , alors X admet une espérance si et
seulement si (P (An )xn )n∈I est sommable, et on a
E(X) = xn P (An ).
n∈I
338 6. PROBABILITÉS
Les résultats portant sur l'espérance qui suivent sont des compléments hors programme
qu'il est utile de connaître.
Proposition 7. Soit X : Ω → N une variable aléatoire discrète. Alors X admet une
espérance si et seulement si la famille (P (X > n))n∈N est sommable, et on a
+∞
E(X) = P (X > n).
n=0
Démonstration. D'après le théorème de Fubini (cas particulier des résultats sur les familles som-
mables), la somme double n∈N ( k>n P (X = k)) converge
absolument
si et seulement si la
somme double (obtenue par intervertion de sommation) k>0
( n∈N,n<k P (X = k)) converge
absolument,
et alors les deux sommes sont égales.Comme k>n P (X = k) = P (X > n) et
n∈N,n<k P (X = k) = kP (k), on en déduit que n∈N P (X > n) converge absolument si et
seulement
si k>0 kP (k) converge absolument, et dans ce cas on a l'égalité des sommes, ce qui
s'écrit n∈N P (X > n) = E(X).
est absolument convergente, et on note alors sa somme E(X | A), appelée espérance
conditionnelle de X sachant A.
Proposition 8. Soit (An )n∈I une partition nie ou dénombrable d'événements non né-
gligeables de Ω, et X une variable aléatoire discrète réelle sur Ω admettant une espérance.
Alors pour tout n ∈ I , X admet une espérance conditionnelle sachant An et on a
E(X) = E(X | An )P (An ).
n∈I
Démonstration. Pour tout n ∈ I , la famille (xP (X = x | An )P (An ))x∈X(Ω) est sommable car
P (X = x | An )P (An ) = P ({X = x} ∩ An ) ≤ P (X = x), donc (xP (X = x | An ))x∈X(Ω) est
sommable ce qui assure l'existence de l'espérance conditionnelle de X sachant An . Or
∀x ∈ X(Ω), P (X = x | An )P (An ) = P ({X = x} ∩ An ) = P (X = x),
n∈I n∈I
et comme X admet une espérance on en déduit que (xP (X = x | An )P (An ))x∈X(Ω),n∈I est
sommable. Le théorème de Fubini permet d'intervertir les signe de sommation, ce qui donne
xP (X = x) = xP (X = x | An )P (An ) = xP (X = x | An )P (An ).
x∈X(Ω) x∈X(Ω) n∈I n∈I x∈X(Ω)
Le terme de gauche est égal à E(X), celui de droite à n∈I E(X | An )P (An ), d'où le résultat.
Moment. Avant d'introduire la variance, il est commode d'introduire les moments d'une
variable aléatoire, et de montrer que l'ensemble L2 (Ω, R) des variables aléatoires de carré
sommable est un espace vectoriel.
dénie par
V (X) = (Cov(Xi , Xj ))1≤i,j≤n .
Alors
Pour tout (λ1 , . . . , λn ) ∈ Rn et (µ1 , . . . , µn ) ∈ Rn on a
µ1
Cov(λ1 X1 + · · · + λn Xn , µ1 X1 + · · · + µn Xn ) = (λ1 , . . . , λn ) V (X) ... .
µn
Pour tout (λ1 , . . . , λn ) ∈ Rn on a
n
V (λ1 X1 + · · · + λn Xn ) = λ2i V (Xi ) + 2 λi λj Cov(Xi , Xj )
i=1 1≤i<j≤n
λ1
= (λ1 , . . . , λn ) V (X) ... .
λn
Si les variables X1 , . . . , Xn sont indépendantes deux à deux, on a
V (X1 + · · · + Xn ) = V (X1 ) + · · · + V (Xn ).
3.3. Lois discrètes usuelles
Dans cette partie, X désigne une variable aléatoire discrète réelle sur Ω.
Loi uniforme. On dit que X suit une loi uniforme lorsque X(Ω) est ni, de cardinal
n ∈ N∗ , et lorsque pour tout x ∈ X(Ω) on a P (X = x) = 1/n. Cette loi correspond à la
probabilité de tirer une boule donnée dans une urne de n boules diérenciées, lors d'un
tirage équiprobable.
Loi de Bernoulli. Soit p ∈ ]0, 1[ . On dit que X suit une loi de Bernoulli de paramètre
p, (et on note X → B(p)), si
X(Ω) = {0, 1} et P (X = 0) = 1 − p, P (X = 1) = p.
On a E(X) = p et V (X) = p(1 − p).
Il s'agit de la loi qui modélise un tirage à pile ou face avec une pièce déséquilibrée,
associé à la valeur aléatoire X dénie par X = 1 si on tombe sur pile (succés), X = 0 si
on tombe sur face (une telle expérience s'appelle expérience de Bernoulli ).
342 6. PROBABILITÉS
Remarque 12. Une loi qui ressemble à celle de Bernoulli dans le cas p = 1/2 est la loi
de Rademacher. La variable X suit une loi de Rademacher si X(Ω) = {−1, 1} et si
P (X = −1) = P (X = 1) = 1/2.
Loi binomiale. Soit p ∈ ]0, 1[ et n ∈ N∗ . On dit que X suit une loi binomiale de
paramètre (n, p) (et on note X → B(n, p)) si
n k
X(Ω) = {0, . . . , n}, et ∀k ∈ {0, . . . , n}, P (X = k) = p (1 − p)n−k .
k
On a E(X) = np et V (X) = np(1 − p).
La loi binomiale est celle d'une variable aléatoire X qui est la somme de n variables
indépendantes X1 , . . . , Xn qui suivent chacune une loi de Bernoulli de paramètre p, on
l'appelle parfois loi du nombre du succés .
Si X → B(n, p) et Y → B(m, p) sont indépendantes, alors X + Y → B(n + m, p).
Loi géométrique. Soit p ∈ ]0, 1[ et n ∈ N∗ . On dit que X suit une loi géométrique de
paramètre p (et on note X → G(p)) si
X(Ω) = N∗ , et ∀n ∈ N∗ , P (X = n) = p(1 − p)n−1 .
On a E(X) = 1/p et V (X) = (1 − p)/p2 .
Lors d'une succession innie d'expériences de Bernoulli, cette loi est celle de la variable
X dénie par le rang du premier succés rencontré. Les lois géométriques sont caractérisées
par des lois dans mémoire, comme l'exprime la proposition suivante.
Proposition 13. Soit X une variable aléatoire à valeurs dans N∗ . Alors X suit une loi
géométrique si et seulement si P (X = 1) ∈ ]0, 1[ et X est sans mémoire, c'est-à-dire
∀(n, k) ∈ (N∗ )2 , P (X > n + k | X > n) = P (X > k). (∗)
Démonstration. Si X suit une loi géométrique de paramètre p ∈ ]0, 1[ , on a pour tout ∈ N
+∞
+∞
P (X > ) = P (X = k) = p(1 − p)k−1 = (1 − p) .
k=+1 k=+1
Donc
P (X > n + k, X > n) P (X > n + k)
P (X > n + k | X > n) = = = (1 − p)k = P (X > k).
P (X > n) P (X > n)
Réciproquement supposons X sans mémoire, et notons p = P (X = 1) ∈ ]0, 1[. Comme X est à
valeurs dans N∗ , on a P (X > 1) = 1 − P (X = 1) = 1 − p. En appliquant (*) avec k = 1 on
obtient
P (X > n + 1, X > n) P (X > n + 1)
1 − p = P (X > 1) = P (X > n + 1 | X > n) = =
P (X > n) P (X > n)
donc P (X > n+1) = (1−p)P (X > n), ce qui par récurrence sur n entraîne P (X > n) = (1−p)n .
La variable aléatoire X suit donc bien une loi géométrique, de paramètre p ∈ ]0, 1[ puisque
P (X = 1) = p et si n > 1, P (X = n) = P (X > n − 1) − P (X > n) = (1 − p)n−1 p.
Loi de Poisson. Soit λ > 0. On dit que X suit une loi de Poisson de paramètre λ (et
on note X → P(λ)) si
λn
X(Ω) = N, et ∀n ∈ N, P (X = n) = e−λ .
n!
On a E(X) = λ et V (X) = λ.
La loi de Poisson est celle d'une variable aléatoire X qui compte le nombre d'événé-
ments indépendants qui se produisent dans un intervalle de temps donné (par exemple : le
nombre de clients rentrant dans un magasin, dans un intervalle de temps donné). Elle est
3. VARIABLES ALÉATOIRES DISCRÈTES 343
la limite de la loi binomiale de paramètre (n, λ/n) lorsque n → +∞. En eet, si (Xn ) est
une suite de variables aléatoires discrètes suivant chacune un loi binomiale de paramètre
(n, λ/n), on a, pour tout k xé, lorsque n → +∞,
k n−k k n
n λ λ nk λ λ λk
P (Xn = k) = 1− ∼ 1− ∼ e−λ ,
k n n k! n n k!
k
n n(n − 1) · · · (n − k + 1) n
où on a utilisé l'équivalent = ∼ . Par exemple, si chaque
k k! k!
seconde, il y a une probabilité p = 1/600 qu'un client entre dans un magasin, le nombre
de clients qui entrent sur un intervalle d'une heure suit approximativement une loi de
poisson de paramètre λ = 3600p = 6. Pour cette raison, on appelle parfois cette loi la loi
des événements rares .
Si X → P(λ) et Y → P(µ) sont indépendantes, alors X + Y → P(λ + µ).
Si à chaque événement comptabilisé par une loi de Poisson de paramètre λ, on associe
une expérience de Bernoulli de paramètre p, le nombre d'événements à succés suit une
loi de Poisson de paramètre pλ. Par exemple, si le nombre de clients X entrant dans un
magasin suit une loi de Poisson de paramètre λ et si chaque client a une probabilité p
d'être un enfant, le nombre d'enfants Y qui entrent dans le magasin suit une loi de Poisson
de paramètre pλ. En eet, on a, pour tout k ∈ N
+∞
P (Y = k) = P (Y = k | X = n) P (X = n)
n=k
+∞
+∞
n k λn λk pk (1 − p)n−k −λ n−k (λp)k −λp
= p (1 − p)n−k e−λ = e λ = e .
n=k
k n! k! n=k (n − k)! k!
Remarque 14. L'inégalité de Jensen n'est pas au programme des classes préparatoires mais
se prouve facilement en reprenant la démonstration proposée ci-dessus. En l'appliquant
à la fonction convexe ϕ(x) = x2 , on obtient l'inégalité E(X 2 ) ≥ E(X)2 (qu'on obtient
aussi à partir du théorème de Koënig-Huygens, car E(X 2 ) − E(X)2 = V (X 2 ) ≥ 0). Plus
généralement, pour tout p > q > 1, l'inégalité de Jensen appliquée à ϕ(x) = xp/q entraîne
E(X p ) ≥ E(X q )p/q , en particulier E(X p ) ≥ E(X)p .
Suites de variables aléatoires. Avant de présenter la loi faible des grands nombres,
il convient de s'intéresser aux suites de variables aléatoires indépendantes. L'existence
de telles suites indépendantes n'est pas évident a priori (de fait, l'espace Ω doit être
assez grand et en général inni non dénombrable, voir l'exercice 5 page 351). Elle est
garantie par le résultat suivant que nous admettrons (ceci est à rapprocher du résultat
sur l'existence d'une probabilité sur E N discutée page 326 dans le cas dénombrable des
∗
Loi faible des grands nombres. Nous nous limitons ici à la loi faible des grands
nombres dans le cas des variables aléatoires admettant une variance, conformément au
programme des classes préparatoires. Diverses généralisations, incluant la loi forte des
grands nombres, sont discutées dans la remarque 16 plus bas.
Théorème 1 (Loi faible des grands nombres). Soit (Xn )n∈N∗ une suite de va-
riables aléatoires discrètes réelles, mutuellement indépendantes, suivant une même loi (on
dit alors que les Xn sont identiquement distribuées ) admettant une espérance m et une va-
riance σ 2 . Alors la variable aléatoire Sn /n, où Sn = X1 + . . . + Xn , converge en probabilité
vers m, et plus précisément
Sn σ2
∀ε > 0, ∀n ∈ N ,∗
P − m ≥ ε ≤ 2 . (∗)
n nε
Démonstration. L'inégalité (*) entraîne la convergence en probabilité de Sn /n vers m. En appli-
quant l'inégalité de Bienaymé-Tchébyche à Sn on a P (|Sn /n−E(Sn /n)| ≥ ε) ≤ (V (S )/n2 )/ε2 ,
n n
d'où (*) car E(Sn /n) = m et l'indépendance de X1 , . . . , Xn entraîne V (Sn ) = k=1 V (Xi ) =
nσ 2 .
Remarque 16. √ Ce résultat exprime que l'erreur entre Sn /n et m√a l'ordre de gran-
deur de 1/ n. L'estimation plus précise de la distribution de n(Sn /n − m) fait
l'objet du théorème central limite , qui exprime que cette distribution se rapproche
d'une Gaussienne. Le théorème central limite n'est pas au programme des classes
préparatoires, il fait l'objet du problème 9 page 386 dans le cas des variables aléa-
toires entières.
L'estimation (*) est en général très grossière lorsque ε est beaucoup plus grand
que n−1/2 . L'inégalité de Hoeding donne sous certaines conditions une estimation
beaucoup plus ne des queues de probabilité (voir l'exercice 7 page 352).
La loi faible des grands nombres reste vraie même sans supposer que la loi commune
des (Xn ) admet un moment d'ordre 2 (voir l'exercice 12 page 362).
La loi forte des grands nombres exprime que Sn /n converge vers m presque sur-
ement. Elle n'est pas au programme des classes préparatoires. Une démonstration
dans des cas particuliers fait l'objet de l'exercice 7 page 352 (voir la remarque),
ou de l'exercice 13 page 363. Une preuve dans le cas général est donnée dans le
problème 10 page 389.
Il existe plusieurs modes de convergence des suites de variables aléatoires (en pro-
babilité, convergence presque sure, en loi, L1 , . . .). Ceci fait l'objet du problème 5
page 375.
3.5. Fonctions génératrices
Séries génératrices.
Définition 12. Soit X : Ω → N une variable aléatoire.On appelle série génératrice de
X la série entière notée GX (z) et dénie par GX (z) = +∞n=0 P (X = n) z , de rayon de
n
convergence ≥ 1.
Proposition 18. Soit X : Ω → N une variable aléatoire. La série génératrice de X
converge normalement pour |z| ≤ 1, elle vérie les propriétés suivantes :
346 6. PROBABILITÉS
(i) z → GX (z) est dénie et continue sur |z| ≤ 1, en particulier sur [0, 1].
(ii) Lorsque t ∈ [0, 1], on a GX (t) = E(tX ). On a GX (1) = 1.
(iii) X admet une espérance si et seulement si GX est de classe C 1 sur [0, 1], et dans
ce cas E(X) = GX (1).
(iv) X admet une variance si et seulement si GX est de classe C 2 sur [0, 1], et dans
ce cas V (X) = GX (1) + GX (1) − GX (1)2 .
(v) Soit Y : Ω → N une variable aléatoire. Alors GX = GY sur [0, 1] si et seulement
si X et Y ont même loi.
(vi) Soit Y : Ω → N une variable aléatoire indépendante de X . Alors GX+Y = GX GY .
N
N
+∞
∀N ∈ N∗ , npn = lim npn tn−1 ≤ lim npn tn−1 = GX (1).
t→1− t→1−
n=1 n=1 n=1
Donc la série à termes positifs n∈N∗ npn est majorée, donc elle converge.
(iv)
Le même raisonnement que pour (iii) montre que GX est C 2 sur [0, 1] si et seulement si
n(n − 1)pn converge, et comme n(n − 1)pn = n 2 ceci équivaut à dire que
pn (1 + o(1)) X admet
une variance. On obtient facilement E(X 2 ) = n≥1 n2 pn = n≥1 n(n − 1)pn + n≥1 npn =
GX (1) + GX (1), et on conclut avec la formule de Koênig-Huygens V (X) = E(X 2 ) − E(X)2 .
(v) est une conséquence du principe des zéros isolés, qui entraîne que les coecients de GX et
GY sont identiques.
(vi) Si X et Y sont indépendants, alors tX et tY aussi, donc GX (t)GY (t) = E(tX )E(tY ) =
E(tX+Y ) = GX+Y (t).
Séries génératrices des lois usuelles . Les séries génératrices fournissent un
moyen commode de calculer l'espérance et la variance d'une variable aléatoire à partir de
leur forme close. Les séries génératrices des lois usuelles d'une variable aléatoire X sont
les suivantes :
Loi de Bernoulli de paramètre p : GX (t) = 1 − p + pt.
Loi binomiale de paramètre (n, p) : GX (t) = (1 − p + pt)n . Ce résultat est aussi une
conséquence de de la propriété (vi) ci dessus, appliquée à une somme de n variables aléa-
toires indépendantes suivant chacune une loi de Bernoulli de paramètre p. Cette formule
permet de calculer E(X) et V (X) par les formules
Remarquons également que les propriétés (vi) et (v) ci dessus permettent de montrer que
si X → B(n, p) et Y → B(m, p) sont indépendantes, alors X + Y → B(n + m, p).
3. VARIABLES ALÉATOIRES DISCRÈTES 347
d'où on déduit
p 1−p 1
E(X) = GX (1) = =
1 − p p2 p
2p(1 − p) 1 1 1−p
V (X) = GX (1) + GX (1) − GX (1)2 = 3
+ − 2 = .
p p p p2
+∞
λn n
Loi de Poisson de paramètre p : GX (t) = e−λ · t = eλ(t−1) , donc
n=0
n!
Nous terminons par un résultat sur les séries génératrices qui n'est pas au programme
des classes préparatoires mais qui est facile à retenir et à redémontrer.
Proposition 19 (Formule de Wald). Soit (Xn )n∈N∗ une suite de variables aléatoires
et indépendantes de Ω sur N, identiquement distribuées, et N : Ω → N∗ une variable
aléatoire indépendante des Xn . On note SN la variable aléatoire dénie sur Ω par SN (ω) =
N (ω)
n=1 Xn (ω). Alors la série génératrice de SN s'exprime en fonction de celle de N et X1
sous la forme GSN = GN ◦ GX1 . Si N et les Xn admettent une espérance, SN également
et on a E(SN ) = E(N )E(X1 ).
Démonstration. Comme N et les Xn sont indépendants on peut écrire
+∞
+∞
P (SN = n) = P (N = k, X1 + · · · + Xk = n) = P (N = k)P (X1 + · · · + Xk = n).
k=1 k=1
(par dénition d'une série génératrice d'une variable aléatoire, les séries en présence sont à termes
positifs
+∞ et sommables, on peutn donc bien intervertir les signes de sommation). Remarquons que
n=0 P (X1 + · · · + Xk = n)z = GX1 +···+Xk (z), et que les Xk étant indépendants, ceci est égal
à GX1 (z) · · · GXk (z) = GX1 (z)k . On a donc
+∞
GSN (z) = P (N = k) GX1 (z)k = GN (GX1 (z)).
k=1
Si N et X1 admettent une espérance, alors GN et GX1 sont de classe C 1 sur [0, 1], et comme
GX1 ([0, 1]) ⊂ [0, 1], on en déduit que GSN = GN ◦ GX1 est de classe C 1 sur [0, 1]. Donc SN
admet une espérance (voir la proposition 18, assertion (iii)), et on a E(SN ) = GSN (1) =
GN (GX1 (1)) GX1 (1) = GN (1) GX1 (1) = E(N ) E(X1 ).
348 6. PROBABILITÉS
Remarque17. Un cas courant est celui où X prend ses valeurs dans Z, et dans ce cas
ϕX (u) = n∈Z P (X = n)einu est 2π -périodique. Lorsque X prend ses valeurs dans N, on
a ϕX (u) = GX (eiu ) où GX est la série génératrice de X .
Dans la suite on suppose que X est à valeur dans Z, mais les résultats restent vrais
pour toute variable aléatoire discrète réelle X . Comme pour les séries de Fourier, on
utilisera
la convention suivante pour les séries dont les termes sont indexés sur Z : la
série n∈Z an e inu
désigne la série a0 + n∈N ∗ (an e inu
+ a−n e−inu ) (ici nous serons dans le
cas où n∈Z |an | est sommable, donc l'ordre des indices n'importe pas, néanmoins cette
convention sera une commodité pour nous permettre d'utiliser les théorèmes sur les séries
de fonction).
Proposition 20. La fonction caractéristique ϕX d'une variable aléatoire discrète X à
valeurs dans Z vérie les propriétés suivantes :
(i) ϕX est dénie, continue et 2π -périodique sur R, et vérie |ϕX (u)| ≤ 1 sur R.
(ii) Si X admet une espérance, ϕX est de classe C 1 sur R et on a ϕX (0) = iE(X).
(p)
(iii) Si X admet un moment d'ordre p, ϕX est de classe C p et ϕX (0) = ip E(X p ).
(iv) Soit Y une variable aléatoire sur Ω. Alors ϕX = ϕY si et seulement si X et Y
ont même loi.
(v) Soit Y une variable aléatoire sur Ω indépendante de X . Alors ϕX+Y = ϕX ϕY .
Démonstration. (i) Pour simplier nous notons pn = P (X = n). L'inégalité |pn einu | ≤ pn entraîne
la convergence normale de la série de fonctions n∈N∗ (pn e
inu + p
−n e
−inu ) sur R, donc ϕ
X est
bien dénie et continue sur R. De plus |ϕX (u)| ≤ n∈Z |pn e | = n∈Z pn = 1.
inu
(ii) Si X admet une espérance alors n∈N∗ (npn +np−n ) converge, donc la série des termes dérivés
inu −inu ) converge normalement sur R, donc ϕ est bien de classe C 1 sur
n∈N∗ (inpn e − inp−n e X
R et ϕX (u) = n∈Z inpn einu , en particulier ϕX (0) = iE(X).
(iii) La dérivée p-ième de pn einu est ip np pn einu , donc la série des dérivées p-ièmes converge
normalement, donc ϕX est de classe C p et ϕ(p)X (u) =
p p
n∈Z i n pn e
inu , d'où le résultat.
(iv) Si X et Y ont même loi il est immédiat que ϕX = ϕY . La réciproque est une conséquence
du fait qu'une série de Fourier convergeant normalement est égale à sa série de Fourier, donc
P (X = n) = P (Y = n) pour tout n ∈ Z (cette égalité est aussi une conséquence de la formule
(*) de la remarque 18 plus bas).
(v) Si X et Y sont indépendants, eiuX et eiuY également donc ϕX (u)ϕY (u) = E(eiuX )E(eiuY ) =
E(eiu(X+Y ) ) = ϕX+Y (u).
Cette identité est très utile, elle permet de connaître la loi de X à partir de ϕX . En parti-
culier, elle entraîne le résultat suivant : si (Xn ) est une suite de variables aléatoires sur Ω à
valeurs dans Z, et X : Ω → Z une variable aléatoire, telle que (ϕXn ) converge simplement
vers ϕX sur R, alors pour tout p ∈ Z, on a limn→+∞ P (Xn = p) = P (X = p) (on dit
alors que (Xn ) converge en loi vers X ). Cette propriété est une conséquence du théorème
de convergence dominée appliqué à l'intégrale de (*). Dans sa forme plus générale, ce ré-
sultat est appelé théorème de convergence de Lévy , il permet notamment de démontrer le
théorème central limite (qui n'est pas au programme des classes préparatoires, une preuve
est néanmoins proposée dans le cas des variables aléatoires entières dans le problème 9
page 386) par critère de convergence simple des fonctions caractéristiques.
3.6. Exercices
Exercice 1. Soit (Xn )n∈N∗ une suite de variables aléatoires à valeurs dans N∗ , indépen-
dantes et identiquement distribuées. On note Cn = Card{X1 , . . . , Xn }.
1/ Montrer que E(Cn ) = o(n). √
2/ On suppose que les Xn admettent une espérance. Montrer que E(Cn ) = o( n).
Solution. 1/ Lorsque n est grand, les Xi ont tendances à rester "petits" car la probabilité que
Xi soit grand est faible, donc beaucoup d'entre eux sont égaux, et Cn est petit. Pour quantier
ceci, on xe a > 0, et on partitionne les Xk entre ceux ≤ a et les autres. On obtient
Cn = Card{Xk | 1 ≤ k ≤ n, Xk ≤ a} + Card{Xk | 1 ≤ k ≤ n, Xk > a}
n
≤ a + Card{k ≤ n | Xk > a} = a + 1{Xk >a} ,
k=1
(où 1A désigne la fonction indicatrice de A, dénie par 1A (x) = 1 si x ∈ A, = 0 sinon) donc
n
E(Cn ) ≤ a + P (Xk > a) = a + nP (X1 > a). (∗)
k=1
√ √ √
En choisissant a =√ n, on en déduit en particulier E(Cn ) ≤ n + nP (X1 > n), et comme
limn→+∞ P (X1 > n) = 0 (et E(Cn ) ≥ 0), ceci entraîne bien E(Cn ) = o(n).
2/ On va réutiliser (*), en choisissant correctement a. L'inégalité de Markov entraîne
√ P (X1 >
a) ≤ E(X1 )/a, ce qui n'est pas susant pour conclure (on en déduit E(Cn ) = O( n) mais on
n'a pas le petit o). Une amélioration de cette borne lorsque a est grand s'obtient en écrivant
aP (X1 > a) = aP (X1 = k) ≤ kP (X1 = k) = o(1),
k>a k>a
car l'existence de l'espérance de X1 entraîne la convergence de la série k kP (X√1 = k). On
en√ déduit aP (X1 ≥ a) = o(1). Donnons
√ maintenant
√ ε > 0. Choisissons a = ε n. Comme
ε n → +∞, il existe N ∈ N tel que ε nP (X1 > ε n) ≤ ε2 , donc
√ √ √ ε2 √
∀n ≥ N, E(Cn ) ≤ ε n + nP (X1 > ε n) ≤ ε n + n √ = 2ε n.
ε n
Exercice 2. Soit (Xn )n∈N∗ une suite de variables aléatoires discrètes réelles, admettant
un moment d'ordre 2. On suppose que les Xn ont la même espérance µ = E(X1 ) et qu'il
existe σ > 0 tel que V (Xn ) ≤ σ 2 pour tout n ∈ N∗ . On pose Sn = X1 + · · · + Xn .
1/ On suppose que pour tout (i, j) ∈ (N∗ )2 tels que i + 1 < j , les variables aléatoires Xi
et Xj sont indépendantes. Montrer que (Sn /n) converge vers µ en probabilité, c'est-à-dire
∀ε > 0, lim P (|Sn /n − µ| > ε) = 0.
n→+∞
350 6. PROBABILITÉS
2/ On suppose que pour tout (i, j) ∈ (N∗ )2 tels que i < j , Cov(Xi , Xj ) ≤ σ2 /(j − i).
Montrer que (Sn /n) converge vers µ en probabilité.
Solution. 1/ On procède comme dans la démonstration de la loi faible des grands nombres (voir
la preuve du théorème 1 page 345). On majore la variance de Sn , en écrivant
n
n
n−1
V (Sn ) = V (Xi ) + 2 Cov(Xi , Xj ) = V (Xi ) + 2 Cov(Xi , Xi+1 )
i=1 i<j i=1 i=1
n−1
≤ nσ 2 + 2 V (Xi )1/2 V (Xi+1 )1/2 ≤ (3n − 2)σ 2 ≤ 3nσ 2 .
i=1
En appliquant l'inégalité de Bienaymé-Tchébyche à Sn on en déduit, compte tenu du fait que
E(Sn /n) = µ,
V (Sn /n) V (Sn )/n2 3σ 2
P (|Sn /n − µ| ≥ ε) ≤ = ≤ ,
ε2 ε2 nε2
d'où le résultat.
2/ On utilise la même approche. Une borne supérieure sur V (Sn ) est fournie par
n
σ2
V (Sn ) = V (Xi ) + 2 Cov(Xi , Xj ) ≤ nσ 2 + 2
j−i
i=1 1≤i<j≤n 1≤i<j≤n
n−1
n−1
σ2 σ2
= nσ 2 + = nσ 2 + (n − k) = σ 2 + nσ 2 Hn−1 ,
j−i k
k=1 1≤i<j≤n k=1
j−i=k
k
où intervient
n
le nombre harmonique Hn = 1 + 12 + · · · + n1 . On a Hn ≤ 1 + nk=2 k−1 dt/t =
1 + 1 dt/t = 1 + log n, et le résultat souhaité s'obtient à partir de l'inégalité de Bienaymé-
Tchébyche appliquée à Sn , en écrivant
V (Sn )/n2 1/n + Hn σ 2 2 + log n
P (|Sn /n − µ| ≥ ε) ≤ 2
≤ σ2 2
≤ 2 .
ε nε ε n
Exercice 3. Montrer qu'il est impossible de piper deux dés pour que la somme de leurs
points suive la loi uniforme sur {2, . . . , 12}.
Solution. Nous allons utiliser les séries génératrices ϕX et ϕY des variables aléatoires X et Y des
points de chaque dé, qui ici sont des polynômes de degré ≤ 6. Comme P (X = 0) = P (Y = 0) = 0,
on peut écrire ϕX (z) = z ψX (z) et ϕY (z) = z ψY (z) où ψX (z) et ψY (z) sont des polynômes de
degré ≤ 5. Raisonnons par l'absurde et supposons que les deux dés soient pipés de sorte que la
somme des points des deux dés suive la loi uniforme sur {2, . . . , 12}. On aurait alors
z 2 + z 3 + · · · + z 12 1 − z 11
ϕX (z)ϕY (z) = ϕX+Y (z) = donc ψX (z)ψY (z) = . (∗)
11 11(1 − z)
Comme ψX et ψY ont un degré ≤ 5, on en déduit deg ψX = deg ψY = 5. Par ailleurs, le terme de
droite de (*) s'annule lorsque z = zk = exp(2ikπ/11) pour 1 ≤ k ≤ 10. Ces dix valeurs distinctes
zk forment donc l'ensemble des racines de de ψX et ψY , et aucune n'est réelle. Or ψX et ψY
sont des polynômes à coecients réels de degré impair, donc ils ont chacun au moins une racine
réelle, ce qui est absurde.
qui admettent une espérance (resp. qui admettent un moment d'ordre 2). Soit (Xn )n∈N
une suite de L1 (Ω). On suppose que
(i) (Xn )n∈N converge en probabilité vers une variable aléatoire discrète réelle X sur Ω,
c'est-à-dire
∀ε > 0, lim P (|Xn − X| ≥ ε) = 0.
n→+∞
Exercice 5. Soit (Ω, A, P ) un espace probabilisé tel qu'il existe une suite de variables
aléatoires discrètes réelles indépendantes (Xn )n∈N∗ , suivant chacune une loi non triviale,
c'est-à-dire que pour tout n ∈ N∗ et pour tout x ∈ R, P (Xn = x) < 1.
1/ Si les Xn sont identiquement distribuées, montrer que Ω est inni non dénombrable.
2/ Montrer que le résultat précédent est faux si on ne suppose pas les Xn non identique-
ment distribuées (on pourra s'inspirer de l'exercice 7 page 332).
Solution. 1/ Comme X1 est une loi discrète, il existe x ∈ X1 (Ω) tel que p = P (X1 = x) > 0.
D'après les hypothèses, p < 1. Pour tout y ∈ X1 (Ω), y = x, P (X1 = y) ≤ 1 − P (X1 = x) = 1 − p.
En notant q = max{p, 1 − p}, on a donc
0<q<1 et ∀t ∈ X1 (Ω), P (X1 = t) ≤ q.
On en déduit, pour tout ω ∈ Ω, les Xn étant indépendantes et identiquement distribuées,
n
∀n ∈ N∗ , P ({ω}) ≤ P (X1 = X1 (ω), . . . , Xn = Xn (ω)) = P (Xk = Xk (ω)) ≤ q n .
k=1
Comme q< 1 on en déduit que forcément, P ({ω}) = 0. Si Ω était ni ou dénombrable, on aurait
P (Ω) = ω∈Ω P ({ω}) = 0, ce qui est absurde. Donc Ω est inni non dénombrable.
2/ En procédant comme dans la solution de 1/, on montre facilement que même si les Xn
ne
+∞sont pas identiquement distribuées, sous l'hypothèse plus générale que ∀x ∈ R, ∀n ∈ N∗ ,
n=1 P (Xn = x) = 0 alors Ω est forcément inni non dénombrable. Pour trouver un contre-
exemple, on doit donc avoir +∞ n=1 P (Xn = x) > 0 pour au moins une valeur de x.
Un tel contre-exemple est fourni en choisissant Ω = N∗ , muni de la loi zéta
1 1
P ({n}) =
ζ(2) n2
352 6. PROBABILITÉS
(on pourrait choisir P ({n}) = ζ(s)−1 /ns pour n'importe quel s > 1), puis en choisissant pour
tout n la variable aléatoire Xn dénie sur N∗ par : Xn (k) = 1 si k > 1 est divisible par le n-ième
nombre premier pn , Xn (k) = 0 sinon.
Montrons que les variables aléatoires Xn sont bien indépendantes. On note Aq = qN∗ pour
q ∈ N∗ . On a {Xn = 1} = Apn et {Xn = 0} = AC pn . Comme on l'a vu dans l'exercice 7
page 332, les (Apn )n∈N∗ sont indépendants. D'après la proposition 8 page 324, pour toute suite
(εn ) d'éléments de {0, 1}, les événéments (P (Xn = εn ))n∈N∗ sont indépendants. On en déduit
avec la proposition 2 page 336 que les Xn sont indépendants. On a donc construit un espace
probabilisé dénombrable et une suite de variables aléatoires indépendantes et non triviales sur
cet espace.
Exercice 6. Soient (Xn )n∈N∗ une suite de variables aléatoires à valeurs dans N, avec les
Xn mutuellement indépendantes et identiquement distribuées. On note Sn = X1 +· · ·+Xn .
On suppose que, presque surement, (Sn /n)n∈N∗ converge. Montrer que les Xn admettent
une espérance. (Indication : raisonner
par l'absurde en supposant E(X1 ) = +∞, montrer
que pour tout K ∈ N∗ , on a n P (Xn ≥ Kn) = +∞, puis que presque surement,
lim sup Xn /n = +∞).
Solution. On suit l'indication en supposant que X1 n'admet pas d'espérance, ce qui implique
que la série n∈N P (X1 > n) diverge (voir la proposition 7 page 338). Or pour K ∈ N∗ , on a
K(n+1)−1 K(n+1)−1
P (X1 > j) ≤ P (X1 > Kn) = KP (X1 > Kn) = KP (Xn > Kn).
j=Kn j=Kn
Comme la série n∈N P (X1 > n) diverge, on en déduit que n P (Xn > Kn) diverge. Les évé-
néments {Xn > Kn}n∈N∗ étant indépendants, l'assertion (ii) du lemme de Borel-Cantelli (voir le
théorème 1 page 326) permet de déduire que l'événement AK = ∩p∈N ∪n>p {Xn > Kn} est presque
sûr. Sur AK on a limp→+∞ supn>p Xn /n ≥ K . On en déduit que sur B = ∩K∈N∗ AK , événement
presque sûr (intersection dénombrable d'événements presque sûrs) on a limp→+∞ supn>p Xn /n =
+∞. La minoration Sn /n ≥ Xn /n entraîne donc que presque surement, limp→+∞ supn>p Sn /n =
+∞. Ceci est incompatible avec l'hypothèse que (Sn /n)n∈N∗ converge presque surement. Donc
X1 admet une espérance, donc tous les Xn puisque ces variables aléatoires sont identiquement
distribuées.
Remarque. Ce résultat peut être vu comme une réciproque de la loi forte des grands
nombres.
Exercice 7 (Inégalité de Hoeffding). Soit (Xn )n∈N∗ une suite de variables aléatoires
discrètes, indépendantes et centrées, à valeurs dans [−α, α] avec α > 0.
1/ a) Soit Y une variable aléatoire discrète centrée, à valeurs dans [−1, 1]. Montrer que
pour tout t ∈ R, on a E(etY ) ≤ ch (t) ≤ et /2 .
2
1/a) On suppose que les Xi,j sont centrées. Calculer l'espérance et la variance de tr Mn
et det Mn . √
b) Si (un ) est une suite vériant bn = o(un ), montrer limn→+∞ P (| det Mn | ≥ un n!) = 0.
2/ On suppose ici que les Xi,j admettent toutes une même espérance a ∈ R.
a) Calculer l'espérance et la variance de tr Mn , et l'espérance de det Mn .
b) Pour
tout n ∈ N , on note Fn l'ensemble des permutations de Sn sans point xe, et
∗
et comme les Xi,j sont centrées on en déduit E(det Mn ) = 0. Pour la variance on écrit
n
n
2
E((det Mn ) ) = ε(σ)ε(µ)E Xi,σ(i) Xi,µ(i) = ε(σ)ε(µ) E Xi,σ(i) Xi,µ(i) .
(σ,µ)∈Sn2 i=1 (σ,µ)∈Sn2 i=1
(∗)
Si σ = µ, il existe i tel que σ(i) = µ(i) donc E Xi,σ(i) Xi,µ(i) = E Xi,σ(i) E Xi,µ(i) = 0. Dans
la somme de (*), on ne doit donc considérer que les cas où σ = µ, ce qui donne,
n
n
E((det Mn )2 ) = ε(σ)2 2
E Xi,σ(i) = b2 = n! b2n .
σ∈Sn i=1 σ∈Sn i=1
Soit k ∈ {0, . . . , n}. Notons Pk = {I ⊂ {1, . . . , n}, |I| = k}. Fixons I ∈ Pk et q ∈ Sn telle
que q({1, . . . , k}) = I . Pour tout ν ∈ Sn telle que D(ν) = I , la permutation τν = q −1 νq vérie
τν (i) = i pour k < i ≤ n, et la restriction τν de τν à {1, . . . , k} est dans Fk . On a par ailleurs
ε(ν) = ε(τν ) = ε(τν ). L'application
ν → τν est une bijection de {ν ∈ Sn | D(ν) = I} vers Fk ,
on a donc ν: D(ν)=I ε(ν) = τ ∈Fk ε(τ ) = fk (notons qu'on doit avoir f0 = 1 pour que cette
égalité reste vraie). On en déduit le résultat demandé en écrivant
n
n
n
n
ε(ν)ρ|D(ν)| = ε(ν)ρk = f k ρk = fk ρk .
k
ν∈Sn k=0 I∈Pk ν∈Sn k=0 I∈Pk k=0
D(ν)=I
Notons que |fk | ≤ |Fk | ≤ k!, donc F (z) a un rayon de convergence ≥ 1. On reconnait dans
l'égalité précédente un produit de Cauchy, qui montre que pour tout z tel que |z| < 1,
+∞ +∞
fk 1
z k n
F (z) e = z z = f0 + z = 1 + z.
k! n!
k=0 n=0
+∞
(−1)k (−1)k−1
On en déduit F (z) = e (1 + z) = 1 +
−z
+ z k et par identication de
k! (k − 1)!
k=1
coecient on en tire fk = (−1)k (1 − k). On en déduit, en posant ϕ(x) = (1 + x)n ,
n
n
n n
fk ρk = (−ρ)k + ρk(−ρ)k−1 = ϕ(−ρ) + ρϕ (−ρ) = (1 − ρ)n−1 (1 − ρ + nρ).
k k
k=0 k=0
En remplaçant dans l'expression obtenue dans la question précédente, on en déduit, lorsque
n ≥ 2, compte tenu du fait que det Mn soit centré et de la valeur de ρ,
n−1
b2 a2
V (det Mn ) = n!(a2 + b2 )n 1 + (n − 1) = n!b2n−2 (b2 + na2 ).
a 2 + b2 a 2 + b2
Il reste à traiter le cas n = 1, immédiat car det M1 = X1,1 donc V (det M1 ) = b2 .
Mn 0
d) Notons que An s'écrit par blocs sous la forme An =
1 1
et que det An = det Mn .
Notons Bn la matrice obtenue à partir de An en retranchant à chacune des n premières lignes a
fois la dernière. On a det Bn = det An = det Mn . Notons Xi,j∗ = X
i,j − a les variables aléatoires
Xi,j centrées. Les coecients de Bn sont Bn = (Yi,j )1≤i,j≤n+1 , avec Yi,j = Xi,j
∗ pour 1 ≤ i, j ≤ n,
Si σ = µ, on a au moins deux indices distincts i et j tels que σ(i) = µ(i) et σ(j) = µ(j). L'un de
ces deux indices est ≤ n, par exemple i. Comme σ(i) = µ(i), l'un de ces deux indices est ≤ n,
356 6. PROBABILITÉS
On en déduit
E((det Bn )2 ) = Pσ,σ = Pσ,σ + Pσ,σ = n!b2n + n n! a2 b2n−2 .
σ∈Sn+1 σ∈Sn+1 σ∈Sn+1
σ(n+1)=n+1 σ(n+1)=n+1
vignettes diérentes des k − 1 déjà obtenues). Elle suit donc une loi géométrique de paramètre
(r − k + 1)/r, en particulier on a E(τk ) = r/(r − k + 1). Comme Tr = τ1 + · · · + τr , on en déduit
r
r
r
E(Tr ) = E(τk ) = = rHr .
r−k+1
k=1 k=1
2/a) On va d'abord prouver que les τk sont indépendants. La valeur de τk ne dépend que des
des vignettes obtenues après le moment où on a k − 1 vignettes diérentes, et de celles obtenues
à ce moment (pour savoir si une vignette est nouvelle). Or les tirages sont indépendants, donc
les vignettes obtenues après en avoir eu k − 1 diérentes sont indépendantes des précédentes, et
donc de τ1 , . . . , τk−1 . Par ailleurs, l'ensemble des k − 1 premières vignettes diérentes obtenues
est indépendant du temps τ1 , . . . , τk−1 mis à les obtenir, puisque chaque type de vignette est
équiprobable. Ainsi, τk est indépendant de τ1 , . . . , τk−1 . Ceci étant vrai pour tout k, on en déduit
l'indépendances de τ1 , . . . , τr .
L'indépendance des τk permet de calculer la variance de Tr = τ1 + · · · + τr comme somme
des variances des τk . Comme la variance d'une loi géométrique de paramètre p est (1 − p)/p2 , on
en déduit
r
r
r
r
r
1 − (r − k + 1)/r 1 − k/r r−k 1
V (Tr ) = V (τr ) = = =r = r2 − rHr .
(r − k + 1)2 /r2 k 2 /r2 k2 k2
k=1 k=1 k=1 k=1 k=1
+∞
b) Notons que l'expression ci-dessus entraîne V (Tr ) ≤ r2 S avec S = k=1 1/k
2. L'inégalité de
Bienaymé-Tchébyche entraîne ensuite
V (Tr ) r2 S
P (|Tr − E(Tr )| ≥ a) ≤
2
≤ 2 . (∗)
a a
Le nombre harmonique Hr est proche de log r (on a même Hr = log r + γ + o(1) où γ est la
constante d'Euler, ici nous nous contenterons d'une majoration simple), ce qui permet d'appro-
cher E(Tr ) par r log r. Plus précisément on a
r
n
1 1 r
dt
|E(Tr ) − r log r| = r|Hr − log r| ≤ r 1 + − dt ≤r 1+ ≤ 2r.
t n t2
n=2 n−1 1
On en déduit
|Tr − r log r| ≤ |Tr − E(Tr )| + |E(Tr ) − r log r| ≤ |Tr − E(Tr )| + 2r.
Donc si |Tr − r log r| ≥ εr log r, alors |Tr − E(Tr )| ≥ εr log r − 2r. En remplaçant dans (*) on
obtient, lorsque r est assez grand pour que ε log r − 2 > 0,
Tr S
P − 1 ≥ ε ≤ P (|Tr − E(Tr )| ≥ εr log r − 2r) ≤ .
r log r (ε log r − 2)2
On en déduit le résultat souhaité.
3/a) La forme de l'expression suggère l'utilisation de la formule du crible de Poincaré (voir la
proposition 2.2 page 321). On a {Tr > n} = ∪rk=1 Ak , avec Ak = {X1 = k, . . . , Xn = k}. La
formule du crible entraîne donc
r
P (Tr > n) = P Ai = (−1)|J|−1 P (∩j∈J Aj ) .
i=1 J⊂{1,...,r}
J=∅
Lorsque J ⊂ {1, . . . , r}, on a ∩j∈J Aj = {X1∈ J, . . ., Xn ∈ J}, et comme les Xi sont indépen-
n
dants on a P (∩j∈J Aj ) = ni=1 P (Xi ∈ J) = 1 − |J| r , d'où
r
n
k−1 k
P (Tr > n) = (−1) 1− .
r
k=1 J⊂{1,...,r}
|J|=k
358 6. PROBABILITÉS
r
Comme il y a parties de {1, . . . , r} à k éléments, on en déduit le résultat.
k
b) Donnons l'idée de l'approche. Lorsqu'on remplace n par r log r + ar dans l'expression précé-
dente, chaque terme de la somme converge vers
k−1r −nk/r r(r − 1) · · · (r − k + 1) −k −ak e−ak
(−1) e ≈ (−1)k−1 r e ≈ (−1)k−1 ,
k k! k!
−a
donc on s'attend à ce que P (Tr > r log r + ar) converge vers k>0 (−1)k−1 e−ak /k! = 1 − e−e .
Cette observation nous amène à montrer que
Tr − r log r −a
∀a ∈ R, lim P >a = G(a), G(a) = 1 − e−e . (∗∗)
r→+∞ r
Par commodité on note Tr∗ = (Tr − r log r)/r. Si on montre (**), on aura prouvé le résultat
demandé compte tenu de l'égalité
P (|Tr∗ | < a) = P (Tr∗ > −a) − P (Tr∗ ≥ a) = P (Tr∗ > −a) − P (Tr∗ > a) − P (Tr∗ = a)
et du fait que limr→+∞ P (Tr∗ = a) = 0. On prouve cette dernière assertion. Soit ε > 0 ; choisis-
sons α > 0 tel que G(a − α) − G(a) < ε/2. l'inégalité P (Tr∗ = a) ≤ P (Tr∗ > a − α) − P (Tr∗ > a)
et la limite
lim (P (Tr∗ > a − α) − P (Tr∗ > a)) = G(a − α) − G(a) < ε/2,
r→+∞
entraînent que pour r assez grand, P (Tr∗ = a) < ε, on a donc bien limr→+∞ P (Tr∗ = a) = 0.
Montrons maintenant (**). Fixons a ∈ R. Soit ε > 0. On a Tr∗ > a si et seulement si Tr > nr
où nr = [r log r + ar] (où [x] désigne la partie entière de x). Supposons r assez grand pour que
nr ≥ 0. Soit k ∈ N, k ≤ r. La convexité de la fonction t → e−t entraîne 1 − k/r ≤ e−k/r donc
r k nr r −nr k/r r −(r log r+ar−1)k/r r −k −ak k/r e−ak k/r
0≤ 1− ≤ e ≤ e = r e e ≤ e ,
k r k k k k!
r
où nous avons utilisé l'inégalité = r(r − 1) · · · (r − k + 1)/k! ≤ rk /k!. Soit N ∈ N∗ tel que
k
−ak /k! < ε. Lorsque r > N , l'inégalité précédente entraîne
k>N e
r
k nr
+∞
−ak r
e−ak k/r
k−1 r k−1 e
(−1) 1 − − (−1) ≤ e + ε ≤ εe + ε. (∗∗∗)
k r k! k!
k=N +1 k=N +1 k=N +1
que P (r log r − ar < Tr < r log r + ar) 0.95, donc avec r = 100 ceci fournit l'encadrement
163 < Tr < 758, vérié environ 95% du temps.
3. VARIABLES ALÉATOIRES DISCRÈTES 359
Remarque. - On peut montrer que P (Tr ≤ n) = Sn,r r!/rn , où Sn,r est le nombre de
Stirling de deuxième espèce (voir le problème 7 page 379).
La majoration obtenue en 2/b) fournit l'encadrement −εr log r < Tr − r log r < εr log r
avec probabilité > 1 − S/(ε log r − 2). En choisissant r = 100 et ε = 1,7 on trouve que
−323 < Tr < 1244 au moins 95% du temps. La borne inférieure n'apporte rien, et cet
encadrement est beaucoup moins bon que celui obtenu à la question 2/b).
La loi dénie par P ( ] − ∞, x]) = e−e est appelée loi de Gumbel. Nous avons montré
−x
dans la question 3/b) la convergence en loi de (Tr − r log r)/r vers la loi de Gumbel.
Exercice 10 (Ruine du joueur). Soit (Xn )n∈N∗ une suite de variables de Bernoulli
indépendantes et identiquement distribuées, centrées, de paramètre p ∈ ]0, 1[ , c'est-à-dire
P (Xn = 1) = p et P (Xn = −1) = 1−p. On pose Sn = S0 +X1 +· · ·+Xn . On interprète Sn
comme la fortune d'un joueur qui gagne 1 euro si Xn = 1, et qui perd 1 euro si Xn = −1.
Le joueur part d'une fortune initiale S0 = k > 0, et joue jusqu'à atteindre une fortune
de N ou jusqu'à ce qu'il soit ruiné. On note T le plus petit entier n tel que Sn = 0 (le
joueur est ruiné) ou Sn = N (le joueur a atteint son objectif), T = +∞ si un tel entier
n'existe pas. On note q = 1 − p.
1/ Montrer que presque surement, T est ni, et que T admet une espérance.
2/ Montrer que la probabilité pk = P ((T < +∞, ST = 0) | S0 = k) de ruine du joueur,
partant d'une fortune initiale k , vérie
k (q/p)k − (q/p)N
Si p = 1/2 : pk = 1 − , si p = 1/2 : pk = .
N 1 − (q/p)N
3/ Montrer que l'espérance Ek du temps de jeu T , lorsque le joueur part d'une fortune
initiale k , vérie
1 1 − (q/p)k
Si p = 1/2 : Ek = k(N − k), si p = 1/2 : Ek = k−N .
q−p 1 − (q/p)N
et comme les Xi suivent tous une même loi et sont indépendants, X2 + · · · + Xk suit la même loi
que X1 + · · · + Xk−1 , donc : P (Ak | X1 = 1) = P (Ak+1 ). Un raisonnement du même type fournit
P (Ak | X1 = −1) = P (Ak−1 ). On en déduit, pour tout k ∈ N tel que 0 < k < N , l'égalité
pk = P (Ak ) = P (Ak | X1 = 1)P (X1 = 1) + P (Ak | X1 = −1)P (X1 = −1) = p pk+1 + q pk−1 .
Par ailleurs on a les conditions aux limites p0 = 1 et pN = 0. La relation obtenue est une relation
de récurrence linéaire d'ordre 2, dont les solutions sont de la forme pk = ar1k + br2k lorsque
l'équation caractéristique pr2 − r + q = 0 a deux racines distinctes r = r1 ou r = r2 , de la forme
pk = (a + kb)r1n si cette équation a une racine double r = r1 .
Si p = 1/2, l'équation caractéristique a une racine double r1 = 1, donc pk a la forme a + bk.
Comme p0 = 1 et pN = 0, on en déduit a = 1 et b = −1/N , donc dans ce cas, pk = 1 − k/N . Si
p = 1/2, les racines de pr2 − r + q sont 1 et q/p, donc pk a la forme a + b(q/p)k . Les conditions
aux limites p0 = 1 et pN = 0 fournissent a = −q N /(pN − q N ) et b = pN /(pN − q N ), et on en
déduit la formule souhaitée.
3/ Comme pour la question 2/, on va déterminer une relation de récurrence sur Ek . Notons Tk la
variable aléatoire T lorsque la fortune initiale du joueur est égale à k, de sorte que Ek = E(Tk ).
La proposition 8 page 339 sur les espérances conditionnelles donne
Ek = E(Tk ) = E(Tk | X1 = 1)P (X1 = 1) + E(Tk | X1 = −1)P (X1 = −1). (∗)
Supposons 0 < k < N . On a
{Tk = n | X1 = 1} = {inf{j | k + 1 + X2 + · · · + Xj ∈ {0, N }} = n}
et comme X2 + · · · + Xj suit la même loi que X1 + · · · + Xj−1 , on en déduit
P (Tk = n | X1 = 1) = P (inf{j | k + 1 + X1 + · · · + Xj ∈ {0, N }} = n − 1) = P (Tk+1 = n − 1).
On a donc
E(Tk | X1 = 1) = nP (Tk = n | X1 = 1) = nP (Tk+1 = n − 1) = 1 + E(Tk+1 ).
n∈N∗ n∈N∗
Remarque. Cet exercice modélise un joueur au casino avec une fortune initiale k , le casino
ayant une fortune N . La fortune du casino est bien plus grande que celle du joueur, donc
même si p = 1/2, le joueur est ruiné avec la probabilité 1 − k/N , proche de 1. En jouant
3. VARIABLES ALÉATOIRES DISCRÈTES 361
à la roulette, on a en fait p = 18/37 < 1/2 (lorsque la bille atterrit sur le "0", la banque
empoche toutes les mises), donc la probabilité de ruine du joueur, donnée par la deuxième
formule de 2/, est encore plus importante.
Exercice 11. 1/ Soit (Xn )n∈N∗ une suite de variables aléatoires indépendantes à valeurs
dans Z, suivant toutes une loi de Rademacher :
1 1
P (Xn = −1) = , P (Xn = 1) = .
2 2
On note Sn la variable dénie par Sn = X1 + · · · + Xn . Donner un équivalent, lorsque
n → +∞, de P (S2n = 0).
2/ (Généralisation) Soit K ∈ N∗ . Donner un équivalent de P (S2n = 0) lorsque les variables
aléatoires Xn sont indépendantes, à valeurs dans {2k + 1 − 2K, 0 ≤ k < 2K} = {1 −
2K, 3 − 2K, · · · , 2K − 1} et équidistribuées, c'est-à-dire
1
∀k ∈ 0, . . . , 2K − 1, P (Xn = 2k + 1 − 2K) = .
2K
2/ Lorsque K > 1, l'expression explicite de P (S2n = 0) est une somme multiple et n'est pas
adaptée au calcul d'un équivalent. On s'en sort en utilisant les fonctions caractéristiques (voir la
dénition 13 page 348). Puisque les Xk sont indépendantes et de même loi, la fonction caracté-
ristique ϕS2n de S2n s'exprime sous la forme
2K−1
1 ((2k+1)−2K)iθ
ϕS2n (θ) = ϕX1 (θ)2n , avec ϕX1 (θ) = e , (∗)
2K
k=0
et la formule (*) de la remarque 18 page 348 fournit l'identité
π π π/2
1 1 2
P (S2n = 0) = ϕS2n (θ) dθ = ϕX1 (θ)2n dθ = ϕX1 (θ)2n dθ. (∗∗)
2π −π π 0 π 0
où on a utilisé la parité de la fonction 2π -périodique ϕX1 et l'identité ϕX1 (π − θ) = ϕX1 (θ). Pour
calculer un équivalent à partir de cette dernière expression, on va utiliser la méthode de Laplace
(voir le tome Analyse), que nous redémontrons ici dans notre contexte. L'approche consiste à
remarquer que ϕX1 (θ) admet son module maximum lorsque θ = 0, dictant ainsi la valeur de
l'intégrale. Au voisinage de θ = 0 (θ = 0) on a
e(1−2K)iθ e4Kiθ − 1 sin(2Kθ) 2Kθ − (2Kθ)3 /6 + o(θ3 )
ϕX1 (θ) = 2iθ
= = = 1−αθ2 +o(θ2 ), (∗∗∗)
2K e −1 2K sin(θ) 2K(θ − θ3 /6 + o(θ3 ))
où α = (4K 2 − 1)/6, on a donc ϕX1 (θ)2n ≈ e−2αnθ et donc la dernière intégrale de (**)
2
est approximée par 0π/2 e−2αn θ dθ ∼ (2αn)−1/2 0+∞ e−t dt (par le changement de variable
2 2
t = (2αn)1/2 θ).
Procédons maintenant rigoureusement. Soit ε > 0. L'estimation (***) entraîne ϕX1 (θ) =
donc il existe a ∈ ]0, π/2[ tel que
−αθ 2 (1+o(1))
e
∀θ ∈ [0, a], exp(−α(1 + ε)θ 2 ) ≤ ϕX1 (θ) ≤ exp(−α(1 − ε)θ2 )
362 6. PROBABILITÉS
donc a a a
2 2
e−2nα(1+ε)θ dθ ≤ ϕX1 (θ)2n dθ ≤ e−2nα(1−ε)θ dθ.
0 0 0
Un équivalent des deux intégrales qui encadrent celle du milieu est obtenu avec le résultat suivant :
a a(nβ)1/2 +∞
2 2 I 2
∀β > 0, e−nβθ dθ = (nβ)−1/2 e−t dt ∼ , I= e−t dt.
0 0 (nβ)1/2 0
En appliquant ce résultat avec β = 2α(1 + ε) puis β = 2α(1 − ε), on en déduit l'existence de
N ∈ N∗ tel que pour tout n ≥ N
a
I I
(1 − ε) ≤ ϕX1 (θ)2n dθ ≤ (1 + ε).
(2nα(1 + ε))1/2 0 (2nα(1 − ε))1/2
On majore ensuite |ϕX1 (θ)| sur [a, π/2] à partir de son expression sous forme de somme dans
(*) dont les termes d'indice K − 1 et K valent respectivement e−iθ et eiθ , et les autres ont leur
module majorés par 1. Ceci permet d'écrire
2K − 2 + 2 cos θ 2K + 2(cos a − 1)
∀θ ∈ [a, π/2], |ϕX1 (θ)| ≤ ≤ q, avec q = < 1.
2K 2K
π/2
Donc | a ϕX1 (θ)2n dθ| ≤ (π/2)q 2n , et pour tout n ≥ N
π/2
I 1−ε π 2n I 1+ε π
1/2 1/2
− q ≤ ϕX1 (θ)2n dθ ≤ 1/2 1/2
+ q 2n .
(2nα) (1 + ε) 2 0 (2nα) (1 − ε) 2
Comme 0 < q < 1, on a q 2n = o(n−1/2 ) donc ceci entraîne l'existence de N1 ≥ N tel que
π/2
I (1 − ε)2 I (1 + ε)2
∀n ≥ N1 , 1/2 1/2
≤ ϕX1 (θ)2n dθ ≤ .
(2nα) (1 + ε) 0 (2nα) (1 − ε)1/2
1/2
L'existence de N1 étant assurée pour tout ε > 0, les deux fonctions de ε en présence étant
continues en ε = 0, on en déduit que 0π/2 ϕX1 (θ)2n dθ ∼ I/(2nα)1/2 . Compte tenu de la valeur
de α = (4K 2 − 1)/6 et avec (**) on en déduit
2 I
P (S2n = 0) ∼ .
π ((4K − 1)n/3)1/2
2
La valeur de I est classique (voir le tome Analyse), ici on peut la retrouver à partir de l'équivalent
√
obtenu dans
√ la question précédente, qui correspond au cas K = 1, ce qui fournit 2I/π = 1/ π ,
donc I = π/2. En conclusion on a donc
1
P (S2n = 0) ∼ .
((4K 2 − 1)πn/3)1/2
Exercice 12 (Loi faible des grands nombres, cas L1 ). Soit (Xn )n∈N∗ une suite
de variables aléatoires discrètes réelles, indépendantes, identiquement distribuées, et ad-
mettant une espérance (on ne suppose pas que les Xn admettent une variance).
1/ Montrer que (Xn )n∈N∗ converge en probabilité vers m = E(X1 ), c'est-à-dire
∀ε > 0, lim P (|(X1 + · · · + Xn )/n − m| > ε) = 0.
n→+∞
Soit ε > 0. On suit l'indication en considèrant la variable aléatoire tronquée Yn = Xn 1|Xn |≤M ,
où la valeur de M > 0 sera choisie plus tard. On note Zn = Xn − Yn = Xn 1|Xn |>M . On a
X n = X n − E(X n ) = (Y n − E(Y n )) + (Z n − E(Z n )).
Donc si |X n | ≥ 2ε alors |Y n − E(Y n )| ≥ ε ou |Z n − E(Z n )| ≥ ε, ce qui entraîne
P (|X n | ≥ 2ε) ≤ P (|Y n − E(Y n )| ≥ ε) + P (|Z n − E(Z n )| ≥ ε).
Comme Yk est bornée, à valeur dans [−M, M ], elle admet un moment d'ordre 2 et sa variance
vérie V (Yk ) ≤ E(Yk2 ) ≤ M 2 . En appliquant l'inégalité de Bienaymé-Tchébyche on a donc
n
V (Y n ) V (Yk ) M2
P (|Y n − E(Y n )| ≥ ε) ≤ 2
= 2 2
≤ 2.
ε n ε nε
k=1
Exercice 13 (Loi forte des grands nombres, cas L4 ). Soit (Xn )n∈N∗ une suite
de variables aléatoires discrètes réelles, indépendantes. On suppose que les Xn admettent
toutes un moment d'ordre 4 et sont centrées, et qu'il existe K > 0 tel que E(Xn4 ) ≤ K
pour tout n ∈ N∗ .
1/ Montrer que chaque Xk admet des moments d'ordre 1, 2 et 3. Pour tout n ∈ N∗ , on
note Sn = X1 + · · · + Xn , montrer que
n
E(Sn4 ) = E(Xi4 ) + 3 E(Xi2 Xj2 ),
i=1 1≤i,j≤n,i=j
364 6. PROBABILITÉS
S'il existe k ∈ {1, 2, 3, 4} tel que ik n'apparait qu'une fois parmi i1 , i2 , i3 , i4 , alors Xik est indé-
pendant de j=k Xij , donc E(Xi1 Xi2 Xi3 Xi4 ) = E(Xik )E( j=k Xij ) = 0. On peut donc retirer
dans la somme (*) tous les termes dont un (au moins) des indices ik n'apparait qu'une fois parmi
i1 , i2 , i3 , i4 . Il ne reste donc que les termes pour lesquels chaque indice ik apparait au moins deux
fois parmi i1 , i2 , i3 , i4 . Ces indices sont soit de la forme (i1 , i2 , i3 , i4 ) = (i, i, i, i) avec 1 ≤ i ≤ n,
soit de la forme (i1 , i2 , i3 , i4 ) = (i, i, j, j) avec i = j , soit (i1 , i2 , i3 , i4 ) = (i, j, i, j) avec i = j , soit
(i1 , i2 , i3 , i4 ) = (i, j, j, i) avec i = j . En résumé on a donc
n
E(Sn4 ) = E(Xi4 ) + 3 E(Xi2 Xj2 ). (∗∗)
i=1 1≤i,j≤n,i=j
4. Problèmes
Problème 1. 1/ Soit n ∈ N, n ≥ 2. On place n boules de manière aléatoire, équiprobable,
et indépendante, dans n urnes. Pour tout i on note Ni la variable aléatoire qui compte le
nombre de boules dans l'urne numéro i, et Mn = max1≤i≤n Ni .
a) Quelle est la proportion moyenne d'urnes vides, et sa limite lorsque n → +∞ ?
b) Calculer les lois de Ni , puis montrer que pour tout k ∈ N∗ , P (Mn = k) ≤ n/k!. Les Ni
sont elles indépendantes ?
c) Montrer que pour tout ε > 0, on a limn→+∞ P (Mn > (1 + ε) log n/ log log n) = 0.
2/ Dans 1/, la non-indépendance des Ni rend dicile l'obtention d'une borne minimum
en probabilité pour Mn . Pour ce faire, on modie l'expérience aléatoire, en se plaçant
dans le cas où le nombre de boules placées aléatoirement dans les n urnes est une variable
4. PROBLÈMES 365
aléatoire K qui suit une loi de Poisson de paramètre nα, où α > 0 est xé. Par simplicité,
on note toujours Ni le nombre de boules dans l'urne numéro i et Mn,α = max1≤i≤n Ni .
a) Montrer que les Ni sont indépendantes et suivent une loi de Poisson de paramètre α.
b) Montrer que Mn,α log log n/ log n converge vers 1 en probabilité, c'est-à-dire
Mn,α
∀ε > 0,
lim P
− 1 > ε = 0.
n→+∞ log n/ log log n
c) En déduire que Mn log log n/ log n converge vers 1 en probabilité (où Mn est la variable
aléatoire dénie dans la question 1/).
Solution. 1/a) Une urne donnée est vide si chacun des n placements se fait dans les n − 1 autres
urnes, elle a donc une probabilité pn = (1 − 1/n)n d'être vide. Notons Xi la variable aléatoire qui
vaut 1 sur l'urne numéro i est vide, 0 sinon. Elle suit une loi de
Bernoulli de paramètre pn , et le
nombre d'urnes vides est ni=1 Xi , et le nombre moyen égal à ni=1 E(Xi ) = npn . La proportion
moyenne d'urnes vides est donc pn = (1 − 1/n)n , et sa limite est 1/e lorsque n → +∞.
b) Soit k ∈ {0, . . . , n}. On a Ni = k si et seulement si on choisit k boules parmi les n, chacune
de ces k boules se trouvant dans l'urne numéro i (avec probabilité 1/n), et les n − k autres se
trouvant dans les autres urnes (avec probabilité 1 − 1/n). Donc
k
n 1 n − 1 n−k
P (Ni = k) = .
k n n
On en déduit l'inégalité
n−k
n(n − 1) · · · (n − k + 1) 1 n−1 1
P (Ni = k) = ≤ .
nk k! n k!
Or {Mn = k} ⊂ ∪ni=1 {Ni = k} donc
n
n
P (Mn = k) ≤ P (Ni = k) ≤ .
k!
i=1
Notons mn est le plus petit entier m > 0 vériant n ≤ m!, de sorte que (mn − 1)! < n ≤ mn !.
On a log((mn − 1)!) ≤ log n < log(mn !). La formule de Stirling entraîne log m! ∼ m log m,
donc on a mn log mn ∼ log n. En considérant le logarithme des deux membres, ceci entraîne
log mn ∼ log log n, et en reinjectant, on obtient mn ∼ log n/ log mn ∼ log n/ log log n. Notons
que P (Mn > mn + 1) ≤ 1/(mn + 1) → 0. Soit ε > 0. Il existe n0 ∈ N tel que pour tout n ≥ n0 ,
mn + 1 < (1 + ε) log n/ log log n, donc pour tout n ≥ n0 on a P (Mn > (1 + ε) log n/ log log n) ≤
P (Mn > mn + 1) ≤ 1/(mn + 1), d'où le résultat.
2/a) Nous sommes dans le cas équiprobable. Ainsi, la probabilité d'avoir ik boules dans l'urne
k pour 1 ≤ k ≤ n, lorsque i1 + · · · + in = m, est égale à
m 1 m! 1
P (N1 = i1 , , . . . , Nn = in | K = m) = m
= ,
i 1 , . . . , in n i 1 ! · · · i n ! nm
donc
P (N1 = i1 , . . . , Nn = in ) = P (N1 = i1 , . . . , Nn = in | K = i1 + · · · + in )P (K = i1 + · · · + in )
i1 +···+in n
ik
(i1 + · · · + in )! 1 −nα (nα) −α α
= i +···+i
e = e ,
i1 ! · · · i n ! n1 n (i1 + · · · + in )! ik !
k=1
366 6. PROBABILITÉS
qui s'exprime comme le produit de n lois de Poisson de paramètre α. Ceci démontre le résultat
souhaité.
b) Notons Mn,α∗ = M
n,α log log n/ log n. Pour démontrer la convergence en probabilité de Mn,α
∗
vers 1, il sut de montrer que la fonction de répartition Fn (x) = P (Mn,α ≤ x) vérie : ∀ε > 0,
∗
D'après la question précédente et d'après (*), le terme de droite tend vers 0, donc le terme de
gauche tend vers 0. Avec le résultat établi en 1/c), on en déduit que Mn log log n/ log n converge
vers 1 en probabilité (nous aurions pu prouver que P (Mn > (1 + ε) log n/ log log n) → 0 sans
1/c), en utilisant une approche similaire à utilisée ici mais en choisissant α > 1).
Montrer que la loi ∗ ainsi dénie sur les fonctions de Dm vers R, est commutative et
associative.
b) On considère la fonction de Möbius µ dénie sur N∗ par µ(1) = 1 et
(−1)k si m est le produit de k nombres premiers distincts,
µ(m) =
0 si m est divisible par un carré d'un nombre premier .
Montrer que d|m µ(d) = 0 si m > 1, = 1 si m = 1.
c) (formule d'inversion de Möbius ) : Soit m ∈ N∗ . Si
f et g sont deux fonctions dénies
sur Dm et si pour tout diviseur de m on a g() = d| f (d), alors montrer que
∀k ∈ N∗ , k | m, f (k) = µ(d)g(k/d).
d|k
(pour tout entier r, on utilisera l'inversion de Möbius pour calculer le nombre Cr (n, p) de
placements relatifs x de p chaises blanches et q = n − p noires, tels que r(x) = r, où r(x)
désigne le plus petit entier k > 0 tel que x est invariant à une rotation de k chaises).
Solution. 1/ On note E = {B, N} l'ensemble des couleurs de chaises possibles (blanche ou noire).
Chaque placement absolu (ici on ne compte pas les placements relatifs) de p chaises blanches et
q chaises noires autour de la table est représenté par l'ensemble Pp des n-listes x = (x1 , . . .
, xn)
n
de E , contenant p fois l'élément B (et forcément q = n − p fois l'élément N). On a donc
p
placements absolus possibles.
On regroupe ensuite les emplacements égaux à une permutation prés. Pour cela, on considère
les permutations circulaires G = {γ k , 0 ≤ k < n} de {1, . . . , n}, où γ est le cycle (1, 2, . . . , n).
On fait opérer G (sous-groupe de Sn ) sur Pp , en dénissant, pour tout k ∈ N, k < n
∀x = (x1 , . . . , xn ) ∈ Pp , γ k (x) = (xγ k (1) , . . . , xγ k (n) ) = (xk+1 , . . . , xn , x1 , . . . , xk ),
368 6. PROBABILITÉS
et
(f ∗ (g ∗ h))(k) = f (a)(g ∗ h)(b) = f (a)g(c)h(d) = f (a)g(c)h(d).
(a,b)∈N2 (a,b)∈N2 (c,d)∈N2 (a,c,d)∈N3
ab=k ab=k cd=b acd=k
où on a noté Cr (n, p) = |Θr |. On rapproche ceci de la question 2/b), en remarquant que cette
expression s'écrit aussi
n
g(α) = f (d), avec g() = et f (k) = kn Ckn (n, p).
p
d|α
Lorsque β | α, la formule (***) appliquée en remplaçant n par βn et p par βp fournit
g(β) = (dn ) Cdn (βn , βp ).
d|β
Or lorsque β | α et d | β , on a Cdn (βn , βp ) = Cdn (n, p) puisque les placements x invariants à une
rotation de r = dn chaises sont uniquement déterminés par les r premières valeurs (x1 , . . . , xr ),
qui doivent contenir dp fois B et dq fois N, et ne dépendent donc pas du nombre total de chaises
de la table (qui est un multiple de r). Ainsi on peut écrire g(β) = d|β f (d) pour tout diviseur
β de α. Nous sommes donc dans les conditions d'application de la question 2/c) avec m = α, ce
qui entraîne f = µ ∗ g . Or on a
1
T (n, p) = |Θ| = |Θβn | = Cβn (n, p) = f (β),
βn
β|α β|α β|α
on en déduit
nT (n, p) = (α/β)f (β) = (Id ∗f )(α).
β|α
Or Id ∗f = Id ∗(µ ∗ g) = (Id ∗µ) ∗ g = ϕ ∗ g , et on conclut en écrivant
n/d
nT (n, p) = (ϕ ∗ g)(α) = ϕ(d)g(α/d) = ϕ(d) .
p/d
d|α d|α
On reconnait dans cette expression un produit de Cauchy ; on en déduit, pour |z| < 1,
+∞
+∞
|Pn (N, k)| zm |P (N, k − 1)|
n
k z = z .
n! m !
n=1 m∈N =1
On a donc kΦP(N,k) (z) = CN (z)ΦP(N,k−1) (z) = CN (z)k /(k − 1)!. Ceci démontre le résultat
souhaité.
c) Soit n ∈ N∗ . Chaque permutation dans Pn (N
n) a au plus n cycles,
n donc |P n (N )|/n! =
k=1 |Pn (N, k)|/n! est le coecient de z dans k=1 CN (z) /k!. Or pour
n n k
k=1 ΦP(N,k) (z) =
k > n, le coecient de z n dans CN (z)k est nul (car le coecient
constant
de CN (z) est nul).
On en déduit que |Pn (N )|/n! est le coecient de z n dans nk=1 CN (z)k /k! + k>n CN (z)k /k! =
exp(CN (z)) − 1.
2/a) Une permutation s ∈ Sn est sans point xe si et seulement si aucun de ses cycles a une
longueur de 1 dans sa décomposition en produits de cycles, ce qui revient à écrire s ∈ Pn (N )
avec N = {k ∈ N, k ≥ 2}. D'après la question précédente, la série génératrice exponentielle
des permutations sans point xe est donc Φ(z) = exp(CN (z)) − 1 avec CN (z) = +∞ k=2 z /k .
k
b) Le cas des permutations n'ayant que des cycles de longueur paire correspond au cas où
N = {2k | k ∈ N}, donc
+∞ 2k
z 1 1
∀z ∈ ] − 1, 1[ CN (z) = = log .
2k 2 1 − z2
k=1
On en déduit que la série génératrice expoentielle des permutations correspondantes vérie, pour
tout z ∈ ] − 1, 1[ ,
1/2 +∞
1 1 1 3 2m − 1 (2m)!
Φ(z) = −1= am z 2m , avec am = · · ··· = 2m .
1 − z2 m! 2 2 2 2 (m!)2
m=1
Ainsi, lorsque n est impair, il n'y a pas de permutation dans Sn qui s'écrit comme produit de
cycles de longueur paire, et lorsque n = 2m est pair, il y en a n!am = 2−2m ((2m)!)2 /(m!)2 . La
probabilité qu'une permutation dans S2m ait tout ses cycles de longueur paire est égal à am ,
dont on calcule le comportement asymptotique avec la formule de Stirling
√
4πm(2m/e)2m
1 1
am ∼ 2m √ =√ .
2 ( 2πm(m/e)m )2 πm
3/a) La continuité de ϕm par rapport à la variable complexe z sur D∗ est immédiate d'après la
forme de ϕm (z). Lorsque z ∈ D∗ , on peut écrire
m
m
e−Hm ψm (z) zk 1 − zk
ϕm (z) = (e − 1), avec ψm (z) = Hm − = = (1 − z)θm (z)
1−z k k
k=1 k=1
où
m
1 + z + · · · + z k−1
θm (z) = .
k
k=1
La fonction θm (z) est polynomiale, donc continue sur C, en particulier, lorsque z ∈ D∗ tend vers
1 on a θm (z) = θm (1) + o(1) = m + o(1). Lorsque z ∈ D∗ converge vers 1 on peut donc écrire
e−Hm (1−z)(m+o(1)) e−Hm
ϕm (z) = (e − 1) = ((1 − z)(m + o(1)) + o(1 − z)) = e−Hm m + o(1).
1−z 1−z
En posant ϕm (1) = e−Hm m, on a donc prolongé par continuité ϕm sur D tout entier.
b) Les permutations avec
cycles de longueur > m correspond
au cas où N = {k ∈ N | k > m},
pour lequel CN (z) = k>m z k /k = − log(1 − z) − m z k /k pour z ∈ ] − 1, 1[ . Donc la série
k=1
génératrice exponentielle correspondante Φm (z) = +∞
n=1 pn (m) z vérie
n
2 /2−···−z m /m
e−z−z
∀z ∈ ] − 1, 1[ Φm (z) = exp(CN (z)) − 1 = − 1. (∗)
1−z
La fonction z → e−z−z /2−···−z /m /(1 − z) est la somme d'une série entière de rayon de conver-
2 m
gence ≥ 1, car c'est le produit des fonctions e−z /k pour 1 ≤ k ≤ m et 1/(1 − z) qui sont toutes
k
des sommes de séries entières de rayon de convergence ≥ 1. Ainsi l'identité (*), vraie sur ] − 1, 1[
l'est aussi
sur {z ∈ C | |z| < 1} d'après le principe des zéros isolés. Or pour toute série entière
f (z) = +∞ n=0 an z de rayon de convergence ≥ 1, on a l'identité classique
n
2π
1 e−int
∀ρ ∈ ]0, 1[ , ∀n ∈ N, an = f (ρeit ) dt (∗∗)
2π 0 ρn
que l'on démontre en écrivant
+∞ +∞
1 2π
e−int 1 2π 1 2π
it k−n i(k−n)t
f (ρe ) n dt = ak ρ e dt = ak ρk−n ei(k−n)t dt
2π 0 ρ 2π 0 2π 0
k=0 k=0
372 6. PROBABILITÉS
les séries entières en présence ayant rayon de convergence ≥ 1, on a donc, compte tenu de
l'identité (**) appliquée à cette série entière
2π
1 e−int
∀ρ ∈ ]0, 1[ , ∀n ∈ N∗ , pn (m) − e−Hm = ϕm (ρeit ) dt.
2π 0 ρn
Notons I(ρ) cette dernière intégrale. La question précédente entraîne la continuité de la fonction
intégrée sur (ρ, t) ∈ ]0, 1] × [0, 2π]. Ainsi, I(1) existe et le théorème de continuité sous le signe
intégral entraîne que I est continue sur ]0, 1], en particulier en ρ = 1. Comme I(ρ)/(2π) =
pn (m) − e−Hm pour tout ρ ∈ ]0, 1[ , on en déduit le résultat demandé car
I(ρ) I(1)
pn (m) − e−Hm = lim = .
ρ→1,ρ<1 2π 2π
c) Lorsque n → +∞, il est classique que l'intégrale de la question précédente converge vers 0
(c'est le lemme de Lebesgue, voir le tome Analyse). La preuve du lemme de Lebesgue est facile
lorsque la fonction intégré est de classe C 1 , en procédant par intégration par parties. Lorsque
l'intégrande est uniquement supposée continue, on le démontre en approchant la fonction continue
t → ϕm (eit ) par une fonction en escalier, sur [0, 2π] (cette approche est décrite dans le tome
Analyse). Ici, pour faciliter la preuve, on va procéder de manière hybride. Soit ε > 0 (et ε < π ).
La forme de ϕm montre que f (t) = ϕm (eit ) est de classe C 1 sur [ε, 2π −ε], on pourra donc intégrer
par parties sur cet intervalle. On écrit pn (m) − e−Hm = (An + Bn )/(2π) avec
ε 2π 2π−ε
An = f (t)e−int dt + f (t)e−int dt et Bn = f (t)e−int dt.
0 2π−ε ε
On en déduit qu'il existe N0 ∈ N tel que pour tout n > N0 , on ait |Bn | < ε. Donc lorsque
n > N0 , on a |pn (m) − e−Hm | < 2ε supt∈[0,2π] |f (t)|/(2π) + ε/(2π) , d'où le résultat.
Remarque. On a ainsi retrouvé dans la question 2/a) le résultat de l'exercice 8 page 312.
Le résultat de la question 3/c) est un cas particulier d'un théorème plus général, qui
exprime que sous certaines conditions (dont la formulation dépasse le cadre du programme
des classes préparatoires) le comportement asymptotique du n-ième coecient d'une série
entière est dicté par le comportement de cette dernière en ses singularités les plus proches
de 0 (ici en z = 1). Dans notre cas, l'équivalent Φm (z) ∼ e−Hm /(1 − z) entraîne que le
n-ième coecient de Φm (z) est équivalent à celui de e−Hm /(1 − z).
La fonction f (t) = ϕm (eit ) de la partie 3/ est aussi de classe C 1 (elle est même C ∞ )
et nous aurions pu procéder plus rapidement pour démontrer la convergence vers 0 de
l'intégrale de 3/b) si nous avions utilisé cette propriété (en intégrant par parties), mais la
preuve de la regularité C 1 de f est assez pénible avec les outils dont nous disposons.
4. PROBLÈMES 373
b) Pour tout chemin c de (m, a) à (n, b) passant par zéro, on considère le plus petit entier k > m
tel que ck = 0, et on construit le chemin c dont la représentation jusqu'à l'abscisse k est la
symétrique de celle de c par rapport à l'axes des abscisses, puis égal à c après cette abscisse.
Comme on le voit sur la gure ci-contre, il est facile de vérier qu'on obtient ainsi une bjiection
de l'ensemble des chemins de (m, a) à (n, b) passant par zéro, vers celui des chemins de (m, −a)
vers (n, b). On en déduit que le nombre de chemins de (m, a) à (n, b) passant par zéro est égal à
N (n − m, b + a).
2/a) Si n − b est impair, toute les probabilités sont nulles donc la relation est vraie. Supposons
maintenant n et b de même parité. Il y a autant de valeurs de (Xk )1≤k≤n vériant Sn = b
que de chemins de (0, 0) à (n, b), donc comme nous sommes ici dans le cas équiprobable, on a
P (Sn = b) = 2−n N (n, b). Comme S1 = X1 , pour avoir S1 > 0 on doit avoir S1 = 1. Ainsi, on
a (S1 > 0, . . . , Sn−1 > 0, Sn = b) si et seulement si le chemin (k, Sk )1≤k≤n va de (1, 1) à (n, b),
374 6. PROBABILITÉS
(n, b)
(c)
(m, a)
1 2 3 4 5 6 7 8 9 10
(c )
(m, −a)
Il y a autant de valeurs de (Xk )1≤k≤2n vériant S2n = 0 que de chemins allant de (0, 0) à (2n, 0),
donc
2n 2n 2n − 1 2n − 1
P (S2n = 0) = 2−2n N (2n, 0) = 2−2n = 2−2n = 21−2n .
n n n−1 n
On en déduit le résultat avec (**).
c) Notons An = {S1 = 0, . . . , S2n = 0}. La formule de Stirling appliquée à la question précédente
entraîne √
2n (2n)! 4πn(2n/e)2n 1
P (An ) = 2−2n = 2−2n 2
∼ 2−2n √ =√ .
n (n!) ( 2πn(n/e)n )2 πn
La suite (An ) est décroissante, donc P (∩n∈N∗ An ) = limn→+∞ P (An ) = 0. Donc A = ∩n∈N∗ An
est négligeable, et comme A est l'événement S2n = 0 pour tout n ∈ N, on en déduit que presque
surement, il existe n ∈ N∗ tel que S2n = 0.
d) On a T > 2n si et seulement si S1 =0, . . . , S2n = 0. Donc d'après 2/b), on a P (T > 2n) =
P (S2n = 0) ∼ (πn)−1/2 . Donc la série n P (T > n) diverge, donc T n'admet pas d'espèrance
d'après la proposition 7 page 338.
Remarque. Une conséquence du résultat de la question 2/a), est que si un scrutin entre
deux candidats A et B se termine avec a voix pour le candidat A, et b voix pour le
candidat B , avec a > b, alors la probabilité que le nombre de voix pour A soit toujours
4. PROBLÈMES 375
et donc k P (|Xnk − X| > ε) converge. On a bien prouvé le résultat souhaité.
d) On suit l'indication. Soit (pn )n∈N∗ une suite à valeurs dans ]0, 1[ convergeant vers 0, telle
que pn diverge (par exemple pn = 1/(n + 1)). D'après la proposition 17 page 344, il existe un
espace probabilisé (Ω, A, P ) et une suite de variables aléatoires (Xn ) discrètes indépendantes,
telles que Xn suive une loi de Bernoulli de paramètre pn , c'est-à-dire P (Xn = 1) = pn et
P (Xn = 0) = 1 − pn . La suite (Xn ) converge en probabilité vers 0 car pour tout ε ∈ ]0, 1[ , on
a P (|Xn | > ε) = P (Xn = 1) = pn . En revanche, d'après le lemme de Borel-Cantelli (assertion
(ii)), A = lim supn {Xn = 1} est presque sûr, et pour tout ω ∈ A, il existe une innité d'entiers
n tels que Xn (w) = 1, donc (Xn (ω))n∈N ne converge pas simplement vers 0 sur A.
2/ Supposons que (Xn ) converge dans L1 vers X . Soit ε > 0. L'inégalité de Markov entraîne
E(|X − Xn |)
P (|Xn − X| ≥ ε) ≤ ,
ε
et comme (E(|X − Xn |))n → 0, on en déduit que (P (|Xn − X| ≥ ε))n converge vers 0.
La réciproque est fausse, comme le montre le contre-exemple suivant : pour tout n ∈ N∗ ,
on choisit Xn vériant P (Xn = 0) = 1 − 1/n et P (Xn = n) = 1/n. Pour tout ε ∈ ]0, 1[ , on
a P (|Xn | > ε) = P (Xn = n) = 1/n, donc (P (|Xn | > ε)) converge vers 0, c'est-à-dire que Xn
converge en probabilité vers 0, alors que E(|Xn |) = 1 pour tout n ∈ N∗ .
3/ Supposons que (Xn ) converge en probabilité vers X . Alors (P (|Xn − X| > 1/2)) converge
vers 0. Fixons k ∈ Z. Comme les variables aléatoires sont à valeurs dans Z, on a
{Xn = k} ⊂ {X = k} ∪ {|X − Xn | > 1/2} et {X = k} ⊂ {Xn = k} ∪ {|X − Xn | > 1/2}.
On en déduit P (Xn = k) ≤ P (X = k) + P (|Xn − X| > 1/2) et P (X = k) ≤ P (Xn =
k) + P (|Xn − X| > 1/2), donc |P (Xn = k) − P (X = k)| ≤ P (|Xn − X| > 1/2), ce qui montre
que |P (Xn = k) − P (X = k)| tend vers 0 lorsque n → +∞.
La réciproque est fausse. Considérons par exemple une variable aléatoire B qui suit une loi de
Bernoulli de paramètre 1/2, et Xn = B pour tout n. Alors (Xn ) converge en loi vers X = 1 − B
(X suit aussi une loi de Bernoulli de paramètre 1/2, donc elle suit la même loi que chaque Xn ),
alors qu'on a toujours X − Xn = 1.
3) Soient a, b ∈ ]0, 1[. On se place ici dans le cas linéaire-fractionnaire où X suit la loi
P (X = 0) = a, et ∀k ≥ 1, P (X = k) = (1 − a)b(1 − b)k−1
a) Calculer explicitement G(x) et vérier
G(x) − α 1 x−α a
si m = 1 = · avec α = ,
G(x) − 1 m x−1 1−b
1 1 b−1
si m = 1 = +β avec β = .
G(x) − 1 x−1 b
b) En déduire les probabilités d'extinction πn et Pext dans le cas linéaire-fractionnaire.
Solution. 1/a) La formule de Wald (voir la proposition 19 page 347), appliquée avec N = Zn ,
fournit l'identité Gn+1 = Gn ◦ G. La loi de composition est associative on donc bien Gn+1 =
G ◦ Gn .
b) C'est une conséquence du fait que pour tout n ∈ N on a πn = Gn (0), donc πn+1 = Gn+1 (0) =
G ◦ Gn (0) = G(Gn (0)) = G(πn ).
c) Pour tout n ∈ N, Zn admet une espérance si et seulement si sa série génératrice Gn est de
classe C 1 sur [0, 1], et on a alors E(Zn ) = Gn (1). On a G0 (x) = x, donc Z0 admet une espérance
et E(Z0 ) = 1. La relation Gn+1 = G ◦ Gn entraîne avec une récurrence immédiate que les Gn
sont de classe C 1 sur [0, 1] et que Gn+1 (1) = Gn (1) · G (Gn (1)) = Gn (1) · G (1) = m Gn (1). On
en déduit que pour tout n ∈ N, Zn admet une espérance, et que E(Zn ) = Gn (1) = mn .
2/a) Commençons par le cas m ≤ 1. Si pn = 0 pour tout n > 1, alors p0 + p1 = 1 et G(x) =
p0 +p1 x. On a donc G(x)−x = p0 +(p1 −1)x = p0 (1−x), donc si 0 ≤ x < 1, on a G(x)−x > 0 et
donc G n'admet pas de point xe sur [0, 1[ . Supposons maintenant qu'il existe n >1 avec pn > 0.
Comme X admet une espérance, G est de classe C 1 sur [0, 1]. Sa dérivée G (x) = n≥1 npn xn−1
est strictement croissante sur [0, 1]. Pour tout x ∈ [0, 1[ , l'égalité des accroissements nis assure
l'existence de cx ∈ ]x, 1[ tel que G(1) − G(x) = (1 − x)G (cx ), et on en déduit G(1) − G(x) <
(1 − x)G (1) = m(1 − x) ≤ (1 − x) (on vient de redémontrer que la fonction strictement convexe
G est strictement au dessus de sa tangente en 1 sur [0, 1[ ) Donc G(x) > G(1) − (1 − x) = x,
donc G n'a pas de points xe sur [0, 1[ .
(G) y=x
(G)
(G)
y = mx y=x y=x
y = mx
0 1 0 1 0 α 1
cas m < 1 cas m = 1 cas m > 1
Traîtons maintenant le cas m > 1. Il existe forcément n > 1 tel que pn > 0 (sinon G(x) =
p0 + p1 x donc m = G (1) = p1 < 1, ce qui est impossible). Donc G − 1 est strictement croissante
sur [0, 1]. Or G (1) − 1 = m − 1 > 0 et G (0) − 1 = p1 − 1 < 0, donc la fonction continue G − 1
s'annule en un point β ∈ ]0, 1[ . Comme G −1 est strictement croissante, on en déduit G (x)−1 < 0
sur [0, β[ et G (x) − 1 > 0 sur ]β, 1]. Donc H(x) = G(x) − x est strictement décroissante sur
[0, β] et strictement croissante sur [β, 1]. On a donc H(β) = G(β) − β < G(1) − 1 = 0 et comme
H(0) = G(0) = p0 > 0 on en déduit que H(x) s'annule une et une seule fois sur [0, β], et ne
s'annule pas sur [β, 1[ , ce qui démontre le résultat souhaité.
378 6. PROBABILITÉS
b) Remarquons que Zn = 0 entraîne Zn+1 = 0, donc la suite des événements {Zn = 0}n∈N est
croissante. Donc la suite (πn )n∈N est croissante et elle converge. En notant = limn→+∞ πn on a
Pext = P ({∃n ∈ N, Zn = 0}) = P (∪n∈N {Zn = 0})) = lim P (Zn = 0) = . (∗)
n→+∞
égalité qui reste vraie pour tout x, y ∈ D = R {1/c} lorsqu'on étend la dénition de G(x) à D
tout entier. Comme G(α) = α et G(1) = 1 on en déduit
G(x) − α G(x) − G(α) x−α (1 − cx)b 1 x−α
= = = .
G(x) − 1 G(x) − G(1) (1 − cx)(1 − a) x − 1 m x−1
1 1 (1 − ax)b 1 1 − ax − b a b−1
− = 2 − = =− = .
G(x) − 1 x − 1 b (x − 1) x − 1 b(x − 1) b b
Ceci permet d'obtenir une forme explicite pour Gn (x), mais nous n'en n'aurons pas besoin
directement. En remplaçant x par 0 dans les relations précédentes on obtient, pour tout n ∈ N∗
πn − α α mn − 1
si m = 1 = n donc πn = α n
πn − 1 m m −α
1 1 n(1 − b)
si m = 1 = nβ − 1 donc πn = 1 + = .
πn − 1 nβ − 1 n(1 − b) + b
et compte tenu du fait que les coecients de xn sont positifs, ceci entraîne que (−1)n−k s(n, k)
est positif, donc égal à |s(n, k)|, ce qui montre le résultat demandé.
b) Comme x0 = 1, on a bien s(0, 0) = 1. Lorsque n ≥ 1, le coecient dominant de xn est 1,
donc s(n, n) = 1 ; le coecient constant est 0 donc s(n, 0) = 0. Maintenant si k ∈ {1, . . . , n} on
a xn+1 = (x − n)xn , donc
n+1
n
s(n + 1, k) xk = −n s(n, 0) + (s(n, k − 1) − n s(n, k)) xk + s(n, n)xn+1
k=0 k=1
2/a) La matrice carrée M de taille n + 1, dans laquelle on exprime les coecients des (xk )0≤k≤n ,
en fonction des (xk )0≤k≤n , est une matrice triangulaire dans laquelle les coecients diagonaux,
4. PROBLÈMES 381
qui correspondent au coecient dominant de chaque xk , sont tous égaux à 1. Donc cette matrice
est inversible, donc les (xk )0≤k≤n forment une base des polynômes de degré ≤ n, en particulier
on peut exprimer xn comme combinaison linéaire des (xk )0≤k≤n , d'où le résultat.
b) En faisant n = 0 dans (*) on trouve 1 = S(0, 0) x0 = S(0, 0). Si n ∈ N∗ , en faisant x = 0 dans
(*), on trouve 0 = S(n, 0), et lorsque x → +∞ le terme de droite a pour équivalent S(n, n)xn
donc S(n, n) = 1. Comme x · xk = (x − k)xk + kxk = xk+1 + kxk , on a
n
n
xn+1 = x · xn = S(n, k)(xk+1 + kxk ) = (S(n, k − 1) + kS(n, k))xk + S(n, n)xn+1 .
k=0 k=1
Ceci est égal à xn+1 = n+1 k=0 S(n + 1, k)x . Or nous avons vu précédemment que les (x )0≤k≤n+1
k k
forment une base des polynômes de degré ≤ n + 1, on peut donc procéder par identication ce
qui donne S(n + 1, k) = S(n, k − 1) + kS(n, k) pour 1 ≤ k ≤ n.
c) Notons Pn,k l'ensemble des partitions de {1, . . . , n} en k parties. Soit P ∈ Pn+1,k une partition.
On numérote les sous-ensembles p1 , . . . , pk de P dans l'ordre de leur plus petit élément, de
sorte que min p1 < . . . < min pk , on note m(P ) l'indice m tel que n + 1 ∈ pm , et on note
p (P ) = pm(P ) {n + 1}. On a donc la partition
k
∗
∗ Pn+1,k = {P ∈ Pn+1,k | p (P ) = ∅},
Pn+1,k = Pn+1,k ∪ Pn+1,k (m),
Pn+1,k (m) = {P ∈ Pn+1,k | m(P ) = m, p (P ) = ∅}
m=1
L'application Pn+1,k
∗ → Pn,k−1 P → {p , = m(p)} est une bijection, donc |Pn+1,k ∗ | = |Pn,k−1 |,
et pour 1 ≤ m ≤ k l'application Pn+1,k (m) → Pn,k P → {pk , k = m} ∪ {p (P )} est aussi
une bijection, donc |Pn+1,k (m)| = |Pn,k |. On en déduit |Pn+1,k | = |Pn,k−1 | + k|Pn,k |, autrement
dit P (n, k) = |Pn,k | satisfait la même récurrence que S(n, k). Par ailleurs, il est immédiat que
P (n, 0) = 0 et P (n, n) = 1, donc P (n, k) satisfait les même conditions initiales que S(n, k). On
procéde ensuite comme dans 1/c), en montrant par récurrence sur n ∈ N∗ que P (n, k)−S(n, k) =
0 pour 0 ≤ k ≤ n. On en déduit que P (n, k) = S(n, k).
A toute partition p1 ∪ . . . ∪ pk de {1, . . . , , n} et pour toute permutation σ de {1, . . . , k} on
peut associer une et une seule surjection f de {1, . . . , n} → {1, . . . , k} par f (i) = σ ◦ g(i), où g(i)
est l'indice tel que i ∈ pg(i) . On a donc S(n, k)·k! surjections possibles de {1, . . . , n} → {1, . . . , k}.
d) Si k, ∈ N vérient k > on a k = 0, et si k ≤ on a k ≥ 0. La dénition (*), appliquée
avec x = ≤ n et ∈ N, implique donc n = k=0 S(n, k)k ≥ S(n, ) = S(n, )! (la question
précédente assure que les S(n, k) sont positifs). Donc 0 ≤ S(n, k) ≤ kn /k!, ce qui implique
|S(n, k)/n!| ≤ (1/k!)k n /n!, donc la série dénissant Φk (x) converge bien pour tout x ∈ R.
Montrons maintenant l'identité (**) par récurrence sur k ∈ N. Pour k = 0 c'est immédiat.
Soit k ∈ N∗ et supposons la propriété vraie pour k − 1. Les relations de récurrence vériée par
S(n, k) entraînent
+∞
+∞
S(n + 1, k) n xk−1 S(n, k − 1) + kS(n, k) n
Φk (x) = x = + x = Φk−1 (x) + kΦk (x).
n! (k − 1)! n!
n=k−1 n=k
D'après l'hypothèse de récurrence, Φk−1 (x) = (ex − 1)k−1 /(k − 1)!. On a donc Φk (x) − kΦk (x) =
(ex − 1)k−1 /(k − 1)!. En notant ∆k (x) = Φk (x) − (ex − 1)k /k!, ceci entraîne ∆k = k∆k sur R.
Donc il existe λ ∈ R tel que ∆k (x) = λekx . Lorsque x = 0, on a ∆k (0) = Φk (0) = 0, donc λ = 0,
donc Φk (x) = (ex − 1)k /k! pour tout x ∈ R.
e) En développant la formule (**), on trouve pour tout k ∈ N
+∞
k k
+∞ n
S(n, k) n 1 k−j k jx 1 k−j k j n
x = (−1) e = (−1) x .
n! k! j k! j n!
n=k j=0 j=0 n=0
+∞ d
tx
∀x ∈ ] − 1, 1[, ϕ(x) = I0 e−t dt.
0 d
En déduire le théorème de Pólya : (Sn ) est récurrente si d ∈ {1, 2}, transitoire si d ≥ 3.
Solution. 1/ Si n P (Sn = 0) converge, le lemme de Borel-Cantelli nous assure que presque
surement, il n'y a qu'un nombreni d'entiers n tel que Sn = 0, i.e. que (Sn ) est transitoire.
Supposons maintenant que n P (Sn = 0) diverge. Ici on ne peut pas appliquer le lemme de
Borel-Cantelli car les événements {S2n = 0} ne sont pas indépendants. Pour prouver que presque
surement, la marche aléatoire passe une innité de fois par 0, il est équivalent de prouver que
4. PROBLÈMES 383
l'événement B "la marche aléatoire ne passe qu'un nombre ni de fois par 0" est négligeable. On
partitionne B sous la forme B = ∪n∈N Bn , où Bn désigne l'événement
des marches aléatoires qui
passe en 0 la dernière fois à l'indice n. On a donc P (B) = n∈N P (Bn ). Par ailleurs, on a
Bn = {Sn = 0} ∩ {∀k > n, Sk = 0} = {Sn = 0} ∩ {∀j > 0, Xn+1 + · · · + Xn+j = 0}.
car si Sn = 0 et k > n, avoir Sk = 0 équivaut à avoir 0 = Sk − Sn = Xn+1 + · · · + Xk . Or les
(Xk ) sont indépendants, donc Sn = X1 + · · · + Xn est indépendant de Xn+1 + · · · + Xn+j . On
peut donc écrire
P (Bn ) = P (Sn = 0)P (∀j > 0, Xn+1 + · · · + Xn+j = 0).
Les (Xk ) étant indépendants et identiquement distribuées, P (∀j > 0, Xn+1 + · · · + Xn+j = 0)
ne dépend pas de n. Notons q cette probabilité.
On a donc P (Bn ) = qP (Sn = 0). Or la série
P (Bn ) converge (vers P (B)), et comme n P (Sn = 0) diverge, la seule possibilité est d'avoir
q = 0. Donc P (Bn ) = 0 pour tout n ∈ N, donc P (B) = 0.
2/a) Remarquons déja que, quelque soit la valeur de d, la somme des coordonnées de Sn a la
même parité que n. Donc on ne peut avoir Sn = 0 que si n est pair. Ainsi, P (S2n+1 = 0) pour
tout n ∈ N, et on se bornera dans la suite à estimer P (S2n = 0).
Traitons maintenant le cas d = 1. Pour avoir S2n = 0, il faut et il sut d'avoir exactement
n indices k parmi {1, . . . , 2n} tels que Xk = 1, et chaque 2n-liste possible (Xk ) correspondante
a une probabilité 2−2n de se produire. On en déduit, en utilisant la formule de Stirling, que
√
−2n 2n (2n)! 4πn(2n/e)2n 1
P (S2n = 0) = 2 = 2−2n ∼2 −2n
√ =√ .
n (n!)2 n
( 2πn(n/e) ) 2 πn
Donc n P (S2n = 0) diverge, donc d'après la question 1/, (Sn ) est récurrente.
Lorsque d = 2, pour avoir S2n = 0 il faut et il sut que la partition ordonnée de {1, . . . , 2n}
formée des 4 sous-ensembles d'indices (A1 , A1 , A2 , A2 ) dénis pour ∈ {1, 2} par
A = {m ∈ {1, . . . , 2n} | Xm = e } et A = {m ∈ {1, . . . , 2n} | Xm = −e }, (∗)
vérie |A1 | = |A1 | = i et |A2 | = |A2 | = j avec i + j = n. Lorsque i + j
= n, la proposition
15
2n
page 304 nous assure que le nombre de 2n-listes (Xm ) de cette forme est . Chacune a
i, i, j, j
une probabilité 4−2n de se produire, on en déduit
2n n
(2n)!
2n
n 2
n
P (S2n = 0) = 4−2n = 4−2n = 4−2n .
i, i, j, j i! i! (n − i)! (n − i)! n i
i+j=n i=0 i=0
Or on a
2
n n n
≤ Mn = 3n Mn , où Mn = max .
i, j, k i, j, k i+j+k=n i, j, k
i+j+k=n i+j+k=n
384 6. PROBABILITÉS
On va estimer Mn . Supposons d'abord que n soit divisible par 3, de sorte que n = 3q avec q ∈ N∗ .
Si i + j + k = n = 3q et (i, j, k) = (q, q, q), l'un des indices i, j, k est < q et un autre est > q , par
exemple i < q < j (notons que i, j et k jouent un role symétrique), donc
n i+1 n n
= < ≤ Mn .
i, j, k j i + 1, j − 1, k i + 1, j − 1, k
Ainsi le maximum recherché est atteint lorsque (i, j, k) = (q, q, q). Donc on a, en utilisant la
formule de Stirling
3q q 3
3q (3q)! 3q 1 e 3n+3/2 3n
Mn = = ∼ 6qπ √ = =O .
q, q, q (q!)3 e 2qπ q 2nπ n
Pour traiter le cas où n > 3 n'est pas divisible par 3, on écrit n = 3q + r avec r ∈ {1, 2}. Lorsque
i ≤ j ≤ k , on a k ≥ q + 1 et l'inégalité
r
r
3q + r 3q + i 3q 3q + i
= ≤ M3q ≤ 20M3q
i, j, k k−i+1 i, j, k − r q
i=1 i=1
Prouvons maintenant Φd = Φd1 . Pour cela il sut de prouver Φd = Φ1 Φd−1 pour tout d ≥ 2.
Notons Bn(d) l'ensemble des boucles de longueur n dans Zd . Soit C = (Ck ) ∈ Bn(d) . Soit A = {k ∈
{1, . . . , n} | Ck − Ck−1 ∈ {−ed , ed }} et m = |A|. Notons {1, . . . , n} A = {k1 , . . . , kn−m } avec
k1 < . . . < kn−m et A = {1 , . . . , m } avec 1 < . . . < m . Pour tout k notons Ck = (Ck , Ck ) avec
Ck ∈ Zd−1 les d − 1 premières coordonnées de Ck , et Ck ∈ Z la dernière coordonnée de Ck . Les
(d−1) (1)
chemins C = (Ck i )1≤i≤n−m et C = (Cj )1≤j≤m vérient C ∈ Bn−m et C ∈ Bm . L'application
(d) (d−1) (1)
C → (A, C , C ) dénit ainsi une bijection de Bn vers ∪A⊂{1,...,n} {A} × Bn−|A| × B|A| . Donc
n
n
(d−1) n (d−1) (1)
c(d)
n = cn−m c(1)
m = c c .
m n−m m
m=0 A⊂{1,...,n}, |A|=m m=0
1 et I − ε 1 et I + ε
√
∀t > T1 , 2
≤ I0 (t) ≤ √ .
π t (1 + ε) π t (1 − ε)2
√
Comme ceci est possible pour tout ε > 0, on en déduit I0 (t) ∼ (I/π)et / t.
c) Le comportement
de I0 (t) obtenu précédemment entraîne I0 (tx/d)
d = O(etx ), donc donc si
+∞
|x| < 1 l'intégrale 0 converge bien. Par ailleurs, si |x| < 1, on a
I0 (tx/d)d e−t dt
+∞ d +∞ +∞ +∞ (d)
tx −t tx −t cn
I0 e dt = Φd e dt = t x e−t dt.
n n
0 d 0 2d 0 (2d)n n!
n=0
(d)
Comme |x| < 1, et que 0 ≤ cn ≤ (2d)n , on a
N N
c(d) xn
n n n −t n −t
∀N ∈ N, ∀t ∈ R+ , t x e ≤ t e ≤ e|x|t e−t = e(|x|−1)t ,
(2d)n n! n!
n=0 n=0
on peut donc appliquer le théorème de convergence dominée qui nous autorise à intervertir les
signes de sommations, ce qui fournit
+∞ d +∞
(d) +∞
tx cn
I0 e−t dt = xn K n , Kn = tn e−t dt.
0 d (2d)n n! 0
n=0
Une intégration par partie fournit facilement Kn /n = Kn−1 lorsque n ∈ N∗ , donc Kn = n!. Par
ailleurs,
+∞comme nous sommes dans le cas isotrope, on a P (Sn = 0) = c(d)
n /(2d) . On en déduit
n
N
x → 1 on en déduit n=0 P (Sn = 0) ≤ M . Ceci est vrai pour tout N , donc n P (Sn = 0)
converge. Ainsi, lorsque d ≥ 3, (S n ) est transitoire d'après la question 1/.
Lorsque
d ≤ 2, montrons que n P (Sn = 0) diverge. On raisonne par l'absurde en supposant
que M = n∈N P (Sn = 0) existe. L'intégrande étant positive, on en déduit, pour tout T > 0
T d
tx
∀x ∈ [0, 1[ I0 e−t dt ≤ ϕ(x) ≤ M.
0 d
d d
En faisant x → 1, on en déduit 0T I0 dt e−t dt ≤ M . Ainsi 0+∞ I0 dt e−t dt converge, ce qui
est impossible puisque I0 (t/d)d e−t ∼ αt−d/2 (avec α = (Id1/2 /π)d ) et d ≤ 2. Donc n P (Sn = 0)
diverge et (Sn ) est récurrente.
Remarque. Ainsi, une personne ivre revient une innité de fois en son lieu d'origine, mais
un oiseau ivre n'y revient au plus qu'un nombre ni de fois.
On peut démontrer le théorème de Pólya en généralisant l'approche (dite combinatoire)
du 2/b) au cas d > 3, mais la technique est fastidieuse. Une approche plus élégante (dite
analytique) consiste à estimer P (S2n = 0) à partir de l'expression intégrale (*) de la
remarque 18 page 348, et en utilisant des transformations d'intégrales multiples.
La fonction I0 (x) dénie dans 3/b) est un cas particulier des fonctions de Bessel modiées
x 2n+α
de première espèce Iα , dénies par Iα (t) = n∈N n!(n+α)!
1
2
.
La formule de 3/c), permet de passer d'une série génératrice exponentielle à une série
génératrice ordinaire. On l'appelle transformation de Borel .
Problème 9 (Théorème local limite et central limite). Soit (Xn )n∈N∗ une
suite de variables aléatoires à valeurs dans Z, indépendantes, identiquement distribuées,
admettant un moment d'ordre 2. On note Sn = X1 + · · · + Xn , E(X1 ) = µ et V (X1 ) = σ 2
(avec σ > 0). On suppose que la fonction caractéristique ϕX1 : t → E(eitX1 ) de X1 vérie
∀t ∈ [−π, π] {0}, |ϕX1 (t)| < 1. (∗)
1/ Montrer que X1 ne satisfait pas l'hypothèse (*) si et seulement si il existe a ∈ Z et
b ∈ N, b ≥ 2, tels que presque surement, X1 prend ses valeurs dans a + bZ.
+∞ −(t+ia)2 /2
2/ a) Montrer que pour a ∈ R, l'intégrale I(a) = −∞ e dt existe et ne dépend pas
√
+∞ iat−t2 /2
de a, puis calculer J(a) = −∞ e dt (on rappelle la valeur classique I(0) = 2π ).
b) Montrer que
π
1
∀x ∈ Z, P (Sn = x) = ϕX1 (t)n e−ixt dt. (∗∗)
2π −π
c) Montrer qu'il existe une fonction δ(t) vériant limt→0 δ(t) = 0, et telle que
2
2 2 2 2
∀t ∈ R, ∀n ∈ N∗ , ϕX1 (t)n − einµt e−nσ t /2 ≤ e−nσ t /2 ent δ(t) − 1 .
Solution. 1/ S'il existe a ∈ Z et b ∈ N, b ≥ 2, tels que presque surement X1 prend ses valeurs
dans a + bZ, ceci signie que P (X = k) = 0 si k ∈ a + bZ. Donc on peut écrire
ϕX1 (2π/b) = P (X = a + bk)ei(2π/b)(a+bk) = e2iπa/b P (X = a + bk) = e2iπa/b ϕX1 (0)
k∈Z k∈Z
Sur tout segment [−K, K] de R ceci entraîne |In (a)| ≤ 2e e−n /2 , donc la suite de fonctions
K 2 /2 2
(In (a)) converge uniformément vers 0 sur ce segment. Donc I(a) est dérivable sur tout segment
[−K, K] de R, donc sur R tout entier, et I (a) = 0. Ainsi I(a) = I(0) ce qui entraîne
+∞ +∞ √
−t2 /2+iat −a2 /2 2 /2 2 /2 2 /2
J(a) = e dt = e e−(t+ia) dt = e−a I(a) = 2πe−a .
−∞ −∞
d) Considérons maintenant ε > 0. Soit α ∈ ]0, π[ tel que pour t ∈ [−α, α], on ait δ(t) √< σ2 /4.
Soit A > 0 (on verra plus tard comment choisir A), et n susamment grand pour que A/ n < α.
Nous allons découper l'intégrale de 2/b) sur les domaines d'intégration
A A A A
Dn = − √ , √ , En,α = −α, − √ ∪ √ , α , Fα = [−π, −α] ∪ [α, π].
n n n n
L'inégalité précédente implique
2 t2 /2 2 t2 /2 2 δ(t)
ϕX1 (t)n e−ixt dt − ei(nµ−x)t e−nσ dt ≤ e−nσ eA − 1 dt.
Dn Dn Dn
Comme limt→0 δ(t) = 0, il existe N0 ∈ N, tel que pour n ≥ N0 , supt∈Dn eA δ(t) −√1 < ε, donc
2
pour n ≥ N0 , on en déduit, après avoir fait le changement de variable t = u/(σ n) dans ces
deux dernières intégrales,
Aσ
1 Aσ √
i(nµ−x)u/(σ n) −u2 /2
ε 2
n −ixt
ϕX1 (t) e dt − √ e e du ≤ √ e−u /2 du
σ n σ n −Aσ
Dn −Aσ
ce qui entraîne
Aσ
1 nµ − x ε −u2 /2 1 2
ϕX1 (t)n e−ixt dt − √ J √ ≤ √ e du + √ e−u /2 du.
σ n σ n σ n −Aσ σ n |u|≥Aσ
Dn
La dernière intégrale est majorée par 2 u≥Aσ (u/(Aσ))e /(Aσ), on en déduit
−u 2 /2 −A 2 σ 2 /2
du = 2e
√ 2 2
1 nµ − x ε 2π e−A σ /2
ϕ (t) n −ixt
e dt − √ J √ ≤ √ + 2 √ . (I)
σ n
X 1
Dn σ n σ n Aσ 2 n
Sur le domaine En,α , il sut d'utiliser encore une fois la majoration obtenue à la question
précédente, qui entraîne |ϕX1 (t)n | ≤ e−nσ t /2 ent σ /4 = e−nσ t /4 sur ce domaine, donc
2 2 2 2 2 2
1
2 2
e−A σ /4
n −ixt −nσ 2 t2 /4 −u2 /4
ϕX1 (t) e dt ≤ e dt = √ e du ≤ 4 √ . (II)
En,α En,α σ n Aσ≤|u|≤ασ√n Aσ 2 n
Enn, les hypothèses vériées par ϕX1 entraînent que q = supt∈Fα |ϕX1 (t)| < 1, et on a
ϕX1 (t) e n −ixt
dt ≤ 2πq n . (III)
Fα
Résumons. Pour tout ε > 0, pour tout A > 0, il existe N0 ∈ N et q ∈ ]0, 1[ tels que pour
n ≥ N0 , (I), (II) et (III) sont vériées. En choisissant A tel que 4e−A σ /4 /(Aσ 2 ) < ε, on en
2 2
déduit
√ l'existence√de N0 ∈ N tel√que les termes de droites de (I) et (II) sont respectivement
√
< ε( 2π + 1)/(σ n) et < ε/(σ n), et si on choisit N1 ≥ N0 tel que 2πq n ≤ ε/(σ n) pour
n ≥ N1 . On en déduit, compte tenu de la formule établie en 2/b),
nµ − x √
∀n ≥ N1 , ∀x ∈ Z, P (Sn = x) − 1 √ 1
J √
ε
≤ ( 2π + 3) √ .
2π σ n σ n σ n
On en déduit le résultat compte tenu de l'expression de J(a) obtenue en 2/a).
√ √
3/ Notons Zn = {x ∈ Z | aσ n + nµ ≤ x ≤ bσ n + nµ}. D'après le résultat de la question
précédente, on a
Sn − nµ 1 x − nµ 1
P a≤ √ ≤b = P (Sn = x) = √ g √ + o √ (∗∗∗)
σ n 2πσ 2 n x∈Zn σ n n
x∈Zn x∈Zn
√ √
avec −u /2 , et où les o(1/ n) ne dépendent que de n. Comme |Z | ≤ (b − a) n + 1 =
2
√ g(u) = e n √
O( n), la dernière somme est√ un o(1) . Soit x0√= min Z n , et K = |Zn | . On a |K −(b−a)σ n| < 1.
On note a0 = (x0 − nµ)/(σ n), et h = 1/(σ n), de sorte que a ≤ a0 < a + h, et on a
K−1
1 x − nµ
√ g √ =h g(a0 + kh). (∗∗∗∗)
σ n σ n
x∈Zn k=0
4. PROBLÈMES 389
Remarque. La condition (*) permet d'éviter les cas comme celui où les Xk suivent une
loi de Rademacher, pour lequel S2n prend ses valeurs dans 2Z et la forme 2/d) du théo-
rème local limite serait fausse. Néanmoins on peut facilement démontrer, compte tenu du
résultat 1/, que le théorème central limite reste vrai sans la condition (*).
Le théorème central limite reste vrai pour toute suite de variables aléatoires discrètes,
sous les conditions décrites au début du problème, sans la condition (*). Mais il ne permet
pas de conclure lorsque a et b dans 3/, varient en fonction de n. Pour ces cas, on peut
utiliser des versions
√ du théorème local limite qui précisent le comportement de P (Sn = x)
lorsque (x−nµ)/ n est grand (on parle de grandes
déviations). Par exemple,
siX1 admet
un moment d'ordre 3, on peut remplacer le o √n dans 2/d) par O n(1+|x|)3 .
1 1
√
Nous avons prouvé, sous certaines conditions, la convergence en loi de (Sn − nµ)/(σ n)
vers√la loi
x normale centrée réduite (parfois appelée loi gaussienne), dénie par x →
(1/ 2π) −∞ e−t /2 dt. Le domaine d'application de ce résultat est assez large et explique
2
b) Soit (Xn )n∈N∗ une suite de variables aléatoires discrètes réelles, centrées, indépendantes,
admettant une variance, et (an )n∈N∗ une suite croissante de R+∗ tendant vers +∞. Si
n∈N∗ V (Xn )/an converge, montrer que presque surement, limn→+∞ an (X1 +· · ·+Xn ) = 0.
2 1
3/ (Loi forte des grands nombres ). Soit (Xn )n∈N∗ une suite de variables aléatoires discrètes
réelles, indépendantes, admettant une espérance, centrées et identiquement distribuées.
a) On considère les variables aléatoires tronquées Yn = Xn 1|Xn |≤n et Zn = Yn − E(Yn ).
390 6. PROBABILITÉS
Solution. 1/a) Remarquons que l'inégalité de Markov appliquée à Sn2 fournit P (|Sn | > x) ≤
V (Sn )/x2 , mais ceci est moins fort que l'inégalité demandée. On suit l'indication, en considérant
les événéments
A= max |Sk | > x et ∀k ∈ {1, . . . , n} Ak = {S1 ≤ x, . . . , Sk−1 ≤ x, Sk > x}.
1≤k≤n
Les événements A1 , . . . , An forment une partition de A. Pour tout k, l'événement Ak est déter-
miné par X1 , . . . , Xk , indépendants de Xk+1 , . . . , Xn , donc la fonction indicatrice 1Ak (dénie
par 1Ak (ω) = 1 si ω ∈ Ak , = 0 sinon) est indépendante de Xk+1 , . . . , Xn , donc Sn − Sk est
indépendante de Sk 1Ak . On en déduit
E(Sn2 1Ak ) = E((Sn − Sk )2 1Ak ) + 2E((Sn − Sk )Sk 1Ak ) + E(Sk2 1Ak ) ≥ x2 P (Ak )
(nous avons utilisé l'indépendance de Sn − Sk et Sk 1Ak , qui entraîne E((Sn − Sk )Sk 1Ak ) =
E(Sn − Sk )E(Sk 1Ak ) = 0). Comme les (Ak )1≤k≤n forment une partition de A, on en déduit le
résultat car
n
n
n
V (Sn ) = E(Sn2 ) ≥ E(Sn2 1A k ) = E(Sn2 1Ak ) ≥ x2 P (Ak ) = x2 P (A).
k=1 k=1 k=1
b) L'idée est d'utiliser le critère de Cauchy, à partir de l'inégalité précédente. Soit ε > 0 et
M ∈ N∗ . Pour tout m > M , l'inégalité précédente appliquée à XM +1 , . . . , Xm permet d'écrire
m
V (Xk )
P max |XM +1 + · · · + Xk | > ε < k=M +12 .
M <k≤m ε
En notant Sn = X1 + · · · + Xn , on en déduit
+∞
k=N +1 V (Xk )
∀m > M, P max |Sk − SM | > ε < .
M <k≤m ε2
La suite des ensembles ({maxM <k≤m |Sk − SM | > ε})m est croissante avec m, on en déduit
+∞
k=N +1 V (Xk )
P (BM ) ≤ , où BM = max |Sk − SM | > ε .
ε2 k>M
Notons CM = {maxk,≥M |Sk − S | > 2ε}. L'inégalité |Sk − S |(ω) ≤ |Sk − SM |(ω) + |S −
SM |(ω) entraîne BM C ⊂ C C , donc par passage au complémentaire C
M M ⊂ BM , donc P (CM ) ≤
+∞
k=N +1 V (Xk )/ε 2 . Donc lim M →+∞ P (C M ) = 0 . Comme (C M ) est décroissante, on en déduit
P (∩M ∈N∗ CM ) = 0. Ainsi, le complémentaire D(ε) de ∩M ∈N∗ CM est presque sûr. Remarquons
que
D(ε) = {ω | ∃M ∈ N∗ , ∀k,
≥ M, |Sk − S |(ω) ≤ 2ε}.
L'ensemble D = ∩n∈N∗ D(1/n), intersection dénombrable d'ensembles presque sûrs, est presque
sûr, et pour tout ω ∈ D, la suite réelle (Sn (ω))n∈N∗ est de Cauchy, donc converge.
2/a) On note bn = an − an−1 (pour n ≥ 2), b1 = a1 , et sn = nk=1 xk /ak (pour n ∈ N∗ ), s0 = 0.
Une transformation d'Abel fournit
n
n
n n n
xk
xk = ak = ak (sk − sk−1 ) = an sn − bk sk−1 = bk (sn − sk−1 ).
ak
k=1 k=1 k=1 k=1 k=1
Soit ε > 0. Comme la suite (sn ) converge, elle est de Cauchy, donc : ∃N ∈ N∗ , ∀k, n ≥ N (k < n),
|sn − sk−1 | < ε. On en déduit que pour tout n > N
n N n
N
N
xk ≤ bk (sn − sk−1 ) + bk ε ≤ bk |sn | + bk sk−1 + an ε = A|sn | + B + an ε
k=1 k=1 k=N +1 k=1 k=1
4. PROBLÈMES 391
avec A = aN et B = | N k=1 bk sk−1 |. Comme (sn ) converge et que an tend vers +∞, il existe
N1 ≥ N tel que pour tout n ≥ N1 , A|sn | + B ≤ an ε. On en déduit que pour tout n ≥ N1 ,
| nk=1 xk | ≤ 2an ε, d'où le résultat.
b) Il sut d'appliquer le résultat de 1/b)
à la suite de variables aléatoires (Xn /an ), qui entraîne
presque surement la convergence de Xn /an , et d'après le lemme de Kronecker, ceci entraîne
presque surement limn→+∞ (X1 + · · · + Xn )/an = 0.
3/a) Quitte à considérer les variables aléatoires Xn − E(X1 ), on peut supposer m = 0. Les
variables aléatoires Yn et Zn sont bornées, donc admettent un moment d'ordre 2. On a V (Zn ) =
V (Yn ) ≤ E(Yn2 ) donc pour tout N ∈ N∗
N
N
N
V (Zn ) E(Y 2 )n 1 1
≤ = x2 P (X1 = x) = x2 P (X1 = x)
n2 n2 n2 n2
n=1 n=1 n=1 x∈X1 (Ω) x∈X1 (Ω) 1≤n≤N
|x|≤n n≥|x|
1 1
≤ x2 P (X1 = x) 2
+ ≤1+ |x|P (X1 = x),
x |x|
x∈X1 (Ω),x=0 x∈X1 (Ω)
Il est classique que ceci implique la convergence de (E(Y1 ) + · · · + E(Yn ))/n vers 0. En eet c'est
la conséquence du résultat suivant, appliqué à un = E(Yn ) (voir aussi le tome Analyse sur la
moyenne de Césaro)
Soit (un )n∈N∗ une suite réelle convergeant vers 0. Alors (u1 + · · · + un )/n converge vers 0. (∗)
La preuve de (*) est facile : pour tout ε> 0, soit N ∈ N tel que |un | < ε pour n ≥ N . Alors
pour n > N on a |u1 + · · · + un | < A + nk=N +1 |uk | < A + (n − N )ε avec A = |u1 + · · · + un |,
donc |u1 + · · · + un | < 2nε pour n assez grand.
On en déduit que (Y1 + · · · + Yn )/n = (Z1 + · · · + Zn )/n + (E(Y1 ) + · · · + E(Yn ))/n converge
presque surement vers 0.
c) On remarque pour tout N ∈ N∗ ,
N
N
N
N
P (Xn = Yn ) = P (|Xn | > n) = P (|X1 | > n) = P (X1 = x)
n=1 n=1 n=1 n=1 x∈X1 (Ω),|x|>n
= P (X1 = x) ≤ |x|P (X1 = x)
x∈X1 (Ω) 1≤n≤N,n<|x| x∈X1 (Ω)
et comme X1 admet une espérance, on en déduit que n P (Xn = Yn ) converge, donc d'après
le lemme de Borel-Cantelli, P (lim supn {Xn = Yn }) = 0. Donc presque surement, on a Xn = Yn
sauf pour un nombre ni de valeurs de n, donc presque surement, limn→+∞ Xn − Yn = 0.
On en déduit, en appliquant une fois encore le résultat (*), que la moyenne de Césaro Mn =
((X1 − Y1 ) + · · · + (Xn − Yn ))/n converge presque surement vers 0, donc (X1 + · · · + Xn )/n =
(Y1 + · · · + Yn )/n + Mn converge presque surement vers 0.
Remarque. - Sous les hypothèses de la question 3/, mais sans supposer les Xn centrées, on
obtient que (X1 + · · · + Xn )/n converge presque surement vers E(X1 ) (il sut d'appliquer
392 6. PROBABILITÉS
3/c) à Xn∗ = Xn − E(X1 )), ce qui est la formulation générale de la loi forte des grands
nombres.
Soit α > 1/2. Sous les hypothèses de la question 3/ et si X1 est centré et admet une
variance, le résultat 2/b) arme que presque surement, on a
X 1 + · · · + Xn
lim √ = 0.
n→+∞ n(log n)α
√
Ainsi, presque surement, X1 + · · · + Xn = o( n(log n)α ). Ce résultat est moins fort que
celui obtenu à l'exercice 7 page 352 dans le cas particulier
√ de la loi de Rademacher, ou il est
montré que presque surement, |X1 + · · · + Xn | ≤ 2n log n(1 + o(1)). Un résultat optimal
de ce type, appelé loi du logarithme itéré a été obtenu par Kolmogorov en 1929, qui a
montré que si les (Xn ) sont identiquement distribuées, centrées,
√ admettant
√ un moment
d'ordre 2, alors presque surement, |X1 +√· · · + Xn | ≤ (σ 2 + o(1)) n log log n, où σ est
l'écart type de X1 , et que la constante σ 2 est optimale (ce résultat a été rané en 1941
par Hattman et Wintner qui ont√montré que presque surement, l'ensemble√des √ valeurs
d'adhérence de (X1 + · · · + Xn )/ n log log n est égal à tout l'intervalle [−σ 2, σ 2]).
Annexe A
1. Introduction
On se donne un polynôme F = a0 X n + a1 X n−1 + · · · + an ∈ K[X] (où K est un corps
commutatif quelconque), tel que a0 = 0 et n ≥ 1. On se propose de résoudre l'équation
F (x) = 0. Quitte à diviser le polynôme F par a0 , on peut supposer a0 = 1. Enn, en
eectuant le changement de variable x = z − a1 /n, on se ramène au cas où le coecient
de X n−1 est nul. Finalement, on est amené à résoudre une équation de la forme
z n + a2 z n−2 + · · · + an−1 z + an = 0.
Dans la suite, le corps de base K est le corps des nombres complexes C.
2. Techniques historiques
2.1. Méthode de Cardan pour la résolution de l'équation du troisième degré
On veut résoudre l'équation z 3 + pz + q = 0. Si on pose z = u + v , l'équation sera
vériée si
u3 + v 3 + 3u2 v + 3uv 2 + pu + pv + q = 0 = u3 + v 3 + (u + v)(3uv + p) + q = 0.
Ceci sera vérié si on a
u3 + v 3 = −q
uv = −p/3
c'est-à-dire si u + v = −q et u v = −p3 /27, les déterminations des racines cubiques de
3 3 3 3
u et v étant choisies telles que uv = −p/3. En d'autres termes, il sut que u3 et v 3 soient
racines de
p3
z 2 + qz − = 0 avec uv = −p/3. (∗)
27
Si on note z1 , z2 les racines de cette équation du second degré, si u et v sont des racines
cubiques de z1 et z2 telles que uv = −p/3, les racines recherchées sont alors
u + v, uj + vj 2 , uj 2 + vj où j = e2iπ/3 .
Lorsque (p, q) ∈ R2 , le nombre de racines réelles de l'équation z 3 + pz + q = 0 peut être
discuté. Celui-ci dépend du signe du discriminant de l'équation du second degré (∗), qui
est du signe de 4p3 + 27q 2 . On montre facilement que
(i) Si 4p3 + 27q 2 > 0, il y a une racine réelle et deux racines complexes conjuguées.
(ii) Si 4p3 + 27q 2 = 0, il y a une racine triple 0 si q = 0, une racine réelle double et une
réelle simple si q = 0.
(iii) Si 4p3 + 27q 2 < 0, il y a trois racines réelles.
394 A. RÉSOLUTION DES ÉQUATIONS DU TROISIÈME ET DU QUATRIÈME DEGRÉ
3. Méthode de Lagrange
On doit à Lagrange une ingénieuse idée de résolution des équations. Pour résoudre
F (z) = 0 où F est de degré d, l'idée de Lagrange est la suivante. Notons α1 , . . . , αd les
racines de F . Si on trouve un polynôme P en les αi qui ne prend que d − 1 valeurs par
toute permutation sur les αi , on saura (grâce aux formules donnant les coecients d'un
polynôme en fonction de ses racines, et compte tenu du fait que tout polynôme symétrique
peut s'exprimer au moyen seulement des polynômes symétriques élémentaires) trouver un
polynôme de degré d − 1 qui annule les d − 1 valeurs prises par P sur les αi . On est ainsi
ramené à un polynôme de degré inférieur.
Ce principe encore un peu vague va prendre tout son sens dans les parties qui suivent.
3.1. L'équation du troisième degré
Notons α, β, γ les racines de F = z 3 + pz + q . Le polynôme (X + jY + j 2 Z)3 ne prend
que deux valeurs par toutes les permutations eectuées sur α, β, γ , qui sont
A = (α + jβ + j 2 γ)3 et B = (α + jγ + j 2 β)3 .
Compte tenu du théorème 1 de la page 64, on a
σ1 = α + β + γ = 0, σ2 = αβ + βγ + γα = p, σ3 = αβγ = −q.
Un calcul donne
A + B = 2(α3 + β 3 + γ 3 ) − 3(α2 β + β 2 γ + γ 2 α + α2 γ + β 2 α + γ 2 β) + 12αβγ
= 2(σ1 − 3σ1 σ2 + 3σ3 ) − 3(σ1 σ2 − 3σ3 ) + 12σ3 = −27q
et
AB = (α2 + β 2 + γ 2 − αβ − βγ − γα)3 = (σ12 − 2σ2 − σ2 )3 = −27p3 .
Ainsi, A et B sont trouvées simplement comme solutions de
z 2 + 27q z − 27p3 = 0. (∗∗∗)
Si on note u (resp. v ) une racine cubique de A (resp. de B ), les déterminations étant
choisies telles que uv = (α + jβ + j 2 γ)(α + jγ + j 2 β) = −3p, on s'est ramené à résoudre
le système
1
α + β + γ = 0 α = 3
(u + v)
α + jβ + j 2 γ = u dont les solutions sont β = 1
3
(uj 2 + vj) .
α + jγ + j 2 β = v
γ = 1
3
(uj + vj 2 )
3. MÉTHODE DE LAGRANGE 395
Noter que le test du nombre de racines réelles s'eectue simplement grâce au discriminant
de l'équation (∗∗∗) qui est 27(4p3 + 27q 2 ).
3.2. L'équation du quatrième degré
On note α, β, γ, δ les racines de F = z 4 + az 2 + bz + c. Le polynôme XY + ZT ne
prend que trois valeurs par toutes les permutations eectuées sur α, β, γ, δ , qui sont
A = αβ + γδ, B = αγ + βδ, C = αδ + βγ.
AB + BC + CA = σ1 σ3 − 4σ4 = −4c
et
ABC = (σ12 − 2σ2 )σ4 + σ32 − 2σ2 σ4 = b2 − 4ac.
Ainsi A, B et C sont obtenus comme solutions de l'équation
z 3 − az 2 − 4cz − b2 + 4ac = 0,
que l'on sait désormais résoudre. Si on note u, v, w ses racines, on est ramené à résoudre
le système
α+β+γ+δ = 0
α+β+γ+δ = 0
αβ + γδ = u (α + β)(γ + δ) = v+w
qui équivaut à .
αγ + βδ = v
(α + δ)(β + γ) = u+v
αδ + βγ = w (α + γ)(β + δ) = u+w
Pour qu'il y ait équivalence entre ces trois dernières assertions et le système précédent, il
faut et il sut que les déterminations des racines carrées ρ1 , ρ2 , ρ3 soient choisies de sorte
que ρ1 ρ2 ρ3 = −b, compte tenu du fait que
(α + β)(α + γ)(α + δ) = α2 (α + β + γ + δ) + σ3 = −b.
1. Introduction
On se donne un endomorphisme f ∈ L(E). Nous commençons par donner quelques
rappels des résultats de l'exercice 3 de la page 188.
Notation. On note Πf le polynôme minimal de f , et Lf l'ensemble {P (f ) | P ∈ K[X]}.
Si x ∈ E , on note Px le polynôme unitaire engendrant l'idéal {P ∈ K[X] | P (f )(x) = 0}
et Ex l'ensemble {P (f )(x) | P ∈ K[X]}.
Démonstration. L'application K[X] → L(E) P → P (f ) est linéaire. Son image est Lf , c'est
donc un s.e.v, et son noyau est {P ∈ K[X] | P (f ) = 0} = (Πf ). Ainsi, Lf est isomorphe à
k−1
K[X]/(Πf ). Ce dernier étant de dimension k dont une base est (1, X, . . . , X ) (voir le théo-
rème 4 de la page 65) on en déduit par isomorphisme la première partie de la proposition.
La seconde partie se traite de manière analogue en considérant l'application K[X] → E P →
P (f )(x).
La propriété qui suit est cruciale dans la suite de cette annexe (elle est prouvée dans
l'exercice 3 page 188).
Endomorphismes cycliques.
Définition 1. On dit que f est cyclique s'il existe x ∈ E tel que Ex = E . D'après
les propositions précédentes, ceci équivaut à dire que deg(Πf ) = n (ou encore que Πf =
(−1)n Pf où Pf désigne le polynôme caractéristique de f ).
398 B. INVARIANTS DE SIMILITUDE D'UN ENDOMORPHISME ET RÉDUCTION DE FROBENIUS
2. Invariants de similitude
Le théorème qui suit est le point central de notre discussion.
Théorème 1. Soit f ∈ L(E). Il existe une suite F1 , F2 , . . . , Fr de s.e.v de E , tous stables
par f , telle que
(i) E = F1 ⊕ F2 ⊕ · · · ⊕ Fr ,
(ii) pour tout i ∈ {1, . . . , r}, la restriction fi = f|Fi de l'endomorphisme f au s.e.v Fi
est un endomorphisme de Fi cyclique,
(iii) si Pi désigne le polynôme minimal de fi , on a Pi+1 | Pi pour tout i ∈ {1, . . . , r − 1}.
La suite de polynômes P1 , . . . , Pr ne dépend que de f et non du choix de la décomposition.
On l'appelle suite des invariants de similitude de f .
Démonstration. Existence. Soit k = deg(Πf ) et soit x ∈ E tel que Px = Πf . Le s.e.v F = Ex est
de dimension k et il est stable par f . Comme deg(Px ) = k, la famille de vecteurs
e1 = x, e2 = f (x), · · · , ek = f k−1 (x)
forme une base de F = Ex . Complétons cette base en une base (e1 , . . . , en ) de E . En désignant
par (e∗1 , . . . , e∗n ) la base duale associée, on note
G = Γ◦ où Γ = { tf i (e∗k ) | i ∈ N} = {e∗k ◦ f i , i ∈ N}
(orthogonal vis-à-vis du dual). En d'autres termes, G est l'ensemble des x ∈ E tels que la k-ième
coordonnée de f i (x) (dans la base (e1 , . . . , en )) soit nulle pour tout i. L'ensemble G est un s.e.v
de E , et il est stable par f comme on le vérie facilement.
Nous allons montrer F ⊕ G = E , et pour cela, nous prouvons successivement F ∩ G = {0}
et dim F + dim G = n.
Soit y ∈ F ∩ G. Si y = 0, on peut écrire y = a1 e1 + · · · + ap ep avec ap = 0 et p ≤ k. En
composant par tf k−p (e∗k ) = e∗k ◦ f k−p , on obtient
0 = e∗k (a1 ek−p+1 + · · · + ap ek ) = ap ,
ce qui est absurde. Donc F ∩ G = {0}.
Comme G = (Vect Γ)◦ , pour montrer dim G = n − dim F = n − k, il sut de prouver
dim(Vect Γ) = k . Pour cela, on considère l'application linéaire
ϕ : Lf = {P (f ) | P ∈ K[X]} → Vect Γ g → e∗k ◦ g.
2. INVARIANTS DE SIMILITUDE 399
Par dénition de Vect Γ, ϕ est surjective. De plus, ϕ est injective. En eet, si e∗k ◦ g = 0 avec
g = 0, on peut écrire g = a1 IdE + · · · + ap f p−1 ∈ Lf (avec p ≤ k et ap = 0) et
0 = e∗k ◦ g(f k−p (x)) = e∗k (a1 f k−p (x) + · · · + ap f k−1 (x)) = e∗k (a1 ek−p+1 + · · · + ap ek ) = ap ,
ce qui est absurde. Finalement, ϕ est un isomorphisme donc dim(Vect Γ) = dim Lf = k.
Résumons. Nous avons trouvé un sous espace G stable par f tel que F ⊕ G = E . Notons P1
le polynôme minimal de f|F , (qui est le polynôme minimal de f car P1 = Px = Πf ), et P2 le
polynôme minimal de f|G . Comme G est stable par f , P2 | P1 . On applique ce qui précède à f|G ,
et au bout d'un nombre ni d'étapes, on obtient la décomposition voulue.
Unicité. Supposons l'existence de deux suites de sous espaces F1 , . . . , Fr et G1 , . . . , Gs tous stables
par f et vériant les conditions (i), (ii) et (iii). Notons Pi = Πf|Fi et Qj = Πf|Gj .
On voit que P1 = Πf = Q1 . Supposons la liste (P1 , . . . , Pr ) diérente de (Q1 , . . . , Qs ) et
notons
j le premier indice tel que Pj = Qj (un tel indice existe toujours même si r = s, car
i deg(Pi ) = n = j deg(Qj )). L'égalité E = F1 ⊕ · · · ⊕ Fr avec les Fi stables par f , et la
propriété Pj (f )(Fk ) = 0 pour k ≥ j , entraînent
Pj (f )(E) = Pj (f )(F1 ) ⊕ · · · ⊕ Pj (f )(Fj−1 ) (∗)
et par ailleurs l'égalité E = G1 ⊕ · · · ⊕ Gs avec les Gj stables par f entraîne
Pj (f )(E) = Pj (f )(G1 ) ⊕ · · · ⊕ Pj (f )(Gj−1 ) ⊕ Pj (f )(Gj ) ⊕ · · · ⊕ Pj (f )(Gs ) (∗∗)
On a dim Pj (f )(Fi ) = dim Pj (f )(Gi ) pour 1 ≤ i ≤ j − 1 (en eet, d'après la proposition 3, on
peut trouver une base Bi de Fi et une base Bi de Gi telles que la matrice de f|Fi dans Bi coïncide
avec la matrice de f|Gi dans Bi ). En prenant les dimensions dans (∗) et (∗∗), on en déduit
0 = dim Pj (f )(Gj ) = · · · = dim Pj (f )(Gs ),
ce qui prouve que Qj | Pj . Par symétrie de rôle , on a aussi Pj | Qj , donc Pj = Qj ce qui est
absurde. Finalement, on doit avoir r = s et Pi = Qi pour tout i.
3. Applications
3.1. Réduction de Jordan
Une fois que l'on sait réduire un endomorphisme nilpotent sous forme de Jordan, il
n'est pas dicile de trouver la réduction de Jordan d'un endomorphisme quelconque (voir
le théorème 5, page 209). Comme nous allons le voir, cette première tâche peut être réalisée
au moyen de la théorie des invariants de similitude.
Soit f ∈ L(E) un endomorphisme nilpotent. Désignons par P1 , . . . , Pr la suite des
invariants de similitude de f . Le produit P1 · · · Pr est au signe près le polynôme carac-
téristique de f , qui est (−1)n X n , ce qui montre que Pi est de la forme X ni pour tout i.
Ainsi, C(Pi ) est la transposée d'un bloc de Jordan pour tout i, et on en déduit avec le
théorème 2 l'existence d'une base B = (e1 , . . . , en ) de E dans laquelle la matrice de f est
de la forme
0 ··· ··· 0
... ..
v1 .
... ... .. où ∀i ∈ {1, . . . , n − 1}, vi ∈ {0, 1}.
.
0 vn−1 0
La matrice de f dans la base B = (en , . . . , e1 ) est
0 vn−1 0
.. ... ...
.
.. ...
. v1
0 ··· ··· 0
qui a bien la forme voulue.
3.2. Autres applications
Il existe une multitude de résultats qui peuvent être prouvés grâce à la théorie des
invariants de similitude. Par exemple :
Dans Mn (R) (n = 2 ou n = 3), deux matrices sont semblables si et seulement si
elles ont même polynôme minimal et même polynôme caractéristique (ce résultat
est faux dès que n ≥ 4).
Si L est un surcorps commutatif de K, si A, B ∈ Mn (K) sont semblables sur
Mn (L), alors A et B sont semblables sur Mn (K). En eet, en vertu de l'unicité, les
invariants de similitude dans Mn (K) sont les invariants de similitude dans Mn (L)
(car de plus, le polynôme minimal d'une matrice de Mn (K) est le même dans K[X]
ou dans L[X]). Ce résultat généralise celui de l'exercice 14 de la page 167.
Si f ∈ L(E) et si les seuls endomorphismes commutant avec f sont des polynômes
en f , alors f est cyclique. En eet, si tel n'est pas le cas, on a deg(Πf ) < n donc
le nombre r d'invariants de similitude de f vérie r ≥ 2. Avec les notations du
théorème 1, on peut écrire E = F1 ⊕ G où G = F2 ⊕ · · · ⊕ Fr = {0}. Si on note p
la projection sur G parallèlement à F1 , p et f commutent (car F1 et G sont stables
par f ). Si on avait p = Q(f ) avec Q ∈ K[X], comme p|F1 = 0 on en déduirait
Q(f|F1 ) = 0, donc Πf = Πf|F1 divise Q, et donc p = Q(f ) = 0, ce qui est absurde.
Ceci constitue la réciproque de la question 2/ de l'exercice 6 de la page 191.
Annexe C
Fractions continues
Nous proposons ici une introduction aux fractions continues, qui décrivent un moyen
simple de générer les meilleurs approximants fractionnaires d'un nombre réel irrationnel.
Dans une deuxième partie, nous caractérisons les fractions continues périodiques.
Problème 1 (Fractions continues). Étant donnée une suite réelle (an ), avec an > 0
pour n > 0, on appelle fraction continue l'expression
1
[a0 , a1 , . . . , an ] = a0 + .
1
a1 +
a2 +
... 1
+
1
an−1 +
an
De manière équivalente, on dénit les fractions continues par [a0 ] = a0 , [a0 , a1 ] = a0 +1/a1
et par la récurrence
1
∀n ≥ 2, [a0 , . . . , an ] = a0 , . . . , an−2 , an−1 + . (∗)
an
f) Montrer
pn (−1)n
∀n ∈ N∗ , ξ− = .
qn qn (qn−1 + qn ξn+1 )
En déduire que les réduites pn /qn sont des approximations fractionnaires de ξ qui vérient
ξ − pn < 1 .
qn qn2
g) Montrer que sur deux réduites consécutives, il en existe une qui vérie
ξ − pn < 1 .
qn 2qn2
e) Les valeurs an sont entières (ce sont des parties entières), donc pn et qn sont des entiers.
Pour n = 0, q0 = 1 donc p0 /q0 est bien une fraction irréductible et pour n ≥ 1, la relation
pn qn−1 − qn pn−1 = (−1)n−1 montre que pn et qn sont premiers entre eux (théorème de Bezout),
d'où le résultat.
f) Les résultats des questions 1/a) et b) entraînent
pn pn pn ξn+1 + pn−1 pn
ξ− = [a0 , . . . , an , ξn+1 ] − = −
qn qn qn ξn+1 + qn−1 qn
donc d'après le résultat de la question d)
pn qn (pn ξn+1 + pn−1 ) − pn (qn ξn+1 + qn−1 ) qn pn−1 − pn qn−1 (−1)n
ξ− = = = .
qn qn (qn ξn+1 + qn−1 ) qn (qn ξn+1 + qn−1 ) qn (qn ξn+1 + qn−1 )
Comme ξn+1 > 1 (on l'a vu dans la solution de la question 1/a)), ceci entraîne |ξ −pn /qn | < 1/qn2 .
g) Soit n ∈ N. Le résultat de la question précédente montre que ξ − pn /qn et ξ − pn+1 /qn+1 sont
de signe contraire, donc
ξ − pn + ξ − pn+1 = pn − pn+1 = 1 1
< 2 + 2
1
qn qn+1 qn qn+1 qn qn+1 2qn 2qn+1
(la dernière inégalité est une conséquence de l'inégalité 2xy = x2 + y 2 − (x − y)2 < x2 + y 2 lorsque
x = y , appliquée à x = 1/qn et y = 1/qn+1 ) ce qui entraîne le résultat voulu.
h) Raisonnons par l'absurde, en supposant |qξ − p| < |qn ξ − pn | avec 0 < q ≤ qn et n > 0.
Comme pn+1 qn − pn qn+1 = (−1)n (d'après 1/d)), il existe deux nombres entiers x et y tels que
p = xpn + ypn+1 , q = xqn + yqn+1 .
On a forcément x = 0 (sinon q = yqn+1 > qn car n > 0, ce qui est contraire aux hypothèses),
et y = 0 (sinon |qξ − p| = |x| · |qn ξ − pn | ≥ |qn ξ − pn |, ce qui est contraire aux hypothèses). On
doit également avoir x et y de signe opposé, sinon on aurait |q| ≥ |qn | + |qn+1 | ≥ qn . De plus
d'après 1/f), les valeurs qn ξ − pn et qn+1 ξ − pn+1 ont des signes opposés, donc x(qn ξ − pn ) et
y(qn+1 ξ − pn+1 ) sont de même signe. Comme
qξ − p = x(qn ξ − pn ) + y(qn+1 ξ − pn+1 )
ceci entraîne
|qξ − p| = |x(qn ξ − pn )| + |y(qn+1 ξ − pn+1 )| > |x(qn ξ − pn )| ≥ |qn ξ − pn |.
Cette inégalité est une contradiction, ce qui prouve le résultat.
2/a) Soit ξ ∈ R un nombre quadratique et un polynôme Q ∈ Z[X] de degré 2, irréductible dans
Q[X], tel que Q(ξ) = 0. Si ξ ∈ R était rationnel, alors Q ne serait pas irréductible dans Q[X]
(il serait divisible par X − ξ ), ce qui est absurde. (De manière équivalente, on montre facilement
404 C. FRACTIONS CONTINUES
√
que les nombres quadratiques sont ceux de la forme A+B D où A, B, D ∈ Z, avec B = 0 et D un
entier naturel qui n'est pas un carré.)
b) Compte tenu des formules permettant d'obtenir les quotients incomplets et complets d'un
nombre irrationnel, il est immédiat que le quotient incomplet de ξk d'indice n est égal à an+k .
Ainsi, si ξr = ξr+T , l'égalité des quotients incomplets d'indice n de ces deux nombres entraîne
an+r = an+r+T pour tout n ∈ N, c'est-à-dire ak = ak+T pour tout k ≥ r. Réciproquement, si
ak = ak+T pour tout k ≥ r, alors tous les quotients incomplets de ξr et ξr+T sont égaux, donc
les réduites de ξr et ξr+T sont égales. Comme un nombre irrationnel est égal à la limite de ses
réduites (conséquence du résultat de la question 1/f)), ceci entraîne ξr = ξr+T .
c) Soit r ∈ N et T ∈ N∗ tels que les quotients incomplets ξr et ξr+T de ξ soient égaux. Posons
s = r + T . Les quotients complets et incomplets d'indice n de ξr sont ceux de ξ d'indice n + r,
donc d'après 1/a) on peut écrire ξr = [ar , . . . , as−1 , ξs ]. Par ailleurs, le résultat de la question
1/b) appliqué au développement en fraction continue de ξr permet d'écrire
kT −1 ξs + kT −2
ξr = [ar , . . . , as−1 , ξs ] = , kT −1 , kT −2 , T −1 , T −2 ∈ N∗
T −1 ξs + T −2
(où kn /n désigne la n-ième réduite de ξr ). Comme ξr = ξs cette égalité entraîne
T −1 ξr2 + (T −2 − kT −1 )ξr − kT −2 = Q(ξr ) = 0, Q = T −1 X 2 + (T −2 − kT −1 )X − kT −2 .
Le polynôme Q est à coecients entiers et de degré 2, il est forcément irréductible car ξr est
irrationnel. Ainsi, ξr est un nombre quadratique.
Maintenant, la question 1/b) nous assure qu'à partir des réduites pn /qn de ξ , on peut écrire
pr−1 ξr + pr−2 −qr−2 ξ + pr−2
ξ= donc ξr = .
qr−1 ξr + qr−2 qr−1 ξ − pr−1
Ceci entraîne que
2 −qr−2 X + pr−2
R = (qr−1 X − pr−1 ) Q
qr−1 X − pr−1
annule ξ . Or R est un polynôme à coecients entiers de degré 2 (son coecient dominant
r−2 /qr−1 ) est non nul car Q n'a pas de racine rationnelle), et comme ξ est irrationnel, R
2 Q(q
qr−1
est forcément irréductible. Ainsi, ξ est bien quadratique.
d) (i) Un calcul montre que l'on peut écrire
Qn = α(pn−1 X +pn−2 )2 +β(pn−1 X +pn−2 )(qn−1 X +qn−2 )+γ(qn−1 X +qn−2 )2 = αn X 2 +βn X +γn
où αn , βn et γn sont trois entiers, avec αn = qn−1 2 Q(p
n−1 /qn−1 ). Comme Q n'a pas de racine
rationnelle, ceci entraîne αn = 0 donc Qn est bien un polynôme de degré 2 à coecients entiers.
Comme Q(ξ) = 0, la formule ξ = pqn−1 ξn +pn−2
n−1 ξn +qn−2
(voir 1/b)) montre que ξn est bien racine de Qn .
Montrons que le discriminant ∆n de Qn est égal au discriminant ∆ de Q. Plutôt que de
calculer explicitement αn , βn et γn et de développer directement l'expression βn2 − 4αn γn (les
calculs sont lourds), on va utiliser le fait que le discriminant d'un polynôme de degré 2 est égal
au carré de la diérence de ses racines, multiplié par le carré de son coecient dominant. Ainsi,
si ξ désigne la deuxième racine de Q de sorte que Q = α(X − ξ)(X − ξ ), on a ∆ = α2 (ξ − ξ )2 .
−qn−2 ξ +pn−2
Les deux racines de Qn étant ξn = −q qn−1 ξ−pn−1 et ξn = qn−1 ξ −pn−1 , et comme de plus αn =
n−2 ξ+pn−2
2
−qn−2 ξ + pn−2 −qn−2 ξ + pn−2
∆n = αn2 (ξn − ξn )2 = α2 (pn−1 − qn−1 ξ)2 (pn−1 − qn−1 ξ )2 −
qn−1 ξ − pn−1 qn−1 ξ − pn−1
2
= α2 (qn−2 ξ − pn−2 )(qn−1 ξ − pn−1 ) − (qn−2 ξ − pn−2 )(qn−1 ξ − pn−1 )
2
= α2 (−qn−2 pn−1 + pn−2 qn−1 )ξ − (−qn−2 pn−1 + pn−2 qn−1 )ξ
= α2 (pn−1 qn−2 − pn−2 qn−1 )2 (ξ − ξ )2
et comme pn−1 qn−2 − pn−2 qn−1 = (−1)n−2 (voir 1/d)), ceci entraîne bien ∆n = α2 (ξ − ξ )2 = ∆.
C. FRACTIONS CONTINUES 405
Montrons maintenant que les polynômes Qn sont en nombre ni. Il sut pour cela de montrer
que les coecients αn , βn et γn de Qn sont bornés, ce qui prouvera le résultat compte tenu du
fait que ces coecients sont entiers. Pour le coecient dominant αn , on part de la relation
n−1 /qn−1 ) ce qui entraîne, en appliquant l'inégalité des accroissements nis à la
2 Q(p
αn = qn−1
fonction polynôme x → Q(x)
pn−1
2
|αn | = qn−1 Q pn−1 − Q(ξ) ≤ qn−1
2
M − ξ , M = sup |Q (x)|
qn−1 qn−1
|x−ξ|≤1
car |pn−1 /qn−1 − ξ| < 1 d'après 1/f). D'après 1/f) encore une fois, ceci entraîne |αn | ≤ M . Pour
le terme constant de Qn , on remarque que γn = qn−2 2 Q(p
n−2 /qn−2 ) = αn−1 donc |γn−1 | ≤ M . Il
ne reste plus qu'à remarquer que βn = ∆n + 4αn γn = ∆ + 4αn γn donc βn2 ≤ ∆ + 4M 2 , donc βn
2
ϕ(x, .), ϕ(., x) pour x xé, forme linéaire y → ϕ(x, y), page 239
ϕX (u) fonction caractéristique de la variable aléatoire X , page 348
Πf polynôme minimal de f , page 186
rg A rang de la matrice A, page 128
rg f rang de l'application linéaire f , page 120
Σ1 , . . . , Σ n polynômes symétriques élémentaires, page 83
M polynôme symétrisé de M , page 83
τi,j transposition sur i, j , page 22
tr A, tr f trace de la matrice A, de l'endomorphisme f , page 128
t
A matrice transposée de A, page 125
t
u application transposée de u, page 135
Vect(A) ou Vect(xi )i∈I s.e.v engendré par A ou par (xi )i∈I , page 116
a|b a divise b, page 9
ab a ne divise pas b, page 9
A⊥B A est orthogonal à B , page 242
AB A ⊂ B et A = B , page 201
a ∧ b, a ∨ b pgcd de a et b, ppcm de a et b, page 10
A[X] polynômes à coecients dans A, page 58
A[X1 , . . . , Xn ] polynômes à plusieurs indéterminées, page 82
AC , A complémentaire de l'ensemble A, page 319
A⊥ , B ◦ orthogonal de A, de B (dans le dual), page 134
Apn nombre de p-arrangements d'un ensemble à n éléments, page 301
Cϕ cône isotrope de la forme quadratique ou hermitienne Φ,
page 242
E(X) espérance de la variable aléatoire X , page 337
E ∗ , E ∗∗ dual, bidual de E , page 132
E1 + · · · + En ou ni=1 Ei somme des s.e.v E1 , . . . , En , page 116
E1 ⊕ · · · ⊕ En ou ⊕ni=1 Ei somme directe des s.e.v E1 , . . . , En , page 116
Eλ sous-espace propre associé à λ, page 171
f∗ endomorphisme adjoint de f , page 255
FE ensemble des applications de E vers F , page 302
G(x1 , . . . , xn ) déterminant de Gram de x1 , . . . , xn , page 274
G/H groupe quotient, anneau quotient, ou e.v. quotient, page 20,
32, 120
GX (z) série génératrice de la variable aléatoire X , page 345
H G H est distingué dans G, page 20
In matrice identité de Mn (K), page 127
t
M∗ dans Mn (K), tM si K = C, M si K = C (transconjuguée de
M ), page 243
P (A) probabilité de l'événement A, page 320
P (B | A), PA (B) probabilité conditionnelle de B sachant A, page 323
P (X ∈ B), P (X = x), . . . probabilités sur la variable aléatoire X , page 335
Pf polynôme caractéristique de f , page 172
V (a1 , . . . , an ) déterminant de Vandermonde de a1 , . . . , an , page 143
V (X), Var(X), σ(X) variance et écart type σ(X) = V (X), page 340
408
-:HSMDOA=UZ[\[X: