Vous êtes sur la page 1sur 416

les maths

en tête

ALGÈBRE
PROBABILITÉS
3e
édition

Xavier GOURDON
les maths
en tête

ALGÈBRE
PROBABILITÉS
3e
édition
Xavier GOURDON
Ancien élève de l’école polytechnique
Du même auteur chez le même éditeur

Analyse, Les maths en tête, 3e édition, 456 pages, 2020.

ISBN 9782340-056763
© Ellipses Édition Marketing S.A., 2021
8/10 rue la Quintinie 75015 Paris
Avant-propos de la troisième édition

Cette troisième édition du tome Algèbre accompagne celle du tome Analyse des maths
en tête. L'évolution principale est un nouveau chapitre portant sur les probabilités, do-
maine qui a enrichit le programme de mathématiques des classes préparatoires scienti-
ques. Comme dans le reste de l'ouvrage, il contient les rappels de cours et des complé-
ments à connaitre ; l'accent a été mis sur les techniques et les thèmes les plus classiques des
probabilités, dans l'esprit des épreuves proposées aux concours des grandes écoles scienti-
ques. Cette nouvelle édition comporte également des extensions d'exercices, renforçant
les thèmes que l'étudiant doit connaître, des améliorations de preuves, de nouveaux exer-
cices et problèmes, toujours dans l'esprit du programme. Enn, malgré le soin porté à la
rédaction de cet ouvrage, il reste toujours des coquilles et je remercie les internautes (par
le biais d'un forum) et Daniel Khoshnoudirad pour les compilations d'erreurs que j'ai pu
récupérer, et qui ont été prises en compte.
xavier.gourdon_livres@yahoo.fr
Avant-propos de la deuxième édition

Plus de dix ans après la sortie de la première édition, cet ouvrage est encore largement
utilisé pour la préparation des concours (grandes écoles, agrégation). Les retours de mes
lecteurs (grâce à internet notamment) sont nombreux et m'ont encouragé à réaliser cette
deuxième édition. Cette dernière contient des corrections de coquilles, quelques retouches
et améliorations de preuves et solutions, ainsi que quelques exercices et problèmes supplé-
mentaires dans l'esprit de l'édition précédente. Une nouvelle annexe (annexe C) propose
une introduction aux fractions continues.
J'espère que les améliorations de cette deuxième édition seront utiles à mes lecteurs
pour la préparation de leur concours. Je remercie chaleureusement les personnes qui m'ont
aidé à apporter ces améliorations, en particulier les internautes dont les commentaires
ont étés nombreux. Enn, cette deuxième édition doit beaucoup à la patience de ma
femme Laurence et de mes enfants, Gaspard, Anne-Sybille et Léopoldine ; je suis inniment
reconnaissant de leur support pendant les longues journées et soirées passées à cette mise
à jour.
Avant-propos de la première édition

Cet ouvrage propose aux étudiants des classes de mathématiques spéciales (programme
M') des rappels et des compléments de cours assez complets, ainsi que des exercices et
des problèmes corrigés. Il pourra également intéresser les élèves préparant l'agrégation.
L'ouvrage est orienté sur la relation étroite qui existe entre le cours et les exercices.
Dans le fond, une bonne lecture du cours amène à s'interroger sur chaque résultat présenté :
à quel niveau intervient-il dans l'articulation du cours, quelles en sont les conséquences,
que se passe-t-il si on modie les hypothèses ? Dans cet esprit, de multiples remarques
ponctuent les parties de cours, mettant en avant ses subtilités, et faisant le lien avec les
exercices qui suivent.
Les parties de cours ne sont pas un substitut au cours du professeur, mais plutôt un
résumé exhaustif qui l'éclaire d'une façon diérente. Les compléments sont des résultats
très classiques qui ne gurent pas au programme mais dont la connaissance est utile
et parfois indispensable pour mener à bien un exercice ou un problème. Les résultats
présentés sont démontrés lorsqu'ils sont à la limite du programme ou lorsqu'ils constituent
un point important dont la démonstration met en place des techniques instructives que
l'étudiant doit connaître et savoir maîtriser.
À la n de chaque section, on trouve une liste d'exercices de dicultés progressives,
classiques ou parfois originaux, qui constituent une illustration du cours qui les précède.
Je me suis eorcé à chaque fois de passer en revue tous les problèmes qui tournent autour
du thème de l'exercice. Les nombreuses références au cours sont là pour inviter le lecteur
à s'y reporter, le but étant de savoir et de comprendre précisément les résultats que l'on
utilise.
Une liste de problèmes ponctue la n de chaque chapitre, ces problèmes étant des
exercices plus longs, plus diciles ou plus originaux que les précédents et faisant appel à
l'ensemble du cours du chapitre. à la n de certains chapitres, on trouve des sujets d'étude
introduisant des théories élégantes dans le thème du chapitre. Deux annexes présentent
des curiosités mathématiques liées au programme d'algèbre.
Les résultats du cours ou les exercices les plus importants sont indiqués par une èche
dans la marge de gauche.
Je tiens enn à remercier toutes les personnes qui m'ont aidé, Erwan Berni, Georges
Papadopoulo et Alexia Stefanou pour la relecture de certains chapitres, le projet Al-
gorithmes grâce à qui j'ai pu donner à mon ouvrage sa version typographique actuelle
et la collection ellipses pour avoir accueilli mon travail.
Je serais reconnaissant à ceux de mes lecteurs qui me feront parvenir leurs remarques
sur cette première édition.
Xavier Gourdon
Table des matières
Chapitre 1. Arithmétique, Groupes et Anneaux 9
1. Arithmétique sur les entiers 9
2. Groupes 19
3. Anneaux 31
4. Problèmes 36
5. Sujets d'étude 47
Chapitre 2. Corps, Polynômes et Fractions Rationnelles 57
1. Corps, polynômes et arithmétique dans K[X] 57
2. Fonction polynôme, racines d'un polynôme 63
3. Fractions rationnelles 75
4. Polynômes à plusieurs indéterminées 82
5. Problèmes 87
6. Sujets d'étude 105
Chapitre 3. Algèbre linéaire : généralités 115
1. Espaces vectoriels 115
2. Applications linéaires 119
3. Matrices 125
4. Dualité 132
5. Formes multilinéaires, déterminants 140
6. Problèmes 155
Chapitre 4. Réductions d'endomorphismes 171
1. Diagonalisation, trigonalisation 171
2. Polynômes d'endomorphismes 184
3. Topologie sur les endomorphismes 192
4. sous-espaces caractéristiques - Réduction de Jordan 201
5. Problèmes 214
Chapitre 5. Espaces euclidiens 239
1. Formes quadratiques - Formes hermitiennes 239
2. Espaces préhilbertiens 252
3. Compléments de cours 267
4. Problèmes 281
Chapitre 6. Probabilités 299
1. Dénombrement 299
2. Espaces probabilisés 318
3. Variables aléatoires discrètes 334
4. Problèmes 364
Annexe A. Résolution des équations du troisième et du quatrième degré 393
1. Introduction 393
2. Techniques historiques 393
7
8 Table des matières

3. Méthode de Lagrange 394


Annexe B. Invariants de similitude d'un endomorphisme et réduction de Frobenius 397
1. Introduction 397
2. Invariants de similitude 398
3. Applications 400
Annexe C. Fractions continues 401
Index des notations. 406
Index. 409
Chapitre 1

Arithmétique, Groupes et Anneaux

J usqu'au début du vingtième siècle, l'algèbre désignait essentiellement l'étude


de la résolution d'équations algébriques (en témoigne la dénomination du théo-
rème fondamental de l'algèbre). Avec la résolution des équations algébriques
apparut, de manière√ plus ou moins confuse, la notion de nombre complexe : on
utilisa le symbole −1. Parallèlement, la théorie des congruences se développa.
Ainsi, de nouveaux objets mathématiques entrèrent en scène. Bientôt, les
mathématiciens y virent des analogies étroites qu'ils cherchèrent à expliquer :
l'algèbre devint progressivement l'étude abstraite des structures algébriques,
jusqu'à ce que connaît l'étudiant d'aujourd'hui.

1. Arithmétique sur les entiers


Nous supposons acquises les notions de base sur l'ensemble des entiers naturels N et
des entiers relatifs Z, ainsi que les calculs dans l'anneau quotient Z/nZ. Une étude plus
approfondie de ce dernier fait l'objet de la section 3 de ce chapitre.
1.1. Divisibilité - pgcd, ppcm
Définition 1. Soient a et b deux entiers relatifs. On dit que a divise b (ou que b est un
multiple de a), et on note a | b, s'il existe un entier n tel que b = an. Si a ne divise pas b,
on note a  b.
Proposition 1 (Division euclidienne). Soient a ∈ Z, b ∈ N∗ . Il existe un unique
couple (q, r) ∈ Z × N tel que
a = bq + r, avec 0 ≤ r ≤ b − 1.
q s'appelle le quotient, r le reste, de la division euclidienne de a par b.
Classes de congruence modulo n.
Définition 2. Soit n un entier naturel non nul. On note nZ = {nk, k ∈ Z}. Si x et y
sont deux entiers, on note x ≡ y (mod n) si x − y ∈ nZ. et on dit alors que x et y sont
congrus modulo n.
Définition 3. Soit n un entier naturel non nul. L'anneau quotient de Z par nZ est
noté Z/nZ. On note généralement x (ou ẋ) la classe d'un entier x dans Z/nZ. Ainsi,
Z/nZ = {0, 1, . . . , n − 1}.
PGCD.
Définition 4.  Soient a1 , . . . , an des entiers. Il existe un unique entier naturel d
tel que a1 Z + · · · + an Z = dZ. Ainsi déni, d s'appelle le pgcd de a1 , . . . , an et on
note d = pgcd(a1 , . . . , an ). L'entier d est aussi le plus grand entier naturel divisant
tous les ai (1 ≤ i ≤ n).
 Lorsque pgcd (a1 , . . . , an ) = 1, on dit que les entiers a1 , . . . , an sont premiers entre
eux dans leur ensemble. Lorsque pgcd (ai , aj ) = 1 dès que i = j , les entiers ai sont
dits premiers entre eux deux à deux.
10 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX

Remarque 1.  Des entiers premiers entre eux deux à deux sont premiers entre eux
dans leur ensemble.
 Il résulte de la dénition du pgcd que les diviseurs communs à une famille d'entiers
sont les diviseurs du pgcd.
 Lorsque a1 , . . . , an sont des entiers, on a
∀a ∈ Z, pgcd (aa1 , . . . , aan ) = |a| pgcd (a1 , . . . , an ).
 Le pgcd de deux entiers a et b se note aussi a ∧ b.
 Théorème 1 (Bezout). Des entiers a1 , . . . , an sont premiers entre eux dans leur en-
semble si et seulement s'il existe des entiers u1 , . . . , un tels que u1 a1 + · · · + un an = 1.
Remarque 2. Lorsque deux entiers a et b sont premiers entre eux, le théorème de Bezout
assure l'existence d'un couple (u, v) ∈ Z2 tel que au + bv = 1. Il existe un moyen pratique
de calculer un tel couple (u, v), appelé algorithme d'Euclide (voir l'exercice 2).
 Théorème 2 (Gauss). Soient a, b et c trois entiers. Si a divise le produit bc et si a et
b sont premiers entre eux, alors a divise c.
Proposition 2. Si un entier a est premier avec des entiers b1 , . . . , bn , alors a est premier
avec le produit b1 . . . bn .
Proposition 3. Soient a1 , . . . , an n entiers premiers entre eux deux à deux et b un
entier. Le produit a1 · · · an divise b si et seulement si pour tout i, ai divise b.
PPCM.
Définition 5. Soient a1 , . . . , an des entiers. Il existe un unique entier naturel d tel que
a1 Z ∩ · · · ∩ an Z = dZ. Ainsi déni, d s'appelle le ppcm de a1 , . . . , an et on note d =
ppcm (a1 , . . . , an ). L'entier d est aussi le plus petit entier naturel non nul multiple de tous
les ai (1 ≤ i ≤ n).
Remarque 3.  Il résulte de cette dénition que les multiples communs à une famille
d'entiers sont les multiples de leur ppcm.
 On a facilement
∀a ∈ Z, ppcm (aa1 , . . . , aan ) = |a| ppcm (a1 , . . . , an ).
 Le ppcm de deux entiers a et b se note aussi a ∨ b.
Proposition 4. Soient a1 , . . . , an des entiers premiers entre eux deux à deux. Alors
ppcm (a1 , . . . , an ) = |a1 · · · an |.
Proposition 5. Pour deux entiers a et b, on a pgcd (a, b) × ppcm (a, b) = |ab|.
1.2. Nombres premiers
Définition 6. On dit qu'un entier naturel p ≥ 2 est un nombre premier si ses seuls
diviseurs sont p, −p, 1 et −1.
 Théorème 3 (Théorème fondamental de l'arithmétique). Tout entier naturel
n ≥ 2 s'écrit de manière unique à l'ordre prés sous la forme
n = pα1 1 · · · pαk k , (∗)
où les pi sont des nombres premiers distincts et les αi des entiers naturels non nuls. La
relation (∗) s'appelle la décomposition de n en facteurs premiers .
Remarque 4.  Tout entier n, |n| ≥ 2, est divisible par un nombre premier.
1. ARITHMÉTIQUE SUR LES ENTIERS 11

 Si n = pα1 1 · · · pαk k et m = pβ1 1 · · · pβkk , où les pi sont des nombres premiers distincts
et les αi , βi des entiers naturels, alors pgcd (n, m) = pγ11 · · · pγkk et ppcm(n, m) =
pδ11 · · · pδkk où γi = inf(αi , βi ) et δi = sup(αi , βi ).
Proposition 6. Si un nombre premier p ne divise pas un entier a, alors p et a sont
premiers entre eux.
Proposition 7. Si un nombre premier divise un produit d'entiers a1 · · · an , il divise au
moins l'un des facteurs ai de ce produit.
Proposition 8. L'ensemble des nombres premiers est inni.
Démonstration. Raisonnons par l'absurde et supposons qu'il y ait un nombre ni de nombres
premiers. Soit N le plus grand d'entre eux. Posons M = N ! + 1 et désignons par p un nombre
premier divisant M . Comme p ≤ N , on a p | (N !), donc p | (M − N !) = 1, ce qui est absurde. 
 
p
Proposition 9. Soit p un nombre premier et k un entier, 1 ≤ k ≤ p − 1. Alors p | .
k
Proposition 10. Soit n ≥ 2 un entier. L'anneau Z/nZ est un corps si et seulement si
n est premier.
 Théorème 4 (Fermat). Soit p ≥ 2 un nombre premier. Alors
∀a ∈ Z, ap ≡ a (mod p)
et
∀a ∈ Z, p  a, ap−1 ≡ 1 (mod p).
Théorème 5 (Wilson). Un entier p ≥ 2 est un nombre premier si et seulement si
(p − 1)! ≡ −1 (mod p).
Démonstration. Condition nécessaire. Si p = 2 ou p = 3, c'est évident. Pour traiter le cas p > 3,
on commence par rechercher les éléments x du groupe multiplicatif (Z/pZ)∗ égaux à leur inverse.
Ils vérient x2 = 1, c'est-à-dire (x − 1)(x + 1) = 0. Les seuls éléments de (Z/pZ)∗ égaux à leurs
inverses sont donc x = 1 et x = −1. On range les autres 2, 3, . . . , p − 2 en p−3
2 paires d'éléments
{xi , yi } telles que xi yi = 1. Si k = p−3
2 , on peut écrire
k

2 · 3···p − 2 = (xi yi ) = 1 donc (p − 1)! ≡ −1 (mod p).
i=1
Condition susante. Supposons p non premier, et notons a un diviseur de p vériant 1 < a < p.
On a a | [(p − 1)! + 1] par hypothèse, et a | (p − 1)! puisque 1 < a < p, donc a | 1 ce qui est
absurde. 

1.3. Exercices
Exercice 1. Déterminer les triplets (a, b, c) ∈ (N∗ )3 tels que
(i) ppcm(a, b) = 42 (ii) pgcd(a, c) = 3 (iii) a + b + c = 29.

Solution. D'après (ii), 3 | a et 3 | c, donc 3 | (a + c). Comme b = 29 − (a + c), b n'est pas un


multiple de 3, et 3 étant premier, 3 ∧ b = 1. En utilisant (i) on a b | 42 = 3 × 14 et d'après le
théorème de Gauss, b | 14. Donc b ∈ {1, 2, 7, 14}. Mais 29 − b = a + c est divisible par 3, ce qui
restreint les valeurs possibles de b à 2 et 14.
 Si b = 2, a ∈ {21, 42} d'après (i). Mais a ≤ 29 d'après (iii), donc a = 21 et c = 6 avec
(iii).
 Si b = 14, a ∈ {3, 6, 21, 42} d'après (i). La relation (iii) entraîne a ≤ 29 − b = 15, d'où
a ∈ {3, 6}. Si a = 3, c = 12 par (iii) ; si a = 6, c = 9.
12 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX

Nécessairement, on a donc (a, b, c) = (21, 2, 6), (3, 14, 12) ou (6, 14, 9). Réciproquement, on vérie
facilement que ces triplets sont solution.

 Exercice 2. 1/ Soient a et b ≥ 2 deux entiers naturels non nuls premiers entre eux.
Montrer que
∃!(u0 , v0 ) ∈ N2 , u0 a − v0 b = 1, avec u0 < b et v0 < a (∗)
et exprimer en fonction de u0 , v0 , a et b tous les couples (u, v) ∈ Z2 solutions de ua−vb = 1.
2/ Déterminer deux entiers u et v vériant 47u + 111v = 1.
Solution. 1/ Le théorème de Bezout assure l'existence de deux entiers u1 et v1 vériant u1 a −
v1 b = 1. On eectue ensuite la division euclidienne de u1 par b : u1 = bq +u0 , avec 0 ≤ u0 < b. On
obtient (bq + u0 )a − v1 b = 1 = u0 a − v0 b, avec v0 = v1 − aq . Donc −1 ≤ v0 b = u0 a − 1 < u0 a < ba,
et en divisant par b ≥ 2, on tire 0 ≤ v0 < a. Ainsi, notre couple (u0 , v0 ) vérie l'assertion (∗).
Ceci étant, considérons un couple (u, v) vériant ua − vb = 1. En retranchant à (∗), on obtient
(u − u0 )a = (v − v0 )b. (∗∗)
Ceci montre que a | (v − v0 )b et comme a et b sont premiers entre eux, le théorème de Gauss
entraîne a | (v − v0 ). Soit k ∈ Z tel que v = v0 + ka. En remplaçant dans (∗∗), on obtient
(u, v) = (u0 + kb, v0 + ka). Ceci prouve que le couple (u0 , v0 ) est bien l'unique couple vériant
la propriété (∗), et réciproquement, on vérie facilement que les couples de cette forme sont
solutions de ua − vb = 1.
2/ Les nombres 47 et 111 sont premiers entre eux, u et v existent donc. Nous allons les déterminer
grâce à l'algorithme d'Euclide. On eectue d'abord la division euclidienne de 111 par 47
111 = 47 × 2 + 17,
puis on itère en divisant toujours le dividende par le reste, jusqu'à ce que le reste égale 1 :
47 = 17 × 2 + 13, 17 = 13 × 1 + 4, 13 = 4 × 3 + 1.
On part maintenant de 1 = 13 − 4 × 3 et on remonte :
1 = 13 − 4 × 3 = 13 − (17 − 13 × 1) × 3 = 4 × 13 − 3 × 17 = 4 × (47 − 17 × 2) − 3 × 17 =
4 × 47 − 11 × 17 = 4 × 47 − 11 × (111 − 47 × 2) = 26 × 47 − 11 × 111, d'où le résultat avec u = 26
et v = −11.
Remarque. Il existe des résultats analogues sur les polynômes (voir l'exercice 3 page 60).

Exercice 3. a) Montrer que pour tout entier naturel n, 5 | (23n+5 + 3n+1 ).


b) Montrer que pour tout entier n, 30 | (n5 − n).
c) Quel est le reste de la division euclidienne de 16(2 ) par 7 ?
1000

Solution. a) On a 25 ≡ 2 (mod 5) et 23n ≡ 8n ≡ 3n (mod 5) donc 23n+5 ≡ 2 · 3n (mod 5) et


23n+5 + 3n+1 ≡ 2 · 3n + 3 · 3n ≡ 0 (mod 5).
b) D'après le théorème de Fermat, n5 ≡ n (mod 5), c'est-à-dire 5 | (n5 − n).
De même, ≡ n (mod 3) donc ≡ · n2 ≡ n · n2 ≡ n3 ≡ n (mod 3), i. e. 3 | (n5 − n).
n3 n5 n3
Les entiers n et n5 ayant même parité, on a aussi 2 | (n5 − n).
De plus 2, 3 et 5 sont premiers entre eux deux à deux, et nalement 30 = 2 · 3 · 5 divise (n5 − n).
c) Posons N = 16(2 ) . Il s'agit de déterminer la classe de congruence de N modulo 7. Comme
1000

16 ≡ 2 (mod 7), on a déjà N ≡ 22 (mod 7). En vue d'utiliser la relation 26 ≡ 1 (mod 7)


1000

(théorème de Fermat), recherchons le reste de la division de 21000 par 6. La relation 42 ≡ 4


1. ARITHMÉTIQUE SUR LES ENTIERS 13

(mod 6) permet d'obtenir, par récurrence sur n, la relation 4n ≡ 4 (mod 6), vraie pour tout n.
En particulier, 21000 ≡ 4500 ≡ 4 (mod 6), donc il existe un entier naturel q tel que 21000 = 6q + 4.
Il ne reste qu'à écrire
N ≡ 26q+4 ≡ (26 )q · 24 ≡ 1q 24 ≡ 24 ≡ 2 (mod 7),
et le reste recherché est 2.

Exercice 4 (Nombres de Mersenne, nombres de Fermat). a) Nombres de Mer-


senne. Soient a ≥ 2 et n ≥ 2 deux entiers. Si an − 1 est un nombre premier, montrer que
a = 2 et que n est un nombre premier (un nombre de la forme 2p − 1 où p est un nombre
premier, est appelé nombre de Mersenne).
b) Nombres de Fermat. Soit n ∈ N∗ . Si 2n + 1 est un nombre premier, montrer que n est
une puissance de 2.
Solution. a) L'identité xn − 1 = (x − 1)(xn−1 + · · · + x + 1) montre que
∀x ∈ N, x ≥ 2, (x − 1) divise (xn − 1). (∗)
L'entier − 1 étant premier, on en déduit a − 1 = 1, c'est-à-dire a = 2.
an
Écrivons n = pq où p et q sont deux entiers naturels. On a an − 1 = 2n − 1 = (2q )p − 1 de
sorte que (2q − 1) divise an − 1 d'après (∗), ce qui entraîne q = 1 ou q = n puisque an − 1 est
premier. L'entier n est donc premier.
b) Lorsque n est impair, l'identité xn + 1 = (x + 1)(xn−1 − · · · + x2 − x + 1) entraîne
∀x ∈ N, ∀n ∈ N, n impair , (x + 1) divise (xn + 1). (∗∗)
Si n n'est pas une puissance de 2, n a au moins un facteur impair p > 1. Écrivons n = pq avec
q ∈ N∗ . L'entier 2n + 1 = (2q )p + 1 est divisible par (2q + 1) d'après (∗∗), donc non premier.
Ainsi, n doit être une puissance de 2.
Remarque. La réciproque du résultat de la question a) est fausse. Par exemple, 211 − 1 =
23 × 49 n'est pas premier. Cependant, on peut tester facilement la primalité des nombres
de Mersenne grâce au test suivant (test de Lucas).
Soit (Yn ) la suite dénie par Y0 = 2 et Yn+1 = 2Yn2 − 1. Si n ≥ 3, 2n − 1
est premier si et seulement si (2n − 1) | Yn−2 .
Ce test a permis de trouver le plus grand nombre premier connu en 2020 : 282 589 933 − 1,
nombre d'un peu moins de 25 millions de chires, établi en 2018 avec le test de Lucas.
On ignore s'il y a une innité de nombres de Mersenne premiers ou pas. Notons que les
nombres de Mersenne apparaissent dans les nombres parfaits (voir l'exercice 10 page 16).
 Nombres de Fermat. Fermat avait vérié que 22 + 1 était premier pour 0 ≤ n ≤ 4
n

et pensait que 22 + 1 était premier pour tout n. Mais Euler montra que 22 + 1 =
n 5

641 × 6700417, et on a jusqu'ici trouvé aucun autre nombre de Fermat premier. On ne


sait même pas s'il y en a ! Le sujet d'étude 2 page 49 donne un test de primalité simple
des nombres de Fermat.

Exercice 5. Soit A la somme des chires de 44444444 (écrit dans le système décimal) et
B la somme des chires de A. Que vaut C , la somme des chires de B ?
Solution. L'exercice repose essentiellement sur la remarque suivante.
Tout entier naturel N est congru à la somme de ses chires (en base 10)
modulo 9. (∗)
14 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX

En eet. On peut écrire N = a0 + a1 · 10 + · · · + ap · 10p , où les ai sont des entiers compris entre
0 et 9. La congruence 10 ≡ 1 (mod 9) entraîne 10i ≡ 1 (mod 9) pour tout i donc
p
 p

N= ai 10i ≡ ai (mod 9).
i=0 i=0

On applique maintenant ce résultat. On a C ≡ B ≡ A ≡ 44444444 (mod 9). D'après (∗),


4444 ≡ 16 ≡ −2 (mod 9) donc 44443 ≡ (−2)3 ≡ 1 (mod 9), et comme 4444 = 3 · 1481 + 1, on a
44444444 = (44443 )1481 · 4444 ≡ 1 · (−2) ≡ 7 (mod 9). Finalement,

C≡7 (mod 9). (∗∗)

Majorons maintenant C de manière à montrer C = 7. Le nombre 44444444 étant inférieur à


100005000 = 1020000 , il a au plus 20000 chires. Donc A vaut au plus 9 × 20000 = 180000, donc a
au plus 6 chires, donc B vaut au plus 6 × 9 = 54, donc C ≤ 5 + 9 = 14. De (∗∗), on tire C = 7.
Remarque. C'est la propriété (∗) qui explique le principe de la preuve par 9 que l'on
eectue dans les classes de l'école primaire.

Exercice 6. Soit P = X n + c1 X n−1 + · · · + cn−1 X + cn un polynôme à coecients entiers.


Montrer qu'une racine rationnelle de P est nécessairement entière.
Solution. Soit x = a/b une racine rationnelle de P (a ∈ Z, b ∈ N∗ , a ∧ b = 1). On a
a
0 = bn P = an + c1 an−1 b + · · · + cn−1 abn−1 + cn bn
b
donc  
an = −b c1 an−1 + · · · + cn−1 abn−2 + cn bn−1 ,

ce qui montre que b divise an . Les entiers a et b étant premiers entre eux, ceci n'est possible que
si b = 1, d'où le résultat.
Remarque. On en déduit en particulier que la racine n-ième de tout entier N est soit
entière, soit irrationnelle (considérer le polynôme X n − N ).

Exercice 7. Montrer qu'il y a une innité de nombres premiers de la forme 6k − 1,


k ∈ N∗ .
Solution. Raisonnons par l'absurde en supposant qu'il n'y en ait qu'un nombre ni. Désignons
par N le plus grand d'entre eux. L'entier M = −1 + 6(N !) est impair donc 2  M . De même,
M ≡ −1 (mod 3) donc 3  M .
Soit p un facteur premier de M . Si p est de la forme 6k − 1, alors p ≤ N donc p | (6 · N !),
d'où p | (6N ! − M ) = 1, ce qui est impossible. Le nombre p n'est donc pas de la forme 6k − 1.
De plus p ∈ {2, 3} comme on l'a vu plus haut, donc p est de la forme 6k + 1, k ∈ N∗ . Dans la
décomposition M = pα1 1 · · · pαnn de M en facteurs premiers, on a donc pi ≡ 1 (mod 6) pour tout
i, d'où M ≡ 1 (mod 6), ce qui est absurde car M ≡ −1 (mod 6) par construction.
Remarque. On peut démontrer de la même manière qu'il y a une innité de nombres
premiers de la forme 4k − 1. Il existe un théorème plus général (théorème de Dirichlet,
1837) qui dit :
∀(a, b) ∈ (N∗ )2 , a ∧ b = 1, il existe une innité de nombres premiers de
la forme ak + b, k ∈ N.
1. ARITHMÉTIQUE SUR LES ENTIERS 15

Malheureusement, ce résultat n'a encore jamais pu être obtenu par des moyens élémen-
taires et simples. On peut cependant le démontrer dans certains cas particuliers (voir le
problème 5 page 40, la partie 6/ du sujet d'étude 2 page 49 ou le problème 11 page 99).
En notant πa,b (x) le nombre de nombres premiers ≤ x de la forme ak + b, le théorème
de Dirichlet assure également que lorsque a ∧ b = 1, on a πa,b (x) ∼x→+∞ π(x)/ϕ(a) (où
π(x) désigne le nombre de nombres premiers ≤ x et ϕ(a) l'indicateur d'Euler de a).

Exercice 8. a) Montrer qu'il n'existe pas de polynôme P non constant à coecients


entiers, tel que P (n) soit premier pour tout entier n supérieur à un certain rang N .
b) On considère un polynôme P à k variables et à coecients entiers. On pose f (n) =
P (n, 2n , 3n , . . . , k n ), et on suppose limn→∞ f (n) = +∞ (ceci pour éviter des fonctions
comme f (n) = 2n 5n − 10n + 7). Montrer que f (n) ne peut pas être un nombre premier
pour tout entier n supérieur à un certain rang N .
n
Solution.a) Supposons qu'un tel polynôme existe. Écrivons P = k=0 ak X k . L'entier p =
P (N ) = nk=0 ak N k est premier. Or tout entier naturel r vérie
n
 n

P (N + rp) = ak (N + rp)k ≡ ak N k ≡ 0 (mod p),
k=0 k=0
autrement dit P (N + rp) est divisible par p pour tout entier naturel r. Comme P (N + rp) est
premier, on a P (N + rp) = p pour tout entier naturel r. Ainsi, le polynôme P (X) − p a une
innité de racines, il est donc nul, ce qui est contraire aux hypothèses.
b) Supposons l'existence d'une telle fonction. Un peu d'attention montre que f peut se mettre
sous la forme  
m
 qr

f (n) = cr,s ns anr ,
r=1 s=0
où les ar et cr,s sont entiers, avec 1 ≤ a1 < a2 < · · · < am . Comme limn→∞ f (n) = +∞, on
peut supposer f (N ) > am > · · · > a1 ≥ 1 (quitte à augmenter N ). Notons p le nombre premier
p = f (N ). On a
∀ ∈ N, ∀s ∈ N, [N + p(p − 1)]s ≡ N s (mod p),
et d'après le théorème de Fermat, lorsque 1 ≤ r ≤ m on a
ap−1
r ≡1 (mod p) donc ∀ ∈ N, aN
r
+p(p−1)
≡ aN
r (mod p).
Finalement,
∀ ∈ N, [N + p(p − 1)]s aN
r
+p(p−1)
≡ N s aN
r (mod p),
et ceci pour tous les entiers r, s donc f [N + p(p − 1)] ≡ f (N ) ≡ 0 (mod p). Ceci étant vrai pour
tout entier naturel , on aboutit à une absurdité.

Exercice 9. Pour tout entier naturel n, on pose Fn = 22 + 1 (nombres de Fermat). n

a) Montrer que les nombres (Fn )n∈N sont premiers entre eux deux à deux.
b) En déduire une autre démonstration du fait qu'il y a une innité de nombres premiers.

Solution. a) Si n ∈ N, k ∈ N∗ , il s'agit de montrer que Fn et Fn+k sont premiers entre eux. La


relation
n+k  n  2k k
Fn+k − 1 = 22 = 22 = (Fn − 1)2
entraîne
k k
Fn+k − 1 ≡ (Fn − 1)2 ≡ (−1)2 ≡ 1 (mod Fn )
16 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX

donc Fn | (Fn+k − 2). Ainsi, le pgcd d de Fn et Fn+k divise Fn+k − 2. Comme de plus d | Fn+k ,
d divise 2, et Fn étant impair, on a nécessairement d = 1.
b) Pour tout n ∈ N, notons pn un facteur premier de Fn . Les Fn étant premiers entre eux deux à
deux, les (pn )n∈N sont distincts deux à deux. On a donc trouvé une innité de nombres premiers.
Remarque. Protons en ici pour rappeler quelques résultats dans l'histoire des nombres
premiers. Les grecs savaient déjà qu'il y en avait une innité. Le gros résultat suivant fut
le théorème des nombres premiers.
Si ∀x > 0, π(x) désigne le nombre de nombres premiers inférieurs à x,
on a π(x) ∼ x/ log(x) lorsque x tend vers l'inni.
Il fut démontré pour la première fois et presque simultanément par J. Hadamard et C. De
la Vallée Poussin en 1896. Les démonstrations les plus classiques de ce résultat font appel
à la fonction ζ de Riemann. Une preuve en est proposée en annexe du tome d'Analyse (à
partir de la deuxième édition).

Exercice 10 (Nombres parfaits). 1/a) Pour tout entier naturel non nul n, on note
σ(n) la somme des diviseurs de n. Exprimer σ(n) en fonction des termes intervenant dans
la décomposition de n en facteurs premiers. Montrer que
n∧m=1 =⇒ σ(nm) = σ(n)σ(m). (∗)
b) On dit qu'un entier naturel non nul n est parfait s'il est égal à la somme de ses diviseurs
autres que lui même (i. e. si σ(n) = 2n). Si 2p − 1 est un nombre premier, montrer que
n = 2p−1 (2p − 1) est un nombre parfait.
c) Réciproquement, démontrer qu'un nombre parfait pair n est de la forme 2p−1 (2p − 1),
où 2p − 1 est nécessairement un nombre premier.
2/ (Nombres parfaits impairs). a) (Théorème d'Euler). Montrer que s'il existe un nombre
parfait impair n, alors il est nécessairement de la forme
n = p1+4α Q2 avec p premier, p ≡ 1 (mod 4), α ∈ N, et Q ∈ N∗ avec p ∧ Q = 1.

(Indication : à partir de la décomposition en facteurs premiers n = pαi i , étudier la valeur
de σ(pαi i ) modulo 4.)
b) Montrer qu'un nombre parfait impair a au moins 3 facteurs premiers distincts.
Solution. 1/a) Si n = pα1 1 · · · pαk k est la décomposition de n en facteurs premiers, on a
k k
 
   pαi i +1 − 1
σ(n) = pβ1 1 pβ2 2 · · · pβk k = (1 + pi + · · · + pαi i ) = .
pi − 1
0≤β1 ≤α1 i=1 i=1
···
0≤βk ≤αk

La propriété (∗) en découle immédiatement.


b) On applique les résultats de la question précédente pour écrire
σ(n) = σ[2p−1 (2p − 1)] = σ(2p−1 )σ(2p − 1) = (2p − 1)2p = 2n.

c) La réciproque est plus délicate. Comme n est pair, il existe un entier p ≥ 2 tel que n =
2p−1 m avec m impair. Le fait que 2p−1 ∧ m = 1 nous autorise à utiliser (∗), de sorte que
σ(n) = σ(2p−1 )σ(m) = (2p − 1)σ(m). Or σ(n) = 2n = 2p m donc (2p − 1) | 2p m, et comme
(2p − 1) ∧ 2p = 1, d'après le théorème de Gauss on a (2p − 1) | m. Autrement dit, il existe  ∈ N∗
tel que m = (2p −1). La relation 2p m = 2n = σ(n) = (2p −1)σ(m) entraîne σ(m) = 2p  = m+.
Si  > 1, m a au moins trois diviseurs distincts qui sont 1,  et m, d'où σ(m) ≥ m +  + 1,
ce qui est absurde. Donc  = 1, m = 2p − 1 et σ(m) = m +  = m + 1 ; on en déduit que
1. ARITHMÉTIQUE SUR LES ENTIERS 17

les seuls diviseurs de m sont 1 et m, donc m est un nombre premier. En résumé, on doit avoir
n = 2p−1 (2p − 1) où 2p − 1 est un nombre premier.
2/a) Considérons la décomposition de n en facteurs premiers n = pα1 1 · · · pαk k . D'après 1/a), on a
σ(n) = σ(pα1 1 ) · · · σ(pαk k ). Comme n est un nombre impair, on a 2n ≡ 2 (mod 4). Si n est parfait,
alors σ(n) = 2n donc σ(pα1 1 ) · · · σ(pαk k ) ≡ 2 (mod 4). Ceci implique forcément qu'il existe un et
un seul indice i pour lequel σ(pαi i ) ≡ 2 (mod 4) et que les autres vérient σ(pαi i ) ≡ ±1 (mod 4).
Quitte à renuméroter les pi , on peut donc supposer que
σ(pα1 1 ) ≡ 2 (mod 4) et ∀i ≥ 2, σ(pαi i ) ≡ ±1 (mod 4). (∗∗)
Les pi sont des nombres premiers impairs car n est impair. Nous traitons deux cas selon que
pi ≡ −1 ou 1 (mod 4).
(i) Si pi ≡ −1 (mod 4), alors l'égalité σ(pαi i ) = 1 + pi + · · · + pαi i entraîne

0 (mod 4) si αi est impair,
σ(pαi i ) ≡ 1 + (−1) + · · · + (−1) αi

1 (mod 4) si αi est pair.
D'après (∗∗) on en déduit i ≥ 2 et αi est forcément un nombre pair.
(ii) Lorsque pi ≡ 1 (mod 4), on a
σ(pαi i ) = 1 + pi + · · · + pαi i ≡ αi + 1 (mod 4).
Avec (∗∗), on en déduit que α1 ≡ 1 (mod 4) et que αi est pair pour i ≥ 2.
En résumé, on a forcément p1 ≡ 1 (mod 4), α1 ≡ 1 (mod 4) et dans tous les cas, αi est pair
lorsque i ≥ 2. Le résultat en découle avec p = p1 , α = (α1 − 1)/4 et Q = pα2 2 /2 · · · pαk k /2 .
b) Soit n = pα1 1 · · · pαk k la décomposition en facteurs premiers de n, avec p1 < p2 < . . . < pk . Si
n est parfait, l'égalité σ(n) = 2n entraîne
k k   k
σ(n)  σ(pαi i )  1 1 1
2= = αi = 1 + + · · · + αi ≤ . (∗∗∗)
n pi pi pi 1 − 1/pi
i=1 i=1 i=1
Si k = 1, on a p1 ≥ 3 et (∗∗∗) entraîne 2 ≤ (1 − 1/p1 )−1 ≤ 3/2 ce qui est absurde. Si k = 2, alors
p1 ≥ 3 et p2 ≥ 5, donc d'après (∗∗∗) on a 2 ≤ (1 − 1/p1 )−1 (1 − 1/p2 )−1 ≤ (3/2) · (5/4) = 15/8
ce qui est absurde. Donc k ≥ 3.
Remarque. On ne connaît aucun nombre parfait impair, on ne sait même pas s'il y en a.
Outre le résultat 2/a), on sait que s'il en existe un alors il a au moins 1500 chires
décimaux et il a au moins 10 facteurs premiers distincts dont le plus grand est supérieur
à 108 .

Exercice 11 (Théorème de Liouville). Soit p > 5 un entier. Montrer que l'équation


en m ∈ N∗
(p − 1)! + 1 = pm
n'a pas de solution.
Solution. Comme p > 5, (p − 1)! + 1 est impair donc pm est impair, donc p est impair. Or p > 5
donc 2 < p−1
2 < p − 1, d'où
 
p−1
(p − 1)2 = 2 · · (p − 1) divise (p − 1)!.
2
Ceci étant, supposons (p − 1)! + 1 = pm . Comme (p − 1)! = pm − 1, (p − 1)2 divise pm − 1 =
(p − 1)(1 + p + · · · + pm−1 ), donc (p − 1) divise 1 + p + · · · + pm−1 . Or p ≡ 1 (mod p − 1) donc
1 + p + · · · + pm−1 ≡ m (mod p − 1), ce qui prouve (p − 1) | m. Ceci montre m ≥ p − 1 donc
pm ≥ pp−1 > (p − 1)p−1 > (p − 1)!, et nalement (p − 1)! + 1 < pm et l'équation proposée n'a
pas de solution.
18 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX

Exercice 12 (Critère de factorisabilité des nombres de Mersenne). a) Soit


p un nombre premier de la forme 4k + 3 avec k ∈ N∗ . Montrer que 2(p−1)/2 ≡ (−1)k+1
(mod p).
b) On rappelle que les nombres de Mersenne sont les nombres de la forme Mp = 2p − 1
où p est un nombre premier (voir l'exercice 4). Si p est un nombre premier de la forme
4k + 3 (k ∈ N∗ ) et si 2p + 1 est premier, montrer que Mp n'est pas premier.

Solution. a) Posons  
p−1
N = 2(p−1)/2 ! = 2(p−1)/2 (2k + 1)!.
2
L'astuce est de donner une autre expression de N modulo p. On écrit
p−1
N ≡ 2(p−1)/2 (1 · 2 · · · ) ≡ 2 · 4 · · · (p − 1) (mod p),
2
ou encore
N ≡ (2 · 4 · · · (2k)) · ((2k + 2) · · · (4k) · (4k + 2)) (mod p).
Les congruences 

 2k + 2 ≡ −(2k + 1) (mod p)

2k + 4 ≡ −(2k − 1) (mod p)
 ..................................


4k + 2 ≡ −1 (mod p)
entraînent
(2k + 2) · (2k + 4) · · · (4k) · (4k + 2) ≡ (−1)k+1 (2k + 1) · (2k − 1) · · · 3 · 1 (mod p)
donc
N ≡ (2 · 4 · · · (2k)) · (−1)k+1 ((2k + 1) · · · 3 · 1) (mod p),
d'où
2(p−1)/2 (2k + 1)! ≡ N ≡ (−1)k+1 (2k + 1)! (mod p),
d'où le résultat car comme p est premier et 2k + 1 < p, on a (2k + 1)! ≡ 0 (mod p).
b) Supposons p = 4k + 3 premier, ainsi que q = 2p + 1 = 8k + 7. Le résultat précédent appliqué
à q = 4(2k + 1) + 3 donne
2(q−1)/2 ≡ 2p ≡ (−1)2k+2 ≡ 1 (mod q)
donc 2p − 1 ≡ 0 (mod 2p + 1). Autrement dit, 2p + 1 divise Mp > 2p + 1 et Mp n'est pas premier.
Remarque. En appliquant b) aux petits nombres premiers, on montre que Mp n'est pas
un nombre premier pour p = 11, 23, 83, 131, 179, 191, 239, 251.

Exercice 13. Résoudre x2 + y2 = z 2 , avec (x, y, z) ∈ (N∗ )3 . (Indication : se ramener au


cas où x, y et z sont premiers entre eux, puis étudier leur parité.)
Solution. Quitte à tout diviser par pgcd(x, y, z)2 , on peut supposer x, y et z premiers entre eux
dans leur ensemble. On vérie alors facilement que x, y et z sont premiers entre eux deux à deux.
 Étudions la parité de x, y et z . Tout nombre impair N = 2n + 1 vérie N 2 = 4n2 + 4n + 1 ≡ 1
(mod 4). Donc si x et y sont impairs, x2 + y 2 ≡ 2 (mod 4), donc z est pair et on aboutit à une
absurdité car z 2 ≡ 0 (mod 4). L'un des entiers x ou y est donc pair, par exemple x. Comme x,
y et z sont premiers entre eux deux à deux, y et z sont impairs.
 On écrit     
x 2 z−y z+y
=
2 2 2
(z et y étant impairs, z−y 2 et 2 sont entiers). Ceci montre que 2 et 2 sont des carrés
z+y z−y z+y

d'entiers. Si tel n'était pas le cas, la décomposition de ( x2 )2 en facteurs premiers entraînerait


2. GROUPES 19

     z−y z+y 
l'existence d'un nombre premier p divisant z−y
 z+y z−y  2 et z+y
2 . L'entier p diviserait 2 + 2 =z
et 2 − 2 = y ce qui est impossible car y ∧ z = 1.
 Finalement, il existe (n, m) ∈ N2 , tel que z−y
2 = n et 2 = m . On en déduit x = 2mn,
2 z+y 2

y = m − n et z = m + n . Réciproquement, ce triplet est solution. La solution du problème


2 2 2 2

général est donc


(x, y) ou (y, x) = (2kmn, k(m2 − n2 )); z = k(m2 + n2 ) k ∈ N∗ , (m, n) ∈ N2 , m > n.

Remarque. Cet exercice est un cas particulier de l'équation xn + y n = z n . Fermat énonça


en 1637 que pour tout entier n ≥ 3, cette équation n'a pas de solution (x, y, z) ∈ (Z∗ )3 ,
et armait qu'il en possédait une démonstration. La prétendue preuve n'a jamais été
retrouvée et les mathématiciens, après de très nombreuses recherches aux cours des siècles
suivants, ont sérieusement douté de l'existence de la preuve de Fermat. Une démonstration
complète du théorème de Fermat a nalement été trouvée en 1993 par le mathématicien
anglais Andrew Wiles, résolvant ainsi le problème le plus célèbre des mathématiques.
Inutile de dire que le niveau de la preuve dépasse largement celui des classes préparatoires.
 Pour ceux que la théorie des nombres intéresse, on ne peut que conseiller l'excellent
ouvrage de Hardy et Wright : An Introduction to the Theory of Numbers.

2. Groupes
2.1. Généralités
Définition 1. On appelle groupe un ensemble G muni d'une loi interne ∗ telle que
(i) La loi ∗ est associative (i. e. pour tous x, y, z dans G, (x ∗ y) ∗ z = x ∗ (y ∗ z)).
(ii) Il existe un élément neutre e (i. e. pour tout x ∈ G, x ∗ e = e ∗ x = x).
(iii) Tout élément a un symétrique (i. e. pour tout x ∈ G, il existe y ∈ G tel que x ∗ y =
y ∗ x = e).
Si la loi ∗ est commutative, on parle de groupe commutatif (ou abélien).
Remarque 1.  L'élément neutre e de (G, ∗) est unique.
 Pour tout x ∈ G, x a un unique symétrique, souvent noté x−1 .
Définition 2. Soit (G, ∗) un groupe ; on dit que H ⊂ G est un sous-groupe de G si la
restriction de la loi ∗ à H lui confère une structure de groupe.
Exemple 1. L'ensemble Z des entiers, muni de la loi d'addition, est un groupe. Pour tout
n ∈ N, nZ est un sous-groupe de (Z, +). Réciproquement, on peut démontrer que tous les
sous-groupes de (Z, +) sont de la forme nZ avec n ∈ N.
Dorénavant, la loi ∗ d'un groupe sera notée multiplicativement (la notation additive
est réservée aux groupes abéliens).
Proposition 1. Soit G un groupe et H ⊂ G. L'ensemble H est un sous-groupe de G si
 ∅ et pour tout couple (x, y) ∈ H on a xy −1 ∈ H .
et seulement si H =
Proposition 2. Une intersection de sous-groupes d'un groupe G est un sous-groupe de
G.
Remarque 2. Le résultat est faux dans le cas d'une réunion (voir l'exercice 2).
Définition 3. Soit (G, ·) un groupe. On appelle centre de G, noté Z(G), l'ensemble des
éléments de G commutant avec tous les éléments de G. L'ensemble Z(G) est un sous-
groupe de G.
20 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX

Définition 4. Si G est un groupe ni, Card(G) s'appelle l'ordre de G.


 Théorème 1 (Lagrange). Soit G un groupe ni. L'ordre de tout sous-groupe H de G
divise l'ordre de G.
Démonstration. La relation x R y ⇐⇒ xy −1 ∈ H est une relation d'équivalence. Si on note ẋ la
classe de x ∈ G, on a ẋ = Hx = {zx, z ∈ H}. (En eet : y ∈ ẋ ⇐⇒ y R x ⇐⇒ yx−1 ∈ H ⇐⇒
y ∈ Hx).
Pour tout x ∈ G, l'application H → Hx y → yx est une bijection comme on le vérie
facilement, donc Card(Hx) = Card(H). Ainsi, les classes ont toutes Card(H) éléments. Les
classes d'équivalences formant une partition de G, on a donc Card(G) = n Card(H) où n =
Card(G/ R ) désigne le nombre de classes d'équivalence. 

Remarque 3.  Les classes utilisées dans la preuve du théorème (de la forme Hx) sont
appelées classes à droite suivant le sous-groupe H . On aurait aussi pu considérer
la relation d'équivalence dénie par x R y ⇐⇒ x−1 y ∈ H , dont les classes sont de
la forme xH et sont appelées classes à gauche suivant H .
 L'entier Card(G/ R ) est appelé indice de H dans G, et noté [G : H]. On a
Card(G) = [G : H] × Card(H).
Sous-groupes distingués.
Définition 5. Soit G un groupe. Un sous-groupe H de G est dit distingué (ou normal,
ou invariant) dans G si pour tout x ∈ G, xH = Hx.
Exemple 2.  Tout sous-groupe d'un groupe abélien G est distingué dans G.
 Le centre Z(G) d'un groupe G est distingué dans G. Plus généralement, tout sous-
groupe de Z(G) est un sous-groupe distingué dans G.
Remarque 4. Lorsque H est un sous-groupe distingué de G, on note parfois H  G. Il
faut prendre garde à cette notation qui n'est pas transitive. Autrement dit, si L  H et si
H  G, il est faux d'écrire L  G.
Le résultat qui suit est parfois un moyen pratique de montrer qu'un sous-groupe est
distingué.
Proposition 3. Soit G un groupe. Un sous-groupe H de G est distingué dans G si et
seulement si pour tout x ∈ G, xHx−1 ⊂ H .
Groupes quotient. Soit G un groupe. On recherche les relations d'équivalence R sur
G telles que G/R soit un groupe. Un moyen naturel de faire de G/R un groupe est de le
munir de la loi x · y = (xy) (la notation x désigne la classe de l'élément x). Encore faut-il
que (xy) ne dépende pas des représentants x et y des classes x et y , c'est-à-dire que si
x R x et y R y  , on veut (xy) R (x y  ). Si tel est le cas, on dit que R est compatible avec
la structure de groupe .
On montre que les relations d'équivalence compatibles avec la structure de groupe sont
les relations x R y ⇐⇒ xy −1 ∈ H , où H est un sous-groupe distingué de G (dans ce cas,
les classes à gauche suivant H coïncident avec les classes à droite suivant H ). Muni de la
loi quotient dénie plus haut, l'ensemble quotient G/R est alors un groupe appelé groupe
quotient et noté G/H . Si G est ni, on a Card(G) = Card(G/H) · Card(H).
Exemple 3. Si n est un entier naturel non nul, nZ est un sous-groupe du groupe additif
(Z, +). Ce dernier étant commutatif, on est même assuré du fait que nZ est un sous-groupe
distingué de Z. Ainsi, on peut dénir le groupe quotient Z/nZ (déni tel quel, Z/nZ ne
possède qu'une structure additive ; la structure d'anneau de Z/nZ n'est introduite que
lorsque l'on parle d'anneau quotient  voir l'exemple 3 de la partie 3.2).
2. GROUPES 21

Morphismes de groupes. Dans ce paragraphe, G et G désignent deux groupes, dont


les éléments neutres sont notés respectivement e et e .
Définition 6. Soit ϕ : G → G une application. On dit que ϕ est un morphisme de
groupes si pour tous x, y ∈ G, ϕ(xy) = ϕ(x)ϕ(y).
 Si ϕ est bijective, on dit que ϕ est un isomorphisme de groupes ; si de plus G = G,
on dit que ϕ est un automorphisme du groupe G.
 L'ensemble ϕ−1 ({e }) est appelé noyau de ϕ et noté Ker ϕ. Le morphisme ϕ est
injectif si et seulement si Ker ϕ = {e}.
Proposition 4. Soit ϕ : G → G un morphisme de groupes, H et H  deux sous-groupes
de G, G . Alors
 ϕ(H) est un sous-groupe de G , distingué si H est distingué dans G et si ϕ est
surjectif.
 ϕ−1 (H  ) est un sous-groupe de G, distingué dans G si H  est distingué dans G .
En particulier, {e } étant distingué dans G , Ker ϕ = ϕ−1 ({e }) est distingué dans G. De
plus, le groupe quotient G/ Ker ϕ est isomorphe à ϕ(G).
 Remarque 5. Ce dernier résultat est important. En particulier, si ϕ : G → G est un
morphisme surjectif, le groupe G est isomorphe à G/ Ker ϕ. Cet isomorphisme est souvent
utilisé lors de la résolution d'un exercice ou d'un problème sur les groupes.
Groupe des automorphismes intérieurs.
Définition 7. Soit G un groupe. Pour tout a ∈ G, l'application ϕa : G → G x → axa−1
est un automorphisme de G. L'ensemble A = {ϕa , a ∈ G}, muni de la loi de composition,
est un groupe (on a d'ailleurs ϕa ◦ ϕb = ϕab ), appelé groupe des automorphismes intérieurs
de G.
2.2. Génération d'un groupe
Dans toute cette partie, G désigne un groupe, dont l'élément neutre est noté e.
Définition 8. Soit A ⊂ G. Il existe un plus petit sous-groupe H de G contenant A,
qui est l'ensemble des éléments de G qui s'écrivent comme le produit d'éléments de A et
d'inverses d'éléments de A. On l'appelle sous-groupe engendré par A et on note H = A.
Lorsque l'ensemble A = {x1 , . . . , xn } est ni, on note aussi H = x1 , . . . , xn .
Exemple 4. Pour tout a ∈ G, a = {am | m ∈ Z}. Si deux éléments a et b de G
commutent, alors a, b = {am bn | (m, n) ∈ Z2 }.
Définition 9.  Un groupe G est dit monogène s'il existe a ∈ G tel que G = a.
Si de plus G est ni, on dit que G est cyclique.
 Un groupe G est dit de type ni s'il existe un nombre ni d'éléments a1 , . . . , an
de G tels que G = a1 , . . . , an . Un tel n-uplet (a1 , . . . , an ) est appelé système de
générateurs de G.
Remarque 6.  Tout groupe monogène est abélien.
 Pour tout entier naturel non nul n, (Z/nZ, +) est un groupe cyclique. De plus, tout
groupe cyclique à n éléments est isomorphe à (Z/nZ, +).
Définition 10. Un élément a de G est dit d'ordre p ∈ N∗ si a est ni d'ordre p.
L'ordre de a est aussi le plus petit entier naturel non nul p tel que ap = e, et on a
a = {e, a, . . . , ap−1 }.

 Théorème 2. Si G est ni d'ordre n, alors l'ordre de tout élément de G divise n. En


particulier, tout élément a de G vérie an = e.
22 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX

Théorème 3. Soit a un élément de G d'ordre p. On a l'équivalence ( aq = e) ⇐⇒


(p | q ).

Théorème 4. Si l'ordre de G est un nombre premier, le groupe G est cyclique, engendré


par tout élément diérent de l'élément neutre.

Proposition 5. Si G est cyclique d'ordre n, G = a, alors

( ak  = G ) ⇐⇒ ( k ∧ n = 1 ).
Démonstration. Comme G = a, l'assertion ak  = G est équivalente à l'existence d'un entier
v tel que akv = a. Ceci s'écrit aussi akv−1 = e, ou encore n | (kv − 1), c'est-à-dire ∃u, v ∈
Z | kv − 1 = un, ce qui équivaut d'après le théorème de Bezout à k ∧ n = 1. 

2.3. Groupe symétrique


Définition 11. Pour tout entier naturel n non nul, on note Sn le groupe des permutations
 1 2 ··· nLegroupe Sn est appelé groupe symétrique
de {1, . . . , n} (muni de la loi de composition).
d'indice n. Si s ∈ Sn , on note s = s(1) s(2) ··· s(n) .
Remarque 7. On a Card(Sn ) = n!.

Définition 12. Lorsque i = j , on appelle transposition sur i, j la permutation notée τi,j


permutant les éléments i et j :
 
1 ··· i − 1 i i + 1 ··· j − 1 j j + 1 ··· n
τi,j = .
1 ··· i − 1 j i + 1 ··· j − 1 i j + 1 ··· n
Théorème 5. Tout élément de Sn se décompose en produit de transpositions.

Définition 13. Si s ∈ Sn et a ∈ {1, . . . , n}, on appelle orbite de a suivant s l'ensemble


Os (a) = {sk (a), k ∈ Z}.
Définition 14. Soit γ ∈ Sn . On dit que γ est un cycle si parmi les Oγ (a), 1 ≤ a ≤ n, il
n'existe qu'une seule orbite non réduite à un élément. Autrement dit s'il existe p ≥ 2 et
a ∈ {1, . . . , n} tels que

Oγ (a) = {a, γ(a), . . . , γ p−1 (a)} et ∀x ∈ Oγ (a), γ(x) = x.

L'orbite Oγ (a) est appelé support du cycle, son cardinal la longueur du cycle, et on note
γ = (a, γ(a), . . . , γ p−1 (a)).
Exemple 5.  Une transposition
 1 2 3 4 est
 un cycle de longueur 2.
 Dans S5 , s = (1,
 3, 5) =
 3 2 5 4
5 est un cycle de support {1, 3, 5} et de longueur 3.
1
 L'élément s = 12 21 34 43 de S4 n'est pas un cycle (deux orbites, {1, 2} et {3, 4}).
Remarque 8.  Des cycles à supports disjoints commutent.
 L'ordre d'un cycle dans le groupe Sn est sa longueur.

 Théorème 6. Toute permutation s = Id se décompose de manière unique à l'ordre prés


en un produit de cycles dont les supports sont deux à deux disjoints.
1 2 3 4
 1 62.3 4 5 6 7  2 1 4 3 = (1, 2) · (3, 4) = (3, 4) · (1, 2).
Exemple
 2 6 5 1 3 4 7 = (1, 2, 6, 4) · (3, 5) · (7) = (3, 5) · (1, 2, 6, 4) · (7) = (3, 5) · (7) · (1, 2, 6, 4).
2. GROUPES 23

Signature d'une permutation.


Définition 15. Soit s ∈ Sn . On appelle signature de s le produit
 s(j) − s(i)
ε(s) = .
1≤i<j≤n
j−i
On a ε(s) ∈ {−1, 1}. Si ε(s) = 1 (resp. ε(s) = −1), s est dite paire (resp. impaire).
Proposition 6. Si s et t sont deux éléments de Sn alors ε(st) = ε(s)ε(t).
Remarque 9.  Une transposition est de signature −1.
 La proposition précédente exprime le fait que ε : Sn → {−1, 1} est un morphisme
de groupe. L'ensemble An = ε−1 ({1}) = Ker ε est un sous-groupe distingué de Sn ,
d'indice 2 : on a Card(An ) = n!/2 et An s'appelle le groupe alterné d'indice n.
Proposition 7. La signature d'un cycle de longueur p est (−1)p−1 .
Démonstration. Soit s = (a1 , a2 , · · · , ap ) un cycle de longueur p. Le cycle s peut se décomposer
sous la forme s = (a1 , ap ) · (a1 , ap−1 ) · · · (a1 , a3 ) · (a1 , a2 ), c'est le produit de p − 1 transpositions.
Une transposition étant de signature −1, on en déduit le résultat. 

2.4. Groupe opérant sur un ensemble


Dans cette partie, G désigne un groupe dont l'élément neutre est noté e, X un ensemble
quelconque.
Définition 16. On dit que G opère sur X s'il existe une application
G×X →X (s, x) → s · x
telle que
(i) ∀(s, t) ∈ G2 , ∀x ∈ X, s · (t · x) = (st) · x
(ii) ∀x ∈ X, e · x = x.
(Remarquer l'analogie avec un espace vectoriel sur un corps K.)
Exemple 7.  Le groupe G opère sur lui même par l'application
G×G→G (s, x) → sx.
 Le groupe des permutations S d'un ensemble X opère sur X par l'application
S×X →X (s, x) → s(x).
Équivalence d'intransitivité. Dans ce paragraphe, G est un groupe opérant sur un
ensemble X .
Définition 17. La relation sur X dénie par
xT y ⇐⇒ ∃s ∈ G, y = s · x
est une relation d'équivalence, appelée relation d'intransitivité. La classe d'équivalence
d'un élément x de X est Gx = {s · x | s ∈ G}, on l'appelle classe d'intransitivité (ou
orbite, ou trajectoire) de x.
Définition 18. Le stabilisateur d'un élément x de X est le sous-ensemble de G déni
par Sx = {s ∈ G | s · x = x}.
Proposition 8. Pour tout élément x de X , Sx est un sous-groupe de G.
Démonstration. L'ensemble Sx n'est pas vide car e ∈ Sx . Par ailleurs, pour tout s, t ∈ G on a
t · x = x donc x = t−1 · (t · x) = t−1 · x. Ainsi, (st−1 ) · x = s · (t−1 · x) = s · x = x, d'où st−1 ∈ Sx .

24 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX

Théorème 7. Si G est ni, pour tout x ∈ X on a Card(G) = Card(Gx ) · Card(Sx ).


Démonstration. On xe x. Soit Rx la relation d'équivalence sur G dénie par : s Rx t ⇐⇒
s · x = t · x. On a s Rx t ⇐⇒ (t−1 s) · x = x ⇐⇒ t−1 s ∈ Sx ⇐⇒ s ∈ tSx . Les classes
d'équivalences sont donc de la forme tSx , t ∈ G, ce qui montre qu'elles sont toutes de cardinal
Card(Sx ). Il y a autant de classes d'équivalences que de valeurs prises par s · x, s ∈ G, c'est-à-dire
qu'il y a Card(Gx ) classes d'équivalence. Donc Card(G) = Card(Gx ) · Card(Sx ). 

Corollaire 1 (Équation aux classes). Si X et G sont nis, en désignant par Θ une


partie de X contenant exactement un représentant de chacune des classes d'intransitivité,
on a
  Card(G)
Card(X) = Card(Gx ) = .
x∈Θ x∈Θ
Card(Sx )
Application aux automorphismes intérieurs.
Théorème 8. Soit G un groupe ni. Il existe une famille nie de sous-groupes stricts de
G ( i. e. = {e} et = G) (Hi )i∈I telle que
 Card(G)
Card(G) = Card(Z(G)) +
i∈I
Card(Hi )

où Z(G) désigne le centre du groupe G.


Démonstration. Faisons opérer G sur lui même par les automorphismes intérieurs : G × G →
G, (s, x) → ϕs (x) = sxs−1 . Si x ∈ G, on a Gx = {sxs−1 | s ∈ G} et Sx = {s ∈ G | sx = xs}
(dans ce cas, Sx est aussi appelé centralisateur ou normalisateur de x). D'après le corollaire
précédent il existe Θ ⊂ G tel que
 Card(G)
Card(G) = .
Card(Sx )
x∈Θ

Or Sx = G ⇐⇒ ∀s ∈ G, sx = xs ⇐⇒ x ∈ Z(G). En notant Θ = Θ  Z(G), on a donc


 Card(G)  Card(G)  Card(G)
Card(G) = + = Card(Z(G)) + ,
Card(Sx ) 
Card(Sx ) 
Card(Sx )
x∈Z(G) x∈Θ x∈Θ

d'où le théorème car les (Sx )x∈Θ constituent une famille nie de sous-groupes stricts de G (ce
sont des sous-groupes d'après la proposition 8, diérents de G car x ∈ Z(G), diérents de {e}
car {e, x} ⊂ Gx ). 

Remarque 10. Ce dernier résultat est très puissant car il permet d'avoir des renseignements
sur Card(Z(G)) connaissant a priori la forme des ordres des sous-groupes de G (voir
l'exercice 11 page 29, le problème 9 page 44 et le problème 11 page 45). Cependant, cette
formule n'est pas au programme de mathématiques spéciales et il faut au besoin savoir la
redémontrer.
2.5. Exercices
Exercice 1. Soit G un groupe quelconque, soient x, y ∈ G. On suppose que xy est
d'ordre ni p dans G. Montrer que yx est également ni d'ordre p.
Solution. Si x et y commutent, c'est bien sûr évident. Plaçons nous maintenant dans le cas
général. On commence par remarquer que pour tout n ∈ N∗ ,
(xy)n = (xy) · · · (xy) = x (yx) · · · (yx) y = x(yx)n−1 y.
     
n termes n−1 termes
2. GROUPES 25

Ainsi, en désignant par e l'élément neutre de G, on a


(xy)n = e ⇐⇒ x(yx)n−1 y = e ⇐⇒ yx(yx)n−1 y = y ⇐⇒ (yx)n = e
ce qui prouve que les ordres de xy et de yx sont identiques.

Exercice 2. Soient G un groupe et H1 , H2 deux sous-groupes de G.


a) On suppose que H1 ∪ H2 est un sous-groupe de G. Montrer que H1 ⊂ H2 ou H2 ⊂ H1 .
b) Si les ordres de H1 et H2 sont nis et premiers entre eux, que dire de H1 ∩ H2 ?
Solution. a) Raisonnons par l'absurde. Si H1 ⊂ H2 et H2 ⊂ H1 , il existe x1 ∈ H1 , x1 ∈ H2 et
il existe x2 ∈ H2 , x2 ∈ H1 . Comme H1 ∪ H2 est un sous-groupe, le produit x1 x2 appartient à
H1 ∪ H2 . Si x1 x2 ∈ H1 , alors x2 = x−1
1 (x1 x2 ) ∈ H1 , ce qui est absurde. De même, on parvient à
une absurdité en supposant x1 x2 ∈ H2 . D'où le résultat.
b) On sait que H1 ∩ H2 est un sous-groupe de H1 et H2 . Ainsi, l'ordre de H1 ∩ H2 divise l'ordre
de H1 et l'ordre de H2 , et vaut donc 1. Finalement, en désignant par e l'élément neutre de G,
on a H1 ∩ H2 = {e}.

Exercice 3. Soient G un groupe et H1 , H2 deux sous-groupes de G. On pose H1 H2 =


{xy | x ∈ H1 , y ∈ H2 }.
a) A quelle condition nécessaire et susante H1 H2 est-il un sous-groupe de G ?
b) Si H1 et H2 sont nis et si H1 ∩H2 = {e} (où e désigne l'élément neutre de G), montrer
Card(H1 H2 ) = Card(H1 ) · Card(H2 ).
c) On suppose G abélien, H1 et H2 d'ordres nis p et q, où p et q sont deux nombres
premiers distincts. Montrer que H1 H2 est un sous-groupe cyclique de G.
Solution. a) Nous allons montrer que H1 H2 est un sous-groupe de G si et seulement si H1 H2 =
H2 H 1 .
Condition nécessaire. Soit a ∈ H1 H2 . Alors a−1 ∈ H1 H2 autrement dit ∃(x, y) ∈ H1 × H2 , a−1 =
xy . Ainsi a = y −1 x−1 , d'où a ∈ H2 H1 . Donc H1 H2 ⊂ H2 H1 .
Il reste à montrer l'inclusion réciproque. Soit a = yx ∈ H2 H1 avec x ∈ H1 et y ∈ H2 . Comme
a−1 = x−1 y −1 ∈ H1 H2 , on a a ∈ H1 H2 car H1 H2 est un sous-groupe. Ainsi, H2 H1 ⊂ H1 H2 .
Condition susante. Bien sûr, H1 H2 = ∅. Soient a, b ∈ H1 H2 . Il s'agit de montrer ab−1 ∈ H1 H2 .
Écrivons a = a1 a2 et b = b1 b2 , avec a1 , b1 ∈ H1 et a2 , b2 ∈ H2 . On a ab−1 = a1 a2 b−1 −1
2 b1 = a1 yx
avec y = a2 b2 ∈ H2 et x = b1 ∈ H1 . Comme H1 H2 = H2 H1 , il existe (x , y ) ∈ H1 × H2 tel
−1 −1  

que yx = x y  . Donc ab−1 = a1 x y  = (a1 x )(y  ) ∈ H1 H2 , d'où le résultat.


b) Considérons l'application
ϕ : H1 × H2 → H1 H2 (x1 , x2 ) → x1 x2 .
Elle est surjective (par construction de l'ensemble d'arrivée H1 H2 ), et injective car si ϕ(x1 , x2 ) =
ϕ(y1 , y2 ), alors x1 x2 = y1 y2 donc y1−1 x1 = y2 x−1
2 , d'où y1 x1 ∈ H1 ∩ H2 = {e}, donc x1 = y1 et
−1

donc x2 = y2 . Finalement, ϕ est une bijection, donc Card(H1 ) · Card(H2 ) = Card(H1 H2 ).


c) Le groupe G étant ici abélien, on a H1 H2 = H2 H1 donc H1 H2 est un sous-groupe de G d'après
a). Par ailleurs, on a Card(H1 H2 ) = pq d'après b) car H1 ∩ H2 = {e} (voir l'exercice précédent,
question b)).
Les sous-groupes H1 et H2 sont cycliques car leur ordre est un nombre premier. Soient x ∈ H1
et y ∈ H2 tels que H1 = x et H2 = y. Montrons que H1 H2 = xy. Il s'agit de prouver que
l'élément xy est d'ordre pq = Card(H1 H2 ). Le fait que (xy)n = e entraîne xn = (y −1 )n . Or
H1 ∩ H2 = {e}, donc xn = (y −1 )n = e, donc p | n et q | n, et p et q étant premiers entre eux
(car premiers et distincts), pq | n. Donc l'ordre de xy est supérieur à pq et comme il est toujours
inférieur à Card(H1 H2 ) = pq , son ordre est bien pq .
26 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX

Exercice 4. Soient G1 , . . . , Gn des groupes cycliques d'ordres respectifs α1 , . . . , αn . Don-


ner une condition nécessaire et susante portant sur les αi pour que le groupe G =
G1 × · · · × Gn soit cyclique.
Solution. Commençons par montrer le résultat suivant :
Lemme. Pour tout i, soit xi un élément de Gi d'ordre βi . Alors x = (x1 , . . . , xn ) est d'ordre
ppcm (β1 , . . . , βn ) dans G1 × · · · × Gn .
Preuve. Pour 1 ≤ i ≤ n, notons ei l'élément neutre de Gi , de sorte que e = (e1 , . . . , en ) est
l'élément neutre de G. On a : (xp = e) ⇐⇒ (∀i, xpi = ei ) ⇐⇒ (∀i, βi | p). Le plus petit entier
naturel non nul p tel que xp = e est donc le plus petit multiple communs aux βi , d'où le lemme.
Montrons maintenant la condition nécessaire et susante :
Le groupe G est cyclique si et seulement si les αi sont premiers entre eux deux
à deux.
Condition nécessaire. Soit x = (x1 , . . . , xn ) engendrant G. Il est clair que pour tout i, xi engendre
Gi , donc est d'ordre αi . D'après le lemme, l'ordre de x est ppcm (α1 , . . . , αn ). Comme x engendre
G, son ordre est aussi Card(G) = α1 · · · αn . Donc ppcm(α1 , . . . , αn ) = α1 · · · αn , ce qui entraîne
que les αi sont premiers entre eux deux à deux.
Condition susante. Pour tout i, considérons xi ∈ Gi d'ordre αi (xi existe puisque Gi est cy-
clique par hypothèse). D'après le lemme, x = (x1 , . . . , xn ) est d'ordre ppcm (α1 , . . . , αn ) dans
G, et ce dernier terme égale α1 · · · αn = Card(G) puisque les αi sont premiers entre eux deux à
deux. Finalement, G = x est cyclique.

Exercice 5. Soit G un groupe, e son élément neutre. On suppose que tout élément x de
G vérie x2 = e.
a) Montrer que G est un groupe abélien.
b) Si G est ni et si G = {e}, montrer qu'il existe un entier n tel que G soit isomorphe
au groupe [(Z/2Z)n , +].
Solution. a) Si x ∈ G l'égalité x2 = e s'écrit aussi x = x−1 . Si x et y sont dans G, on a donc
xy = (xy)−1 = y −1 x−1 = yx.
b) Soit (x1 , . . . , xn ) un système de générateurs minimal de G (il en existe car G est ni). Si α̇ = β̇
dans Z/2Z, alors 2 | α − β donc pour x ∈ G, xα = xβ . Ceci permet d'armer que l'application
ϕ : [(Z/2Z)n , +] → G (α˙1 , . . . , α˙n ) → xα1 1 · · · xαnn
est bien dénie. Le groupe G étant abélien, ϕ est un morphisme de groupe, et il est surjectif
par dénition d'un système de générateurs. Montrons que ϕ est injectif. Soit (α˙1 , . . . , α˙n ) ∈
αn−1
Ker ϕ. S'il existe i tel que α̇i = 1̇, par exemple α˙n = 1̇, l'égalité xα1 1 · · · xn−1 xn = e entraîne
α
xn = xn = x1 · · · xn−1 . Donc (x1 , . . . , xn−1 ) est un système de générateurs, ce qui est absurde
−1 α 1 n−1

puisque (x1 , . . . , xn ) est un système de générateurs minimal. Finalement Ker ϕ = {(0̇, . . . , 0̇)} et
ϕ est injectif. C'est un isomorphisme.

Exercice 6. Soit n ∈ N∗ , n ≥ 2. Montrer que tout élément du groupe des permutations


Sn s'écrit comme le produit de transpositions de la forme (i, i + 1) avec 1 ≤ i ≤ n − 1.

Solution. Soit P le sous-ensemble des permutations de Sn qui s'écrivent comme le produit de


transpositions de la forme (i, i + 1). Soient i et j deux entiers vériant 1 ≤ i < j ≤ n. Le cycle
(i, i + 1, . . . , j) s'écrit sous la forme
(i, i + 1, . . . , j) = (i, i + 1)(i + 1, i + 2) · · · (j − 1, j)
2. GROUPES 27

donc (i, i + 1, . . . , j) ∈ P . De même,


(j, j − 1, . . . , i) = (j − 1, j) · · · (i + 1, i + 2)(i, i + 1) ∈ P.
Or lorsque 1 ≤ i < j ≤ n, on a
(i, j) = (j, j − 1, . . . , i + 1)(i, i + 1, . . . , j)
donc toute transposition appartient à P . Comme toute permutation peut s'écrire sous forme d'un
produit de transpositions, on en déduit P = Sn .

Exercice 7. On rappelle que le groupe alterné An d'indice n est le sous-groupe de


Sn constitué des permutations paires. Si n ≥ 3, montrer que les cycles de longueur 3
engendrent An .
Solution. Puisque tout élément de Sn peut s'écrire comme un produit de transpositions et qu'une
transposition est de signature −1, An est aussi l'ensemble des produits pairs de transpositions.
Appelons A n le sous-groupe de Sn engendré par les cycles de longueur 3. On a A n ⊂ An car
un cycle de longueur 3 est de signature 1 (voir la proposition 7). Montrons maintenant An ⊂ A n .
D'après la remarque précédente, il sut de prouver que le produit de deux transpositions est
dans A n . Ceci est vrai car :
 Si i, j, k, l sont distincts deux à deux, (i, j)(k, l) = (i, j, k)(j, k, l)
 Si i, j, k sont distincts deux à deux, (i, j)(i, k) = (i, k, j).
 Si i = j , (i, j)(j, i) = Id.

Exercice 8. On rappelle que si G est un groupe ni et H un sous-groupe de G, l'indice


de H dans G est l'entier [G : H] = Card(H)
Card(G)
.
Soit p ≥ 5 un nombre premier. Si H est un sous-groupe du groupe symétrique Sp tel
que [Sp : H] ≤ p − 1, montrer que [Sp : H] ∈ {1, 2}. (Indications : Montrer que H contient
tous les cycles de longueur p puis utiliser le résultat de l'exercice précédent.)
Solution. Montrons d'abord que H contient tous les cycles de longueur p. Soit γ ∈ Sp un cycle de
longueur p. Pour tout entier i, l'ensemble γ i H est de cardinal Card(H). Comme H est d'indice
≤ p−1 dans Sp , les ensembles H, γH, . . . , γ p−1 H ne peuvent pas être deux à deux disjoints (sinon

Card(Sp ) ≥ p−1i=0 Card(γ H) = p·Card(H)). Donc il existe deux entiers i et j , 0 ≤ i < j ≤ p−1,
i

tels que γ H ∩ γ H = ∅. On en déduit facilement γ j−i ∈ H . Or 1 ≤ j − i < p donc γ j−i engendre


i j

le sous-groupe γ d'ordre p (voir le théorème 4 page 22), ce qui entraîne γ ∈ γ j−i  ⊂ H .
 Montrons maintenant que H contient tous les cycles d'ordre 3. Comme p > 3, il sut de
remarquer que H contenant tous les cycles d'ordre p, on a
(i, j, k) = (k, j, i, a1 , a2 , . . . , ap−3 )(i, k, j, ap−3 , . . . , a2 , a1 ) ∈ H.

 D'après le résultat de l'exercice précédent, H contient donc Ap , le groupe alterné d'indice


d'indice p. Donc Card(H) ≥ Card(Ap ) = 12 Card(Sp ), d'où [Sp : H] ∈ {1, 2}.
Remarque. Ce résultat appliqué avec p = 5 montre qu'il n'existe pas de sous-groupe de
S5 d'ordre 30 ou 40, bien que Card(S5 ) = 120. Ainsi, un entier peut diviser l'ordre d'un
groupe ni sans qu'il n'existe de sous-groupe d'ordre cet entier.

Exercice 9. Soit G un groupe ni d'ordre pair 2n (n ∈ N∗ ).


a) Soit H un sous-groupe de G d'ordre n. Montrer que H est distingué dans G.
28 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX

b) On suppose qu'il existe deux sous-groupes H1 et H2 de G d'ordre n et tels que H1 ∩H2 =


{e}, où e désigne l'élément neutre de G. Montrer que n = 1 ou n = 2.
c) On suppose qu'il existe deux sous-groupes H1 et H2 de G, distincts et tout deux d'ordre
n. Montrer que H = H1 ∩ H2 est un sous-groupe distingué dans G. En déduire que l'ordre
de G est un multiple de 4.

Solution. a) Il s'agit de montrer : xH = Hx pour tout x ∈ G.


 Si x ∈ H , on a xH = Hx = H .
 Si x ∈ H , xH ∩ H = ∅ (en eet, si y ∈ xH ∩ H , il existe a ∈ H tel que y = xa donc
x = ya−1 ∈ H , absurde), c'est-à-dire xH ⊂ G  H . Or xH et G  H sont de cardinal n,
donc xH = G  H . On montrerait de même que Hx = G  H , donc xH = Hx.
b) Comme Card(H1 ∪ H2 ) = Card(H1 ) + Card(H2 ) − Card(H1 ∩ H2 ) = 2n − 1, il existe α ∈ G,
α ∈ H1 , α ∈ H2 , tel que G = H1 ∪ H2 ∪ {α}.
Si n = 1, c'est terminé. Sinon n ≥ 2. On remarque alors que

∀(x, y) ∈ (H1  {e}) × (H2  {e}), xy = α.

(En eet. Si xy ∈ H1 , alors y ∈ x−1 H1 = H1 donc y ∈ H1 ∩ H2 = {e}, donc y = e, ce qui est


absurde ; de même, xy ∈ H2 .) Ceci n'est possible que si Card(H1  {e}) = Card(H2  {e}) = 1,
c'est-à-dire n = 2. D'où le résultat.
c) D'après a), H1 et H2 sont distingués dans G donc pour tout x ∈ G, xH = xH1 ∩ xH2 =
H1 x ∩ H2 x = Hx, ce qui prouve que H est distingué dans G.
Notons π la surjection canonique de G dans le groupe quotient G/H . Comme H est un sous-
groupe de H1 , π(H1 ) = H1 /H est de cardinal Card(H
Card(H) = Card(H) . De même, π(H2 ) = H2 /H
1) n

est de cardinal Card(H) . Or (H1 /H) ∩ (H2 /H) = (H1 ∩ H2 )/H est réduit à l'élément neutre de
n

G/H . Le groupe quotient G/H étant d'ordre Card(H) 2n


, on peut appliquer b) à G/H , H1 /H et
H2 /H ce qui donne Card(H) ∈ {1, 2}. Comme H1 = H2 , on a Card(H) = Card(H1 ∩ H2 ) < n
n

donc Card(H)
n
= 2. Finalement, Card(G) = 2n = 4 Card(H), d'où le résultat.

Exercice 10 (Exposant d'un groupe abélien fini). Soit G un groupe abélien ni.
a) Si x, y sont deux éléments de G d'ordres respectifs m et n, avec m ∧ n = 1, quel est
l'ordre de xy ?
b) On appelle exposant de G le plus grand des ordres des éléments de G et on le note r.
Montrer que r divise Card(G) et que si x ∈ G, l'ordre de x divise r.
c) Montrer que r a les mêmes facteurs premiers que Card(G). En déduire que pour tout
facteur premier p de Card(G), il existe un élément de G d'ordre p.

Solution. a) Si (xy)p = e alors xp = (y −1 )p donc xp ∈ y, d'où (xp )n = xpn = e, donc m | pn.
Or m ∧ n = 1 donc d'après le théorème de Gauss, m | p. De même n | p et les entiers m et n
étant premiers entre eux, mn | p. Or (xy)mn = (xm )n (y n )m = e, l'ordre de xy est donc mn.
b) Par dénition de r, il existe un élément x de G d'ordre r et on a r | Card(G) d'après le
théorème 2 page 21.
Soit y ∈ G, q son ordre. Il s'agit de montrer que q | r. Supposons q  r. En écrivant la
décomposition en facteurs premiers de q et r, on voit qu'il existe un nombre premier p vériant

q = pα q 
avec α > β ≥ 0 et p ∧ q  = p ∧ r = 1.
r = pβ r

Or a = xp est d'ordre r et b = y q est d'ordre pα . D'après a), ab est donc d'ordre r pα > r, ce
β

qui contredit la dénition de r. Donc q | r.


2. GROUPES 29

c) Soit (x1 , . . . , xn ) un système de générateurs de G. Notons r1 , . . . , rn les ordres de x1 , . . . , xn .


Considérons l'application
ϕ : x1  × · · · × xn  → G (y1 , . . . , yn ) → y1 · · · yn .
Le groupe G étant abélien, ϕ est un morphisme de groupes. De plus, ϕ est surjectif (puisque
(x1 , . . . , xn ) est un système de générateurs de G), donc G est isomorphe au groupe quotient
(x1  × · · · × xn )/ Ker ϕ, donc
Card(G) × Card(Ker ϕ) = Card(x1  × · · · × xn ) = r1 · · · rn ,
donc Card(G) | r1 · · · rn . Or tous les ri divisent r d'après b), donc Card(G) | rn . On en déduit
que tout facteur premier p de Card(G) divise r.
Soit p un facteur premier de Card(G). On vient de prouver que p | r donc on peut écrire

r = pr avec r entier. Si on choisit un élément x de G d'ordre r, l'élément xr est d'ordre p, d'où
le résultat.
Remarque. Les résultats de cet exercice permettent de montrer que si K est un corps
commutatif et G un sous-groupe ni du groupe multiplicatif (K∗ , ×), alors G est cyclique.
En eet. Soit r l'exposant de G. K étant un corps commutatif, l'équation xr = 1 a au plus
r solutions dans K, donc au plus r solutions dans G. Or ∀x ∈ G, xr = 1 d'après b). On
en déduit Card(G) ≤ r, et comme r | Card(G), on a r = Card(G) et le résultat annoncé.
 Ce dernier résultat est également une conséquence du problème 7 page 42.
 En l'appliquant au corps Z/pZ (où p est un nombre premier), on démontre que le groupe
multiplicatif (Z/pZ)∗ est cyclique, résultat non évident a priori.

Exercice 11 (Les p-groupes). Soit p un nombre premier et G un groupe ni d'ordre


pα avec α ∈ N∗ (on dit que G est un p-groupe).
a) Montrer que Z(G), le centre de G, est diérent de {e}, où e désigne l'élément neutre
de G. (On pourra utiliser l'équation aux classes  voir le théorème 8 page 24).
b) Que dire si α = 1 ? si α = 2 ?
c) Montrer que pour tout entier m, 0 ≤ m ≤ α, il existe un sous-groupe de G d'ordre pm .
Solution. a) D'après le théorème 8, il existe une famille nie (Hi )i∈I de sous-groupes stricts de
G telle que
 Card(G)
Card(G) = Card(Z(G)) + . (∗)
Card(Hi )
i∈I
Pour tout i ∈ I , Hi est un sous-groupe strict de G donc d'après le théorème de Lagrange, son
ordre divise Card(G) = pα , de sorte qu'il existe un entier βi , 1 ≤ βi < α, tel que Card(Hi ) = pβi .
Donc pour tout i ∈ I , p divise Card(H
Card(G)
i)
= pα−βi . Or p | Card(G) donc d'après (∗), p | Card(Z(G)).
Comme de plus Card(Z(G)) ≥ 1 car e ∈ Z(G), ceci entraîne Card(Z(G)) ≥ p.
b) Si α = 1, G est cyclique d'après le théorème 4.
Si α = 2, comme Z(G) est un sous-groupe de G, diérent de {e} d'après a), on a forcément
Card(Z(G)) ∈ {p, p2 }. Nous allons montrer que Z(G) = G en raisonnant par l'absurde. Sup-
posons Card(Z(G)) = p. Soit x ∈ G, x ∈ Z(G). L'ensemble Sx = {u ∈ G | ux = xu} (appelé
normalisateur de x) est un sous-groupe de G. Or x ∈ Sx et Z(G) ⊂ Sx , donc Card(Sx ) ≥ p + 1.
Comme Card(Sx ) | p2 = Card(G), ceci entraîne Card(Sx ) = p2 donc Sx = G, et par dénition
de Sx , on a x ∈ Z(G), ce qui est contradictoire. Finalement Card(Z(G)) = p2 , c'est-à-dire G est
abélien.
c) Nous allons montrer ce résultat par récurrence sur α ∈ N∗ . (Le principe est de considérer le
quotient par un sous-groupe distingué d'ordre p pour se ramener à l'hypothèse de récurrence).
 Si α = 1, le résultat est évident.
30 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX

 Supposons le résultat vrai pour α, montrons le pour α + 1. Soit m, 0 ≤ m ≤ α + 1. Si m = 0,


{e} est un sous-groupe d'ordre pm et le résultat est montré. Sinon, supposons m ≥ 1. D'après a),
Z(G) est diérent de {e}. Soit x ∈ Z(G), x = e. L'ordre de x divisant pα+1 , il est de la forme pβ
avec β ≥ 1. Donc y = xp est d'ordre p, et le groupe H = y est d'ordre p. Par ailleurs, c'est
β−1

un sous-groupe de Z(G) et il est donc distingué dans G. Le groupe quotient G/H est d'ordre pα
et d'après l'hypothèse de récurrence, il existe un sous-groupe K de G/H d'ordre pm−1 . Soit π la
surjection canonique de G dans G/H et considérons F = π −1 (K). Comme π est un morphisme de
groupes, F est un sous-groupe de G, et par ailleurs K = π(F ) est isomorphe à F/ Ker π = F/H
ce qui entraîne Card(F ) = Card(K) × Card(H) = pm . D'où le résultat.
Remarque. Ce résultat est un cas particulier du théorème de Sylow (voir le problème 9
page 44).

Exercice 12 (Un théorème de Cauchy sur les groupes finis). On suppose que
la théorie des groupes opérant sur un ensemble est connue (voir la partie 2.4).
Soit G un groupe ni (non forcément abélien) d'ordre h, et soit p un nombre premier
divisant h. On note

S = {(a1 , . . . , ap ) ∈ Gp | a1 · · · ap = e},

où e désigne l'élément neutre de G, et on note γ le cycle (1, 2, . . . , p) ∈ Sp .


a) On fait opérer γ sur S en posant

∀k ∈ Z, γ k (a1 , . . . , ap ) = (aγ k (1) , . . . , aγ k (p) ).

Déterminer le cardinal des orbites.


b) (Théorème de Cauchy). Démontrer que le nombre de solutions dans G de l'équation
xp = e est un multiple de p.
En déduire qu'il existe au moins un élément d'ordre p dans G.

Solution. a) Pour tout x ∈ S , on note Gx l'orbite de x et Sx son stabilisateur. On sait que l'on
a p = Card(γ) = Card(Gx ) × Card(Sx ), et p étant premier, Card(Gx ) = 1 ou Card(Gx ) = p.
b) L'application f : S → Gp−1 (a1 , . . . , ap ) → (a1 , . . . , ap−1 ) est bijective puisque chaque élé-
ment (a1 , . . . , ap−1 ) de Gp−1 a un unique antécédent par f qui est (a1 , . . . , ap−1 , (a1 · · · ap−1 )−1 ).
Donc Card(S) = Card(Gp−1 ) = hp−1 .
Soit Θ une partie de S contenant exactement un représentant de chaque orbite Gx . Soit
A = {x ∈ S | Card(Gx ) = 1}. Soit Θ = Θ  A. D'après a), ∀x ∈ Θ , Card(Gx ) = p. Or
 
hp−1 = Card(S) = Card(Gx ) = Card(A) + Card(Gx ).
x∈Θ x∈Θ

Comme de plus p | h, on en déduit que p | Card(A) = hp−1 − p Card(Θ ). Par dénition de A,


A est l'ensemble des p-uplets (x, . . . , x) tels que xp = e. Le nombre Card(A) représente donc le
nombre de solutions de xp = e, et comme p | Card(A), on en déduit le théorème de Cauchy.
On a ep = e, ce qui entraîne Card(A) ≥ 1, et comme p | Card(A), Card(A) ≥ p. Donc il
existe x ∈ G, x = e tel que xp = e. Le nombre p étant premier, x est d'ordre p.
Remarque. Ce résultat entraîne que lorsqu'un nombre premier p divise l'ordre d'un groupe,
il existe un sous-groupe de cardinal p. On savait que c'était déjà vrai dans le cas d'un
groupe abélien (voir l'exercice 10). Le problème 9 page 44 généralise ce dernier résultat.
3. ANNEAUX 31

3. Anneaux
3.1. Dénitions
Définition 1. Soit A un ensemble muni de deux lois internes notées  + et  ·. On dit
que (A, +, ·) est un anneau si :
(i) (A, +) est un groupe abélien,
(ii) la loi · est associative,
(iii) le loi · est distributive par rapport à la loi +.
Si la loi · admet un élément neutre, on parle d'anneau unitaire ; si la loi · est commutative,
on parle d'anneau commutatif ; un élément de A est dit inversible s'il l'est pour la loi ·.
Notation. Le neutre de la loi + est souvent noté 0, celui de la loi · est noté 1 (ou e).
Dans toute la suite, (A, +, ·) désigne un anneau.
Définition 2. Un élément a de A est dit diviseur de 0 à droite (resp. à gauche) si a = 0
et s'il existe b = 0 tel que ab = 0 (resp. ba = 0).
Définition 3. Un anneau A est dit intègre s'il est sans diviseur de zéro, autrement dit
si (a = 0, b = 0 =⇒ ab = 0).
Définition 4. Un élément a ∈ A est dit nilpotent s'il existe un entier naturel non nul n
tel que an = 0. L'indice (ou l'ordre) de nilpotence de a est le plus petit entier naturel non
nul n tel que an = 0.
Définition 5. Un sous-ensemble B de A est dit un sous-anneau de A si (B, +, ·) est un
anneau.
Exemple 1.  Z est un anneau unitaire intègre.
 Z/8Z est un anneau non intègre ( 2̇ · 4̇ = 0̇), dans lequel 2̇ est nilpotent d'indice 3.
 L'ensemble des matrices carrées Mn (R), muni des opérations classiques d'addition
et de multiplication de matrices, est un anneau unitaire non intègre.
3.2. Idéaux
Définition 6. Soit I ⊂ A. On dit que I est un idéal de l'anneau A si
(i) (I, +) est un sous-groupe de (A, +),
(ii) ∀(x, a) ∈ I × A, ax ∈ I et xa ∈ I .
Remarque 1.  Un idéal est un sous-anneau.
 La notion d'idéal est en quelque sorte l'analogue pour les anneaux de la notion de
sous-groupe distingué. En revanche, la notion de sous-anneau est beaucoup moins
utilisée que la notion de sous-groupe.
 Si A est commutatif et si x ∈ A, l'ensemble xA = {xa, a ∈ A} est un idéal de A.
 Si A est unitaire et si 1 ∈ I où I est un idéal de A, la propriété (ii) d'un idéal
entraîne que I = A. Si un idéal I de A possède un élément inversible x de A, alors
1 = x−1 x ∈ I d'après (ii) et donc I = A.
 Lorsque I ⊂ A vérie (i) et vérie seulement ax ∈ I (resp. xa ∈ I ) pour tout
(x, a) ∈ I × A, on dit que I est un idéal à gauche (resp. à droite) de A. Si I est à
la fois idéal à gauche et idéal à droite de A, I est donc un idéal de A (on précise
parfois en disant que I est un idéal bilatère).
Proposition 1. Une intersection d'idéaux de A est un idéal de A. Une somme nie
d'idéaux de A est un idéal de A.
32 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX

Définition 7. Soit (A, +, ·) un anneau commutatif. Un idéal I de A est dit principal s'il
existe x ∈ A tel que I = xA. On note alors I = (x) et on dit que I est engendré par x.
L'anneau A est dit principal s'il est commutatif, unitaire, intègre et si tous les idéaux
de A sont principaux.
Exemple 2. Les anneaux Z et R[X] sont principaux.
Anneaux quotients. Comme pour les groupes, on peut dénir la notion de quotient sur
les anneaux. Étant donnée une relation d'équivalence R sur A, on cherche à faire de A/R
un anneau en le munissant des lois x + y = x + y et x · y = x · y (où x désigne la classe
de x). Si ces lois sont bien dénies (c'est-à-dire que x + y et xy ne dépendent pas des
représentants choisis de x et y ), on dit que R est compatible avec la structure d'anneau.
On montre que les relations d'équivalence compatibles avec la structure d'anneau sont de
la forme x R y ⇐⇒ x − y ∈ I , où I est un idéal de A. Si tel est le cas, A/R est un
anneau (muni des lois dénies plus haut) appelé anneau quotient et noté A/I .
Exemple 3. Pour tout entier n > 0, nZ est un idéal de Z et on peut dénir l'anneau
quotient Z/nZ.
Morphismes d'anneaux.
Définition 8. Soient A et A deux anneaux. On appelle morphisme d'anneaux de A dans
A toute application f : A → A telle que f (x+y) = f (x)+f (y) et f (xy) = f (x)f (y) pour
tous x, y ∈ A. Lorsque f est bijective, on parle d' isomorphisme d'anneaux. L'ensemble
noté Ker f = f −1 ({0}) est appelé noyau de f . C'est un idéal de A qui vérie : (f est
injective ⇐⇒ Ker f = {0}).
Proposition 2. Soient A et A deux anneaux et f : A → A un morphisme d'anneaux.
 Si I est un idéal de A et si f est surjectif, alors f (I) est un idéal de A .
 Si I  est un idéal de A , f −1 (I  ) est un idéal de A.
 L'image et l'image réciproque par f d'un sous-anneau est un sous-anneau.
 Le sous-anneau f (A) est isomorphe à l'anneau quotient A/ Ker f .
Remarque 2. La dernière assertion de la proposition est importante. C'est souvent le
moyen le plus pratique pour montrer qu'un anneau est isomorphe à un anneau quotient.
Caractéristique d'un anneau.
Définition 9. Soit A un anneau unitaire dont l'élément neutre pour la loi · est noté e.
Soit le morphisme d'anneaux f : Z → A n → ne.
 Si Ker f = {0}, (i. e. ne = 0 =⇒ n = 0), on dit que A est caractéristique 0.
 Si Ker f = {0}, alors Ker f étant un idéal de l'anneau principal Z, il existe un
unique entier naturel non nul c tel que Ker f = cZ. L'image f (Z) est isomorphe à
Z/cZ. L'entier c est aussi le plus petit entier > 0 tel que ce = 0. On dit alors que
A est de caractéristique c. On a d'ailleurs ne = 0 ⇐⇒ c | n.
Proposition 3. La caractéristique d'un anneau unitaire intègre est 0 ou un nombre
premier.
Démonstration. Si la caractéristique c d'un anneau A unitaire intègre est non nulle et si c n'est
pas premier, on peut écrire c = ab avec 1 < a < c et 1 < b < c. Donc 0 = ce = (ae)(be), et A
étant intègre on en déduit ae = 0 ou be = 0, absurde car c est le plus petit entier > 0 tel que
ce = 0. 

3.3. Groupe des inversibles d'un anneau unitaire


On rappelle que les élément d'un anneau unitaire (A, +, ·) inversibles pour la loi · sont
appelés les inversibles de l'anneau A.
3. ANNEAUX 33

Définition 10. L'ensemble des inversibles d'un anneau unitaire A, muni de la loi multi-
plicative, est un groupe appelé groupe des inversibles de A.
Proposition 4. Soit un entier n ≥ 2 et k un entier. L'élément k̇ (classe de k dans
Z/nZ) est inversible dans Z/nZ si et seulement si k ∧ n = 1.
 Théorème 1 (des Chinois). Soient m et n deux entiers naturels non nuls premiers
entre eux. Les anneaux (Z/mZ) × (Z/nZ) et Z/mnZ sont isomorphes.
Démonstration. On considère l'application
f : Z → Z/mZ × Z/nZ x → (ẋ, x).
C'est un morphisme d'anneaux, de noyau Ker f = {x ∈ Z | m | x et n | x}. Comme m ∧ n = 1,
on a aussi Ker f = {x ∈ Z | mn | x} = mnZ. Donc f (Z) et Z/mnZ sont isomorphes. En
particulier, Card(f (Z)) = Card(Z/mnZ) = mn et donc f (Z) = Z/mZ × Z/nZ. Finalement, on
vient de montrer que Z/mnZ et Z/mZ × Z/nZ sont isomorphes. 

Remarque 3.  En procédant par récurrence sur p, on montre que si n1 , . . . , np sont


premiers entre eux deux à deux, alors Z/n1 · · · np Z et Z/n1 Z × · · · × Z/np Z sont
isomorphes.
 La surjectivité de l'application f prouve que si m ∧ n = 1, alors
(∀a, b ∈ Z, ∃x ∈ Z), x ≡ a (mod m) et x ≡ b (mod n).
Dans la pratique, la méthode de recherche d'un tel élément x peut se faire comme
suit.
 On cherche u et v tels que um + vn = 1 grâce à l'algorithme d'Euclide (voir
l'exercice 2 page 12)
 Il sut alors de prendre x = a + um(b − a) (par exemple).
Indicateur d'Euler.
Définition 11. Soit un entier n > 1. Notons Gn le groupe des inversibles de Z/nZ. On
appelle indicateur d'Euler de n l'entier ϕ(n) = Card(Gn ). D'après la proposition 4, ϕ(n)
est aussi le nombre d'entiers k ∈ {1, 2, · · · , n} tels que k ∧ n = 1.
Remarque 4. En vertu de la proposition 5 page 22, le nombre de générateurs d'un groupe
cyclique d'ordre n (typiquement Z/nZ) est ϕ(n).

Théorème 2 (Euler). Soit un entier n > 1. Si k est un entier premier avec n, on a


k ϕ(n) ≡ 1 (mod n).
Démonstration. Si k ∧ n = 1, alors k̇ est élément du groupe Gn des inversibles de Z/nZ d'après
la proposition 4. Comme l'ordre de Gn vaut ϕ(n), on en déduit k̇ϕ(n) = 1̇ dans Z/nZ, d'où le
résultat. 
Ce dernier résultat généralise le théorème de Fermat. Le calcul de ϕ(n) fait l'objet de
la proposition suivante.
Proposition 5. Soit n ≥ 2 un entier, n = pα1 1 · · · pαk k sa décomposition en facteurs
premiers. Alors
   
1 1
ϕ(n) = pα1 1 −1 · · · pαk k −1 (p1 − 1) · · · (pk − 1) = n 1 − ··· 1 − .
p1 pk
Démonstration. Soit p un nombre premier et α ∈ N∗ . Alors k n'est pas premier avec pα si
et seulement si p | k. L'ensemble des nombres de {1, 2, . . . , pα } non premiers avec p est donc
{p, 2p, 3p, . . . , (pα−1 )p}. Ce dernier étant de cardinal pα−1 , on en tire ϕ(pα ) = pα − pα−1 (∗).
34 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX

 Si m et n sont premiers entre eux, d'après le théorème des Chinois, Z/mZ×Z/nZ est isomorphe
à Z/mnZ. En restreignant l'isomorphisme à Gm × Gn , on voit que Gm × Gn est isomorphe à
Gmn . Donc ϕ(mn) = ϕ(m)ϕ(n) (∗∗).
 Si maintenant n ≥ 2 est un entier dont la décomposition en facteurs premiers est n = pα1 1 · · · pαk k ,
on a d'après (∗∗) ϕ(n) = ϕ(pα1 1 ) · · · ϕ(pαk k ), d'où le résultat d'après (∗). 

Remarque 5. En particulier si p est un nombre premier, ϕ(p) = p − 1 et on retrouve le


théorème de Fermat avec le théorème 2.

Proposition 6. Pour tout entier n ≥ 2, on a n = ϕ(d).
d|n
Démonstration. Considérons les fractions
1 2 n−1 n
, ,··· , , .
n n n n
Nous cherchons à les mettre sous forme irréductible ad ou d doit nécessairement diviser n. Pour
chaque d divisant n, il y a ϕ(d) numérateurs a possibles (puisque le nombre d'entiers a tels que
a ∧ d = 1 est ϕ(d)). Comme il y a en tout n fractions, on en déduit le résultat. 

3.4. Exercices
Exercice 1. Soit A un anneau unitaire dont l'élément neutre pour la loi · est noté 1.
a) Soit x ∈ A nilpotent. Montrer que 1 − x est inversible.
b) Si n ∈ N∗ (et x toujours nilpotent), simplier l'expression
n

2 2n k
Un = (1 + x)(1 + x ) · · · (1 + x ) = (1 + x2 ).
k=0

Solution. a) Soit p l'indice de nilpotence de x, de sorte que xp = 0. On a


(1 − x)(1 + x + · · · + xp−1 ) = (1 + x + · · · + xp−1 )(1 − x) = 1 − xp = 1,
d'où le résultat car on a prouvé que xy = yx = 1 avec y = 1 + x + · · · + xp−1 .
b) On va montrer par récurrence sur n ∈ N que Un = (1 − x)−1 (1 − x2n+1 ).
- Pour n = 0 c'est vrai car (1 − x)U0 = (1 − x)(1 + x) = 1 − x2 , d'où U0 = (1 − x)−1 (1 − x2 ).
- Supposons Un−1 = (1 − x)−1 (1 − x2 ). Alors Un = Un−1 (1 + x2 ) = (1 − x)−1 (1 − x2 ).
n n n+1

Remarque. Le résultat a) appliqué aux matrices carrées entraîne que si N est une matrice
nilpotente, alors I − N est inversible (ceci reste vrai dès que N  < 1  où  ·  est une
norme d'algèbre sur les matrices, voir le tome analyse sur les espaces vectoriels normés).

Exercice 2 (Anneau de Boole). Soit A un anneau tel que tout élément de A soit
idempotent (i. e. ∀x ∈ A, x2 = x).
a) Si x ∈ A, montrer que 2x = 0. Montrer que A est commutatif.
b) Montrer que si x, y ∈ A alors xy(x + y) = 0. Que dire si A est intègre ?
Solution. a) Si x ∈ A, alors (2x)2 = 2x donc 4x2 = 2x, ce qui entraîne 4x = 2x puis 2x = 0.
Ceci s'écrit encore x = −x.
Si x, y ∈ A, (x + y)2 = x + y donc x2 + xy + yx + y 2 = x + y = x2 + y 2 , d'où on tire
xy + yx = 0, donc xy = −yx = yx.
b) Si x, y ∈ A, alors xy(x + y) = xyx + xy2 = x2 y + xy2 = 2xy = 0.
 Si A est intègre, alors A a au plus deux éléments. En eet, sinon il existe x, y ∈ A distincts et
diérents de 0. Donc (x + y) = 0 (sinon x = −y = y ) et A étant intègre xy(x + y) = 0, absurde.
3. ANNEAUX 35

Exercice 3 (Radical d'un idéal). Soit A un √


anneau commutatif unitaire et I un
idéal de A. On appelle
√ radical de I l'ensemble noté I = {x ∈ A | ∃n ∈ N∗ , xn ∈ I}.
a) Montrer que I est un idéal de A.
b) Déterminer le radical d'un idéal de Z.

Solution.
√ a) - Montrons√ tout d'abord que ( +) est un sous-groupe
I, √ √ de (A, +). Il est clair que
0 ∈ I puisque I ⊂ I . Par ailleurs, si x ∈ I alors −x√∈ I puisque le fait que xn ∈ I
entraîne (−1)n xn = (−x)n ∈ I . Prenons maintenant x, y ∈ I . Il existe m et n ∈ N∗ tels que
xm ∈ I et y n ∈ I . L'anneau A étant commutatif, la formule du binôme entraîne


m−1 
m + n − 1 k m−1−k  m + n − 1
m+n−1
(x + y)m+n−1 = y n · x y + xm · xk−m y m+n−1−k
k k
k=0 k=m

et puisque I est un idéal, ce terme appartient à I . Donc x + y ∈
I.

 Enn, si a ∈ A et si x ∈ √ I , il existe n ∈ N
√ tel que x ∈ I et donc A étant commutatif,
∗ n

(ax)n = an xn ∈ I . Donc ax ∈ I . Finalement, I est un idéal de A.


b) Soit I un idéal de √ √ étant principal, il existe n ∈ N tel que I = nZ. Si
Z. L'anneau des entiers ∗

n = 0, on a bien sûr I = 0 et si n = 1, I = Z. Sinon n ≥ 2, et √ on écrit la décomposition de


n en produit √
de facteurs premiers n = pα1 1 · · · p√
αk
k . Montrons que I = p1 · · · pk Z.
 On a I ⊂ p1 · · · pk Z. En eet. Si x ∈ I alors il existe m ∈ N∗ tel que xm ∈ nZ, donc
n | xm , donc ∀i, 1 ≤ i ≤ k, pi | xm , donc ∀i, 1 ≤ i ≤ k, pi | x d'où p1 · · · pk | x puisque les
pi sont premiers entre
√ eux deux à deux (ils sont premiers et distincts).
 On a p1 · · · pk Z ⊂ I . En eet. Soit x ∈ p1 · · · pk Z. Il existe r ∈ Z tel que x = p1 · · · pk r.
Si m√= max1≤i≤k αi , on a n = pα1 1 · · · pαk k | xm = pm m m donc xm ∈ I , ou encore
1 · · · pk r
x ∈ I.

Exercice 4 (Idéal premier, idéal maximal). Soit A un anneau commutatif unitaire.


a) Un idéal P =
 A de A est dit premier si pour x, y ∈ A le fait que xy ∈ P entraîne
x ∈ P ou y ∈ P . Montrer que P est un idéal premier si et seulement si l'anneau quotient
A/P est intègre.
b) Un idéal M = A de A est dit maximal si les seuls idéaux contenant M sont M et A.
Montrer que M est un idéal maximal si et seulement si A/M est un corps.
c) Montrer que tout idéal maximal est premier.
d) Si l'anneau A est principal, montrer qu'un idéal premier P = {0} est maximal.
Solution. a) Si x ∈ A, notons ẋ sa classe dans A/P . Alors
(P est premier) ⇐⇒ (xy ∈ P =⇒ x ou y ∈ P)
⇐⇒ (ẋ · ẏ = 0̇ =⇒ ẋ = 0̇ ou ẏ = 0̇) ⇐⇒ (A/P est intègre).

b) Condition nécessaire. Soit M un idéal maximal. Soit x ∈ A tel que ẋ (classe de x dans A/M)
vérie ẋ = 0. Alors x ∈ M de sorte que M + (x) = A (en eet, I = M + (x) est un idéal
contenant M, diérent de M puisque x ∈ M, donc I = A). Donc il existe a ∈ A et m ∈ M tels
que 1 = m + ax, ce qui s'écrit 1̇ = ȧẋ. L'anneau A/M est donc un corps.
Condition susante. Soit I un idéal de A tel que M ⊂ I et M =  I . Soit a ∈ I , a ∈ M. On
a ȧ = 0̇ de sorte que A/M étant un corps, il existe b ∈ A, ȧḃ = 1̇. Donc il existe m ∈ M,
ab = 1 + m, d'où 1 = ab − m ∈ I . Donc I = A et M est maximal.
c) Soit M un idéal de A maximal. L'anneau quotient A/M est un corps donc un anneau intègre,
donc M est premier.
36 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX

d) Soit I un idéal de A tel que P ⊂ I et P = I . Comme A est principal, il existe m ∈ P tel que
P = (m) et il existe a ∈ I , I = (a). Comme m ∈ I , il existe q ∈ A tel que m = aq . L'idéal P
étant premier, on a a ∈ P ou q ∈ P . Or a ∈ P sinon P = I . Donc q ∈ P , de sorte qu'il existe
p ∈ A tel que q = mp. Donc m = aq = amp d'où m(1 − ap) = 0 d'où ap = 1 (car A est principal
donc intègre et m = 0 sinon P = 0). Or ap ∈ I , donc 1 ∈ I , donc I = A, d'où le résultat.

Exercice 5. Soit n ≥ 2 un entier. Si a est un entier premier avec n montrer


an! ≡ 1 (mod n).

Solution. D'après le théorème d'Euler, on sait que aϕ(n) ≡ 1 (mod n) où ϕ désigne l'indicateur
d'Euler. Le résultat sera donc démontré si on prouve ϕ(n) | n!, ce qui est immédiat car ϕ(n) ≤ n.

Exercice 6 (Anneaux noethériens). On dit qu'un anneau commutatif unitaire A


est noethérien si tout idéal I de A est engendré par un nombre ni d'éléments ( i. e. il
existe x1 , . . . , xk ∈ I tels que (x1 ) + · · · + (xk ) = I ). Montrer que A est noethérien si
et seulement s'il n'existe pas de suite d'idéaux de A strictement croissante au sens de
l'inclusion.

Solution. Condition nécessaire. Soit (In )n∈N une suite croissante d'idéaux de A. On vérie fa-
cilement que I = ∪n∈N In est un idéal de A. Il est donc engendré par un nombre ni d'éléments
x1 , . . . , xp ∈ I . Or chaque xi appartient à I = ∪n∈N In et donc il existe ni tel que xi ∈ Ini . Si
N = sup1≤i≤p ni , la suite (In ) étant croissante, tous les xi (1 ≤ i ≤ p) appartiennent à IN , et
donc I = (x1 ) + · · · + (xp ) ⊂ IN . Par ailleurs IN ⊂ I puisque I = ∪i∈N In . Donc IN = I , ce qui
entraîne que la suite (In ) est stationnaire pour n ≥ N .
Condition susante. Soit I un idéal de A. Supposons que I ne puisse pas être engendré par un
nombre ni d'éléments. Sous cette hypothèse, nous allons construire une suite (xn ) d'éléments
de I tels que xn+1 ∈ (x1 ) + · · · + (xn ).
- On choisit un élément x1 ∈ I .
- x1 , . . . , xn ∈ I étant supposés construits, on sait que (x1 ) + · · · + (xn ) = I car I ne peut pas
être engendré par un nombre ni d'éléments. On choisit alors xn+1 ∈ I , xn+1 ∈ (x1 ) + · · · + (xn ).
Ainsi, si on pose In = (x1 ) + · · · + (xn ), la suite (In ) est une suite d'idéaux de A strictement
croissante au sens de l'inclusion, ce qui est contraire aux hypothèses. Donc I peut être engendré
par un nombre ni d'éléments, d'où le résultat.
Remarque. Tout anneau principal est noethérien.

4. Problèmes
Problème 1 (Cryptographie : le système de chiffrement RSA). On se donne
deux nombres premiers p et q distincts et on pose n = pq . Soient c, d deux entiers tels que
cd ≡ 1 (mod ϕ(n)) où ϕ désigne l'indicateur d'Euler. Montrer que pour tout t ∈ Z, on a
tcd ≡ t (mod n).

Solution. Les nombres p et q étant premiers et distincts, on a ϕ(n) = (p − 1)(q − 1). Soit k ∈ Z
tel que cd = 1 + kϕ(n). Soit t ∈ Z. Pour prouver que tcd ≡ t (mod n), il sut de prouver
tcd ≡ t (mod p) et tcd ≡ t (mod q) (conséquence de l'isomorphisme de Z/pZ × Z/qZ et Z/pqZ).
Prouvons par exemple tcd ≡ t (mod p) (le calcul modulo q est analogue).
4. PROBLÈMES 37

 Si t ∧ p = 1 alors tp−1 ≡ 1 (mod p) (théorème de Fermat) donc tcd ≡ (tp−1 )k(q−1) t ≡ t


(mod p).
 Si t ∧ p = 1, alors p divise t, et alors on a tcd ≡ t ≡ 0 (mod p).
Remarque. L'application g : Z/nZ → Z/nZ ṫ → ṫc s'appelle une fonction de chif-
frement, f : ṫ → ṫd fonction de déchirement. L'exercice arme que f ◦ g(ṫ) = ṫ. On
peut donc chirer un message (représenté par un élément ṫ de Z/nZ) avec g , puis on
le déchire avec f . Le couple (n, c) est appelé la clef publique, l'entier d la clef secrète.
La sécurité de ce système repose sur le fait que connaissant la clef publique, il est très
dicile de déterminer d : un moyen consiste par exemple à factoriser n pour trouver p et
q , ce qui est encore impossible à réaliser lorsque p et q sont grands, typiquement (pour
l'année 2020) de l'ordre de 150 à 200 chires (le record est la factorisation d'un nombre
entier sans forme particulière de 250 chires, obtenue en 2020 après 2700 années de calcul
distribué). Ainsi, tout le monde peut chirer mais seuls ceux connaissant la clef secrète
peuvent déchirer. Ce système de chirement est apparu en 1976. Il est appelé RSA (du
nom des inventeurs Rivest, Shamir et Adleman) et est couramment utilisé aujourd'hui car
il est extrêmement robuste. Son apparition explique l'intérêt que l'on porte aujourd'hui
aux algorithmes de factorisation et de primalité.

Problème 2 (Nombres pseudo-premiers et nombres de Carmichael). Le


théorème de Fermat arme que si n est premier et si a ∧ n = 1, alors an−1 ≡ 1 (mod n).
Le but du problème est d'étudier la réciproque.
1/ (Nombres pseudo-premiers). Soit un entier a ≥ 2. Un entier n est dit pseudo-premier en
base a (ce que l'on note brièvement pp- a) si n n'est pas premier et si an−1 ≡ 1 (mod n). Si
p > 2 est un nombre premier ne divisant pas a(a2 − 1), montrer que n = (a2p − 1)/(a2 − 1)
est un nombre pp-a. En déduire qu'il existe une innité de nombres pp- a.
2/ (Nombres de Carmichael). Un entier n ≥ 2 est appelé nombre de Carmichael si n n'est
pas un nombre premier et si pour tout entier a, an ≡ a (mod n) (en particulier, pour tout
entier a premier avec n, n est pp-a).
a) Si n = p1 · · · pk (où les pi sont des nombres premiers distincts) et si pi − 1 | n − 1 pour
tout i, montrer que n est un nombre de Carmichael.
b) Réciproquement, montrer que tout nombre de Carmichael peut se mettre sous la forme
n = p1 · · · pk où les pi sont des nombres premiers distincts et où pi − 1 | n − 1 pour tout i.
(Indication : On pourra utiliser le fait que si p est premier, le groupe multiplicatif (Z/pZ)∗
est cyclique  voir la remarque de l'exercice 10 page 28).
c) Montrer qu'un nombre de Carmichael a au moins 3 facteurs premiers.
d) Soit n = pqr un nombre de Carmichael à trois facteurs premiers p < q < r. Si p est
xé, montrer que q et r sont bornés.

Solution. 1/ Remarquons tout d'abord que n = ( aa−1


p
−1 a +1p
)( a+1 ) = (ap−1 + · · · + a + 1) · (ap−1 −
a p−2 + · · · − a + 1) est un entier composé. Ceci étant, on a a2p = 1 + n(a2 − 1), de sorte que
a2p ≡ 1 (mod n) (∗). Le résultat sera donc acquis si on montre que 2p | n − 1. On a

(a2 − 1)(n − 1) = a2p − a2 = a(ap−1 − 1)(ap + a).

D'après le théorème de Fermat, p | (ap−1 − 1) puisque par hypothèse p ne divise pas a. On a donc
p | (a2 − 1)(n − 1). Or p ne divise pas a2 − 1, donc p est premier avec a2 − 1 (car p est premier)
et d'après le théorème de Gauss, p | n − 1. Or n − 1 = a2p−2 + · · · + a4 + a2 est une somme paire
de termes de même parité, donc 2 | n − 1. Comme 2 et p sont premiers entre eux, on en déduit
2p | n − 1, donc n est pp-a d'après (∗).
38 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX

Il n'y a qu'un nombre ni de nombres premiers p divisant a(a2 − 1). Comme il y a une innité
de nombres premiers, on en déduit qu'il y a une innité de nombres premiers p > 2 ne divisant
pas a(a2 − 1), donc une innité de nombres pp-a.
2/ a) Soit a un entier et soit i, 1 ≤ i ≤ k. Si pi  a, le théorème de Fermat entraîne api −1 ≡ 1
(mod pi ), et comme pi − 1 divise n − 1, on en déduit an−1 ≡ 1 (mod pi ), donc an ≡ a (mod pi ).
Cette dernière égalité reste évidemment vraie si pi | a. Ainsi, pour tout entier a on a montré
an ≡ a (mod pi ). Ceci s'écrit aussi pi | (an − a). Ceci étant vrai pour tout i, on en déduit
n = p1 · · · pk | (an − a) puisque les pi sont premiers entre eux deux à deux. On a donc bien
an ≡ a (mod n).
b) Soit n un nombre de Carmichael et p un nombre premier divisant n. Comme n est un nombre
de Carmichael, n divise pn − p, et comme p2  pn − p (car n ≥ 2), on en déduit p2  n.
 On peut donc écrire n = p1 · · · pk , où les pi sont des nombres premiers distincts. Soit i, 1 ≤ i ≤ k.
Il est bien connu que (Z/pi Z)∗ est un groupe cyclique, donc il existe un entier a tel que ȧ soit
d'ordre pi − 1 dans (Z/pi Z)∗ . Comme n est un nombre de Carmichael, on a n | an − a donc
pi | an − a, ou encore an ≡ a (mod pi ). Comme ȧ ∈ (Z/pi Z)∗ , on en déduit an−1 ≡ 1 (mod pi ).
Or l'ordre ȧ dans (Z/pi Z)∗ est pi − 1, donc pi − 1 | n − 1. Ceci est vrai pour tout i, d'où le
résultat.
c) Supposons que n = (a + 1)(b + 1) soit un nombre de Carmichael avec a + 1 et b + 1 premiers
et a = b. On a n = ab + a + b + 1. Or a | n − 1 donc a | b = (n − 1 − ab − a) ; de même b | a.
Donc a = b, ce qui impossible d'après la question précédente.
d) Comme n est un nombre de Carmichael, on a q − 1 | n − 1, et donc q − 1 | (n − 1) − (q − 1) =
q(pr − 1). Or q ∧ (q − 1) = 1 donc d'après le théorème de Gauss, q − 1 | pr − 1. De même
r − 1 | pq − 1, donc nalement (q − 1)(r − 1) | (pr − 1)(pq − 1). Ceci entraîne
(q − 1)(r − 1) | (pr − 1)(pq − 1) − p2 (q − 1)(r − 1) = p2 (r + q) − p(r + q) + 1 − p2 ,
d'où on tire (q − 1)(r − 1) < p2 (r + q). Comme q < r, on a donc (q − 1)2 < 2p2 r (∗). Nous avons
vu plus haut que r − 1 | pq − 1, ce qui entraîne r ≤ pq donc r2 ≤ p2 q 2 , et d'après (∗)
√ r 3 < p 4p r,
2 2 2

donc r < 4p . En remplaçant cette dernière


4
√ inégalité dans (∗) on tombe sur q < 8p + 1.
En résumé, on a prouvé que q < 8p3 + 1 et r < 4p4 . Donc si p est xé, q et r sont bornés.
Remarque. Le plus petit nombre de Carmichael est 561 = 3 · 11 · 17. Les suivants sont
1105, 1729, 2465, 2821.
 On sait depuis 1992 qu'il existe une innité de nombres de Carmichael, et que si x est
assez grand, il y a au moins x2/7 nombres de Carmichael inférieurs à x.

Problème 3 (Quelques tests de primalité). a) Soit un entier n ≥ 2 vériant


∃a ∈ Z, (an−1 ≡ 1 (mod n) et ∀q | (n − 1), q premier, a(n−1)/q ≡ 1 (mod n)).
Montrer que n est un nombre premier.
b) Soit n ≥ 2 un entier, n − 1 = pα1 1 · · · pαk k la décomposition en facteurs premiers de n − 1.
On suppose que pour tout i, 1 ≤ i ≤ k , il existe un entier ai tel que
(n−1)/pi
an−1
i ≡1 (mod n) et ai ≡ 1 (mod n).
Montrer que n est un nombre premier.
c) Soit p > 2 premier, et soit h ∈ N tel que 1 ≤ h ≤ p − 1. On pose n = 1 + hp2 . Si
2n−1 ≡ 1 (mod n) et 2h ≡ 1 (mod n),
montrer que n est premier. (Indication : utiliser l'ordre de 2̇ pour montrer qu'il existe un
nombre premier q divisant n avec p | q − 1.)
4. PROBLÈMES 39

Solution. a) Soit m l'ordre de ȧ dans le groupe des inversibles de Z/nZ. Nous allons montrer
que m = n − 1. Supposons m < n − 1. Comme an−1 ≡ 1 (mod n), m | n − 1 et donc il existe un
nombre premier q divisant n − 1 tel que m | (n − 1)/q . Ceci entraîne que a(n−1)/q ≡ 1 (mod n),
ce qui est contraire aux hypothèses.
Donc m = n − 1, ce qui prouve que le groupe des inversibles de Z/nZ admet au moins n − 1
éléments, ce qui n'est possible que si n est premier. D'où le résultat.
b) Pour tout i, notons mi l'ordre de ȧi dans le groupe des inversibles de Z/nZ. Comme an−1 i ≡
 α (n−1)/pi
1 (mod n), on a mi | n − 1 = j pj j . Comme de plus ai ≡ 1 (mod n), on a aussi
 α
mi  pαi i −1 j=i pj j . Ces relations concernant mi permettent d'armer que pαi i | mi , et donc
pαi i | ϕ(n) (où ϕ désigne l'indicateur d'Euler) puisque l'ordre de ai divise l'ordre du groupe des
inversibles de Z/nZ quiest ϕ(n). Ceci étant vrai pour tout i, on en déduit, les pi étant premiers
distincts, que n − 1 = i pαi i | ϕ(n), donc que ϕ(n) ≥ n − 1. Donc le groupe des inversibles de
Z/nZ comporte au moins n − 1 éléments, ce qui n'est possible que si n est premier.
c) Soit m l'ordre de 2̇ dans le groupe des inversibles de Z/nZ. On a 2n−1 ≡ 1 (mod n) donc
m | n − 1 = hp2 . Or 2h ≡ 1 (mod n) donc m  h. Finalement, p | m (si p  m, alors p étant
premier m ∧ p2 = 1 et donc m | h d'après le théorème de Gauss). Comme m divise l'ordre du
groupe des inversibles de Z/nZ qui est ϕ(n), on en déduit p | ϕ(n) (∗).
Si n = pα1 1 · · · pαk k désigne la décomposition de n en facteurs premiers, on sait que ϕ(n) =
pα1 1 −1 · · · pαk k −1 (p1 − 1) · · · (pk − 1). Comme p  n = 1 + hp2 , on a p = pi pour tout i donc il existe
d'après (∗) un indice i tel que p | pi − 1. Autrement dit, il existe un facteur premier q de n tel
que q ≡ 1 (mod p). Soit r l'entier vériant qr = n. On a qr ≡ n ≡ 1 + hp2 ≡ 1 (mod p), donc
r ≡ 1 (mod p). En résumé, on a montré qu'il existe q premier, q | n et r entier tels que qr = n
avec q = 1 + up, r = 1 + vp, u, v ∈ N. Le nombre q étant premier on a d'ailleurs u ≥ 2 (si u = 0,
q = 1 et si u = 1, q est pair).
Supposons r > 1. Alors v ≥ 1. Or on a 1 + hp2 = n = qr = (1 + up)(1 + vp) donc hp =
(uv)p + (u + v), ce qui entraîne

(i) uv < h ≤ p − 1 et (ii) (u + v) ≥ p car p | (u + v) = 0.

Comme u ≥ 2, (i) entraîne v < (p − 1)/2, et d'après (ii) u ≥ 1 + p/2, donc toujours d'après (i),
v < (p − 1)/(1 + p2 ) < 2. Finalement v = 1, ce qui est absurde car (i) entraînerait u < p − 1 et
(ii) entraînerait u ≥ p − 1.
On a donc forcément r = 1, ce qui entraîne que n = q est premier.
Remarque. Le test c) fut utilisé avec le nombre premier p = 2127 − 1 pour montrer que
n = 1 + 190p2 est premier (Miller et Wheeler, 1951). Les tests de primalité de ce type
permettent de prouver de manière ecace la primalité de nombres entiers ayant une forme
particulière. Par exemple, le record du plus grand nombre premier connu en 2020 est un
nombre de Mersenne (de la forme 2p − 1 avec p premier), d'un peu moins de 25 millions de
chires, établi en 2018 en utilisant le test de Lucas (décrit dans la remarque de l'exercice 4
page 13). Tester la primalité d'un nombre entier donné, sans forme particulière, est un
problème algorithmique beaucoup plus dicile (jusqu'en 2020, les records de tests de
primalité de nombres sans forme particuliere, établissent la primalité d'entiers de quelques
dizaines de milliers de décimales).

Problème 4. Soit m ∈ N∗ , m ≥ 2. Donner une condition nécéssaire et susante sur


a ∈ N pour qu'il existe une application f : N → N vériant f m (n) = n + a pour tout

n ∈ N (ici f m désigne la composition m fois de f avec elle même f m = f ◦ f m−1 ).

Solution. On va prouver que la condition nécéssaire et susante recherchée est que m divise a.
La condition est bien susante, si m | a, il sut de choisir pour f la fonction f (n) = n + (a/m).
40 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX

Supposons maintenant qu'il existe f : N → N vériant f m (n) = n + a pour tout n ∈ N. On a


∀n ∈ N, f (n + a) = f (f m (n)) = f m+1 (n) = f m (f (n)) = f (n) + a.
Un récurrence immédiate sur k entraine ensuite f (n + ka) = f (n) + ka pour tout (n, k) ∈ N2 .
Ainsi la valeur de f (n + ka) modulo a ne dépend pas de k, on peut donc dénir la fonction f de
Z/aZ sur lui-même par f(n) = f (n). Cette fonction vérie fm = Id. On en déduit que f est une
permutation de Z/aZ, et que dans sa décomposition c1 · · · cp en produit de cycles de supports
disjoints, chaque cycle ci vérie cm i = Id. En particulier la longueur i de ci divise m. Nous
allons montrer que i = m. Pour cela raisonnons par l'absurde et supposons que αi = m/i > 1.
Soit xi un des éléments du support de ci , choisi de sorte que xi < a. On a ci i = Id, donc
il existe ki ∈ N tel que f i (xi ) = xi + aki . En posant g = f i , on a donc g(xi ) = xi + aki .
L'identité f (n + ak) = f (n) + ka, pour tout n, entraîne, avec une récurrence facile sur j , que
f j (n + ak) = f j (n) + ak pour tout j ∈ N, en particulier g(n + ak) = g(n) + ak pour tout k ∈ N.
Comme g(xi ) = xi + aki une récurrence sur j donne ensuite g j (xi ) = xi + ajki . On en déduit
xi + a = f m (xi ) = g αi (xi ) = xi + aαi ki .
p
Ceci entraîne αi ki = 1, ce qui est absurde. Donc i = m pour tout i, donc a = i=1 i = pm et
le résultat est prouvé.

Problème 5 (Quelques cas particuliers du théorème de Dirichlet).


1/ a) Soit p > 2 un nombre premier. Montrer que −1 est un carré dans Z/pZ si et
seulement si p ≡ 1 (mod 4).
b) En déduire qu'il existe une innité de nombres premiers de la forme 1 + 4n, n ∈ N.
2/ (Un résultat plus général). Soient un nombre premier p > 2 et un entier m ≥ 1.
Montrer que l'ensemble Pm des nombres premiers de la forme 1 + 2m pn (n ∈ N), est inni.
(Indication. Si Pm estni, considérer un nombre premier q divisant (M p + 1)/(M + 1) où
M = K 2 , K = p( n∈Pm n), et montrer que q ∈ Pm ).
m−1

Solution. 1/ a) Condition nécessaire. Supposons qu'il existe x ∈ Z/pZ, x2 = −1. Le groupe


multiplicatif (Z/pZ)∗ étant d'ordre p − 1 (car p est premier), on a xp−1 = 1. Donc (x2 )(p−1)/2 =
(−1)(p−1)/2 = 1, ce qui n'est possible que si (p − 1)/2 est pair. D'où la condition nécessaire.
Condition susante. C'est plus dicile. Donnons deux méthodes.
 Première méthode. Comme p est premier, Z/pZ est un corps. L'équation x(p−1)/2 = 1 a
donc au plus (p − 1)/2 solutions dans Z/pZ. Comme (Z/pZ)∗ contient p − 1 > (p − 1)/2
éléments, il existe x ∈ (Z/pZ)∗ tel que y = x(p−1)/2 = 1. On a y 2 = xp−1 = 1 donc
(y − 1)(y + 1) = 0, donc y = −1 (car y = 1). Or p ≡ 1 (mod 4), donc il existe un entier
k tel que (p − 1)/2 = 2k . Si z = xk , on a donc z 2 = x2k = x(p−1)/2 = y = −1, d'où le
résultat.
 Seconde méthode (cette méthode est moins générale que la précédente). Soit l'entier k tel
que p = 1 + 4k. Comme p est premier, on a d'après le théorème de Wilson
1 · 2 · · · (2k) · (2k + 1) · · · (4k − 1) · (4k) ≡ −1 (mod 4k + 1),
ce qui s'écrit aussi
1 · 2 · · · (2k) · (−2k) · · · (−1) ≡ −1 (mod p)
ou encore
(−1)2k (1 · 2 · · · (2k))2 ≡ −1 (mod p).
Si on pose x = 1 · 2 · · · (2k), ceci s'écrit = −1 dans Z/pZ, d'où le résultat.
x2
b) Supposons qu'il y ait un nombre ni de nombres premiers de la forme 4k + 1, k ∈ N. Soit
p le plus grand d'entre eux et soit N = 1 + (p!)2 . Soit un nombre premier q divisant N . Alors
(p!)2 ≡ −1 (mod q), donc −1 est un carré dans Z/qZ et donc q est de la forme 4k + 1, k ∈ N
4. PROBLÈMES 41

d'après a). Donc q ≤ p, donc q | p!, donc q | 1 = N − (p!)2 , ce qui est absurde. Il y a donc une
innité de nombres premiers de la forme 4k + 1, k ∈ N.
2/ Supposons Pm ni. Suivons l'indication en considérant 
l'entier N = (M p + 1)/(M + 1) =
M p−1 − M p−2 + · · · − M + 1 avec M = K 2 où K = p( n∈Pm n). Comme N > 1, il existe un
m−1

nombre premier q divisant N . On a M p + 1 ≡ 0 (mod q) donc


m−1 p mp
K2 ≡ M p ≡ −1 (mod q) et K 2 ≡1 (mod q).
L'égalité de droite montre que l'ordre r de K dans le groupe multiplicatif (Z/qZ)∗ divise 2m p.
L'égalité de gauche montre que r  2m−1 p. Comme p est premier, on a donc r = 2m ou r = 2m p.
Si r = 2m , comme N divise
M 2p − 1 Mp − 1 Mp + 1
(M 2 )p−1 + · · · + M 2 + 1 = 2
= ·
M −1 M −1 M +1
et que M 2 = K 2 ≡ 1 (mod q), on a
m

0 ≡ (M 2 )p−1 + · · · + M 2 + 1 ≡ p (mod q)
donc q | p, donc q | M , ce qui est absurde vu que q | M p + 1.
Ainsi, r = 2m p et comme l'ordre de
tout élément de (Z/qZ) divise q − 1, on a 2 p | q − 1 c'est-à-dire q ∈ Pm . Ceci entraîne q | M
∗ m

ce qui est impossible. L'ensemble Pm est donc inni.


Remarque. Ces résultats sont des cas particuliers du théorème de Dirichlet (voir la re-
marque qui suit l'exercice 7 page 14). D'autres formes particulières du théorème de Diri-
chlet font l'objet du sujet d'étude 2 page 49 ou du problème 11 page 99.

Problème 6 (Anneaux euclidiens). 1/ Soit A un anneau commutatif unitaire in-


tègre. On dit que A est euclidien s'il existe une application f : A∗ = A  {0} → N telle
que
(i) ∀x, y ∈ A∗ , f (xy) ≥ f (y),
(ii) ∀a ∈ A, ∀b ∈ A∗ , ∃(q, r) ∈ A2 , tel que a = bq + r, avec r = 0 ou f (r) < f (b).
a) Si A est euclidien, montrer que A est principal.
b) Si l'application f vérie l'hypothèse supplémentaire
(iii) ∀x, y ∈ A∗ , x = y, f (x − y) ≤ sup{f (x), f (y)},
montrer que le couple (q, r) dans (ii) est unique.
c) Caractériser les éléments inversibles d'un anneau unitaire euclidien.
2/ Soit l'anneau des entiers de Gauss Z[i] = {x + iy | (x, y) ∈ Z2 }.
a) Montrer que si z ∈ C, il existe z0 ∈ Z[i] tel que |z − z0 | < 1.
b) En déduire que Z[i] est un anneau principal.
c) Quels sont les inversibles de Z[i] ?
Solution. 1/ a) Soit I un idéal de A. Si I = {0}, I est évidemment principal. Si I = {0},
on considère l'ensemble Γ = {f (x) | x ∈ I ∗ } ⊂ N. Soit a ∈ I ∗ tel que f (a) = inf Γ. Prenons
maintenant un élément x ∈ I . D'après (ii),
∃(q, r) ∈ A2 , (x = aq + r avec f (r) < f (a) ou r = 0).
Remarquons que r = x − aq ∈ I . Si r = 0, alors f (r) < f (a) ce qui est absurde puisque r ∈ I ∗
et f (a) = inf Γ. Donc r = 0, donc x = aq . On vient de montrer que I ⊂ (a). Réciproquement,
comme a ∈ I , on a (a) ⊂ I . Donc I = (a) et A est principal.
b) Soit (a, b) ∈ A × A∗ . Soient deux couples (q, r) et (q , r ) vériant (ii) pour (a, b). L'égalité
bq + r = bq  + r s'écrit aussi b(q − q  ) = r − r. Si q = q  , on a r − r = 0 et f (b) ≤ f [b(q − q  )] =
f (r − r) (∗). Si r = 0 (le cas r = 0 se traite en échangeant les rôles de (q, r) et (q  , r )),
42 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX

(∗) entraîne f (b) ≤ f (r ) < f (b), ce qui est absurde. Si r = 0 et r = 0, alors (∗) entraîne
f (b) ≤ sup{f (r), f (r )} < f (b), ce qui est également absurde. On a donc forcément q = q  et
donc r = r .
c) Soit α = inf{f (x) | x ∈ A∗ }. Nous allons montrer que x ∈ A∗ est inversible si et seulement si
f (x) = α.
Condition nécessaire. Si x est inversible, alors il existe y ∈ A∗ , xy = 1. Donc ∀z ∈ A∗ , f (z) =
f [x(yz)] ≥ f (x) d'après (i), donc f (x) = α.
Condition susante. Appliquant (ii) à (a, b) = (1, x), on voit qu'il existe (q, r) ∈ A2 tel que
1 = qx + r avec r = 0 ou f (r) < f (x). Cette dernière assertion est impossible car f (x) = α, donc
r = 0 et donc bx = 1. L'élément x est donc inversible (on a aussi xb = 1 car A est commutatif).
2/ a) Soit z = x + iy ∈ C, (x, y) ∈ R2 . En désignant par x0 , y0 ∈ Z les entiers les plus proches
de x et y , on a |x − x0 | ≤ 1/2 et |y − y0 | ≤ 1/2. Ainsi l'entier de Gauss z0 = x0 + iy0 ∈ Z[i]
vérie |z − z0 |2 = (x − x0 )2 + (y − y0 )2 ≤ 1/2, donc |z − z0 | < 1.
b) D'après le résultat de la question 1/a), il sut de montrer que Z[i] est euclidien. Soit (a, b) ∈
Z[i] × Z[i]∗ . D'après la question précédente, il existe q ∈ Z[i] tel que |q − a/b| < 1. En posant
r = a − bq , on a donc a = bq + r avec |r| = |b||a/b − q| < |b|, ce qui montre qu'en prenant
f (z) = |z|2 = x2 + y 2 pour z = x + iy ∈ Z[i]∗ , (ii) est vérié. Or pour tout x ∈ Z[i]∗ , f (x) ≥ 1,
donc ∀y ∈ Z[i]∗ , f (xy) = f (x)f (y) ≥ f (y). La condition (i) est donc vériée. Finalement, Z[i]
est euclidien.
c) D'après 1/c), les inversibles de Z[i] sont les éléments z vériant f (z) = |z|2 = 1. Ce sont donc
1, −1, i et −i.
Remarque. Les anneaux euclidiens généralisent les propriétés de la division euclidienne
des anneaux Z et K[X] (on a f (x) = |x| pour Z et f (P ) = deg(P ) pour K[X]).

Problème 7. Soit G un groupe ni tel que pour tout entier d ≥ 1, l'équation xd = e
(où e désigne le neutre de G) a au plus d solutions dans G. Montrer que G est un groupe
cyclique.

Solution. Notons n l'ordre du groupe G. Pour tout entier d divisant n, notons Ψd l'ensemble des
éléments de G d'ordre d. L'ordre de tout élément de G divise n, donc la famille (Ψd )d|n forme
une partition de G. Si ψd = Card(Ψd ), on a donc d|n ψd = n (∗).
Nous allons maintenant montrer que si d | n, ψd ≤ ϕ(d) (∗∗) où ϕ désigne l'indicateur
d'Euler. Si ψd = 0, c'est terminé. Sinon ψd ≥ 1 et donc il existe x0 ∈ Ψd . Tous les éléments x de
x0  vérient alors xd = 1. Or x0  a d éléments et l'équation xd = e a au plus d solutions. Les
éléments qui vérient xd = e sont donc les éléments de x0 . Donc Ψd ⊂ x0  et Ψd correspond
donc à l'ensemble des générateurs de x0  qui, d'après la proposition 5 page 22, est de cardinal
ϕ(d). Donc
 ψd = ϕ(d), d'où (∗∗).
Or d|n ϕ(d) = n (voir proposition 6 page 34). De (∗) et (∗∗) on en déduit que pour tout
diviseur d de n, on a ψd = ϕ(d). En particulier ψn = ϕ(n) > 0, donc il existe au moins un
élément d'ordre n, d'où le résultat.
Remarque. Il découle de ce problème le résultat annoncé dans la remarque de l'exercice 10
page 28.

Problème 8. 1/ Pour tout n ∈ N∗ , n ≥ 3, on note Dn le n-ième groupe diédral, constitué


des isométries du plan qui conservent l'ensemble des sommets du polygône régulier de n
cotés déni par Pn = {Sk | 0 ≤ k ≤ n − 1} où Sk = (cos 2kπ/n, sin 2kπ/n).
a) Montrer que Dn est un groupe d'ordre 2n, non abélien.
4. PROBLÈMES 43

b) Déterminer le centre de Dn .
2/a) Soit G un groupe ni non-abélien. Montrer que G/Z(G) est non-cyclique. Montrer
que G/Z(G) peut être abélien.
b) Montrer que la probabilité p que deux éléments de G commutent est inférieur à 5/8,
et exhiber un cas où on a p = 5/8.
Solution. 1/a) Le sous-groupe Dn+ de Dn formé de ses isométries directes, est constitué des
rotations qui conservent Pn , c'est donc l'ensemble des rotations rk d'angle 2kπ/n pour 0 ≤ k ≤
n − 1. Par ailleurs, Pn est conservé par la symétrie σ par rapport à l'axe y = 0. On en déduit
{σ j r1k | j ∈ {0, 1}, 0 ≤ k < n} ⊂ Dn . Réciproquement si µ ∈ Dn , alors soit µ est une isométrie
directe donc µ = rk = r1k pour 0 ≤ k < n, soit σµ est une isométrie directe, donc σµ = r1k pour
0 ≤ k < n, donc µ = σr1k . On a donc Dn = {σ j r1k | j ∈ {0, 1}, 0 ≤ k < n} et comme les σ j r1k
pour j ∈ {0, 1}, 0 ≤ k < n sont tous distincts, on a bien |Dn | = 2n.
Dn est non-abélien, car σr1 (S0 ) = σ(S1 ) = Sn−1 et r1 σ(S0 ) = r1 (S0 ) = S1 , donc σr1 = r1 σ .
b) Soit µ ∈ Z(Dn ). On a σµ = µσ, en particulier σµ(S0 ) = µσ(S0 ) = µ(S0 ), donc µ(S0 ) est
invariant par σ , donc µ(S0 ) est sur l'axe y = 0.
 Si n est impair, ceci entraîne µ(S0 ) = S0 (car µ(S0 ) ∈ Pn , et le seul point de Pn sur y = 0
est S0 ). Les seules isométries de Dn qui conservent S0 sont Id et σ ; comme µ ∈ Z(Dn )
et σr1 = r1 σ (vu plus haut), on a donc forcément µ = Id, donc Z(Dn ) = {Id}.
 Si n est pair, les points Sk de l'axe y = 0 sont S0 et Sn/2 donc µ(S0 ) ∈ {S0 , Sn/2 }.
Si µ(S0 ) = S0 on a vu plus haut que µ = Id. Si µ(S0 ) = Sn/2 , alors µ = σ j r1n/2 avec
j ∈ {0, 1}. Comme r1 µ = µr1 ceci entraîne
r1 σ j (Sn/2−1 ) = r1 µ(Sn−1 ) = µr1 (Sn−1 ) = µ(S0 ) = Sn/2 .

Lorsque j = 1, on a r1 σ j (Sn/2−1 ) = Sn/2+2 = Sn/2 , on a donc forcément j = 0 et µ = r1n/2 .


Réciproquement, si µ = r1n/2 , on a µσ = σµ (pour tout k, on a µσ(Sk ) = µSn−k = Sn/2−k
et σµ(Sk ) = σSn/2+k = Sn/2−k ), donc pour tout j, k, µ(σ j r1k ) = σ j µr1k = σ j r1k+n/2 =
n/2
(σ j r1k )µ. Finalement, on a montré Z(Dn ) = {Id, r1 }.
2/a) Raisonnons par l'absurde et supposons G/Z(G) cyclique. Soit h ∈ G tel que h engendre
i
G/Z(G) (où g désigne la classe d'équivalence de g ∈ G). Soient a, b ∈ G. On peut écrire a = h et
j
b = h , autrement dit il existe g, g  ∈ Z(G) tels que a = hi g et b = hj g  . Donc ab = (hi g)(hj g  ) =
gh h g  = ghi+j g  = g  hi+j g = g  hj hi g = ba. Ainsi a et b commutent pour tous les couples
i j

(a, b) ∈ G2 , donc G est abélien ce qui est absurde.


Le groupe quotient G/Z(G) peut etre abélien, comme c'est le cas pour G = D4 ; dans ce
cas, D4 /Z(D4 ) = D4 /{Id, r12 } = {Id, σ, r1 , σr1 } est isomorphe à (Z/2Z)2 qui est abélien (notons
par ailleurs que le plus petit groupe non abélien est d'ordre 6, et est isomorphe à D3 ).
b) Notons n = |G|. La probabilité p que deux éléments de G commutent est donnée par
|{(a, b) ∈ G2 | ab = ba}| 1 
p= = |Ga |, où Ga = {b ∈ G | ab = ba}.
|G|2 n2
a∈G

Pour tout a ∈ G, Ga est un sous-groupe de G. Si a ∈ Z(G) on a Ga = G, et si a ∈ Z(G), |Ga |


divise |G| et |Ga | < |G| donc |Ga | ≤ n/2. On en déduit
  n n n2
n2 p = |Ga | + |Ga | ≤ n|Z(G)| + (n − |Z(G)|) = |Z(G)| + . (∗)
2 2 2
a∈Z(G) a∈Z(G)

Comme G est non-abélien, d'après 2/a) le groupe quotient G/Z(G) n'est pas cyclique, donc
son ordre n'est pas un nombre premier, donc |G/Z(G)| ≥ 4. On en déduit |Z(G)| ≤ n/4. En
remplaçant dans (*) on en déduit p ≤ 5/8.
L'égalité se produit lorsque |Z(G)| = n/4 et |Ga | = n/2 pour tout a ∈ Z(G), ce qui est le
cas pour le groupe diédral G = D4 .
44 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX

Problème 9 (Théorème de Sylow). a) Soit G un groupe abélien ni. Soit p un


nombre premier divisant l'ordre de G. Montrer qu'il existe un sous-groupe de G d'ordre
p (sans utiliser le résultat de l'exercice 10 page 28 ou de l'exercice 12 page 30).
b) Soit G un groupe ni d'ordre h, non supposé abélien. Démontrer le théorème de Sylow :
Si pα | h où p est un nombre premier et α ∈ N, alors il existe un sous-groupe de G d'ordre
pα . (Indication : on pourra procéder par récurrence sur Card(G) en utilisant l'équation
aux classes  voir le théorème 8 page 24.)
Solution. a) On procède de manière analogue à la question c) de l'exercice 10 page 28. G
étant ni, il existe un système de générateurs (x1 , . . . , xn ) de G. Notons r1 , . . . , rn les ordres de
x1 , . . . , xn . Considérons l'application
ϕ : x1  × · · · × xn  → G (y1 , . . . , yn ) → y1 · · · yn .
Le groupe G étant abélien, ϕ est un morphisme de groupes. De plus, ϕ étant surjectif (puisque
(x1 , . . . , xn ) est un système de générateurs de G), G est isomorphe à (x1  × · · · × xn )/Ker ϕ,
donc Card(G) × Card(Ker ϕ) = Card(x1  × · · · × xn ) = r1 · · · rn , donc Card(G) | r1 · · · rn .
Donc p | r1 · · · rn , donc il existe ri tel que p | ri . Si ri = pq , q ∈ N∗ , alors x = xqi est d'ordre p et
H = x est un sous-groupe de G d'ordre p.
b) Procédons par récurrence sur h = Card(G).
 Si Card(G) = 1, c'est évident.
 Sinon, supposons le résultat vrai pour les groupes d'ordres < h = Card(G). Si α = 0, c'est
évident, sinon α ≥ 1. D'après le théorème 8 page 24 il existe une famille nie (Hi )i∈I de sous-
groupes stricts de G telle que
 h
h = Card(G) = Card(Z(G)) + . (∗)
Card(Hi )
i∈I

Deux cas se présentent :


 Il existe i ∈ I tel que pα | Card(Hi ). Comme Card(Hi ) < Card(G), d'après l'hypothèse
de récurrence il existe un sous-groupe H de Hi d'ordre pα . Ainsi H est un sous-groupe
de G d'ordre pα .
 Pour tout i ∈ I , pα  Card(Hi ). Comme pα | h, p divise h/Card(Hi ) pour tout i ∈ I .
D'après l'équation aux classes (∗), on a donc p | Card(Z(G)), et Z(G) étant un groupe
commutatif, il existe un sous-groupe C de Z(G) d'ordre p d'après a). Comme C ⊂ Z(G),
C est distingué dans G. Soit π la surjection canonique de G dans G/C . L'ordre du groupe
quotient G/C est Card(G)/Card(C) = h/p < h = Card(G) et comme pα−1 | Card(G/C),
on sait d'après l'hypothèse de récurrence qu'il existe un sous-groupe H  de G/C d'ordre
pα−1 . Le sous-groupe H = π −1 (H  ) est donc d'ordre Card(C)Card(H
˙  ) = pα . D'où le

résultat.

Problème 10. Soit G un groupe ni et H un sous-groupe de G. On suppose que


Card(G) = p Card(H) où p est le plus petit facteur premier de Card(G). Montrer que
H est distingué dans G.
Solution. Considérons la relation d'équivalence sur G dénie par
x R y ⇐⇒ x−1 y ∈ H.
La classe d'équivalence d'un élément x ∈ G est de la forme x = xH (classe à gauche suivant
H ). Notons X l'ensemble quotient G/ R . Pour les mêmes raisons que dans la démonstration du
théorème de Lagrange, Card(X) = Card(G)/Card(H) = p. Fixons g ∈ G. Pour tout x ∈ G la
classe gx ne dépend pas du représentant x de x car
x R y =⇒ x−1 y ∈ H =⇒ (gx)−1 (gy) = x−1 y ∈ H =⇒ gx R gy.
4. PROBLÈMES 45

Ainsi, l'application
σg : X → X x → gx
est bien dénie, et il est facile de vérier que c'est une permutation de X . Comme σgg = σg ◦ σg ,
l'application
ϕ : G → S g → σg
(où S désigne le groupe des permutations de X ) est un morphisme de groupes. On en déduit que
Im ϕ est isomorphe à G/ Ker ϕ, donc que Card(Im ϕ) = Card(G)/Card(Ker ϕ). De plus Im ϕ est
un sous-groupe de S , donc Card(Im ϕ) | Card(S) = p!. Finalement,
Card(G)
| p! .
Card(Ker ϕ)
Comme p est premier et que c'est le plus petit facteur premier de Card(G), on en déduit facile-
ment que Card(G)/Card(Ker ϕ) divise p. Ainsi, Card(Ker ϕ) ≥ Card(G)/p = Card(H). Un peu
d'attention montre que
Ker ϕ = {g ∈ G | ∀x ∈ G, x−1 gx ∈ H}, (∗)
en particulier Ker ϕ ⊂ H . Comme Card(Ker ϕ) ≥ Card(H), ceci entraîne Ker ϕ = H . D'après
(∗), ceci s'écrit ∀g ∈ H, ∀x ∈ G, x−1 gx ∈ H , c'est-à-dire que H est distingué dans G.

Problème 11. 1/ Soit G un groupe. Si A ⊂ G, on note A = {x ∈ G | ∀a ∈ A, ax = xa}.


a) Si A ⊂ G, montrer que A est un sous-groupe de G.
b) Soit D un sous-groupe de G distingué dans G. On note A(D) le groupe des automor-
phismes de D.
α) Montrer que D est distingué dans G et que G/D est isomorphe à un sous-groupe
de A(D).
β ) Si D est d'ordre m premier, montrer que A(D) est isomorphe au groupe multiplicatif
(Z/mZ)∗ .
2/ Soit G un groupe ni non abélien d'ordre pq, où p et q sont des nombres premiers,
avec p < q . On note e le neutre de G.
a) Montrer que le centre Z(G) de G est réduit à {e}.
b) Montrer qu'il existe dans G au moins un sous-groupe d'ordre q (on pourra utiliser
l'équation aux classes, voir le théorème 8 page 24).
c) Montrer qu'il n'existe qu'un seul sous-groupe K de G d'ordre q, et que K est distingué
dans G.
d) Montrer que K = K  puis que p | (q − 1).
3/ Soit G un groupe d'ordre pq avec p et q premiers, p < q et p  (q − 1). Montrer que G
est cyclique (on pourra utiliser le résultat a) du problème 9 page 44).
Solution. 1/a) On a e ∈ A . Par ailleurs, si x ∈ A , alors pour tout a ∈ A, ax = xa donc en
multipliant à gauche et à droite par x−1 , x−1 a = ax−1 . Ainsi, x−1 ∈ A . Il ne reste plus qu'à
montrer que si x, y ∈ A , alors xy ∈ A , ce qui est le cas car si a ∈ A, a(xy) = (ax)y = (xa)y =
x(ay) = x(ya) = (xy)a.
b) α) Soient x ∈ G et y ∈ D . Le sous-groupe D étant distingué dans G, on a x−1 ax ∈ D pour
tout a ∈ D, donc (x−1 ax)y = y(x−1 ax), ce qui entraîne a(xyx−1 ) = (xyx−1 )a et ceci pour tout
a ∈ D, donc xyx−1 ∈ D , ce qui prouve que D est distingué dans G.
 Pour tout a ∈ G, on note ϕa : D → G x → ϕa (x) = axa−1 . C'est un morphisme injectif, et D
étant distingué dans G, ϕa est une bijection de D sur D. Autrement dit, ϕa est un automorphisme
de D. Notons A = {ϕa | a ∈ G}. C'est un sous-groupe de A(D) pour la loi de composition.
Soit f : G → A a → ϕa . L'application f est un morphisme de groupe surjectif. Par
ailleurs, Ker f = {a ∈ G | ∀x ∈ D, ϕa (x) = x} = D , donc G/Ker f = G/D est isomorphe à
A , qui est un sous-groupe de A(D).
46 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX

β ) L'ordre de D étant un nombre premier, D est cyclique donc il existe x0 ∈ D tel que D = x0 .
Pour tout entier p, m  p, on note ϕp : D → D x → xp . Comme D est abélien (car
cyclique), ϕp est un morphisme de groupe. Or si xp = e alors x = e (sinon x est d'ordre m donc
m | p, contradictoire). En d'autres termes, Ker ϕp = {e}. Le morphisme ϕp est donc injectif,
donc bijectif (ϕp va de D dans D et D est ni). En résumé, on a montré que ϕp ∈ A(D).
 Soit f : (Z/mZ)∗ → A(D) ṗ → ϕp .
f est bien dénie (si ṗ = q̇ , alors m | (p − q) donc ϕp = ϕq ).
f est un morphisme de groupe : ϕpq = ϕp ◦ ϕq .
f est injective. En eet, si ṗ ∈ Ker f , alors ϕp =IdD donc xp0 = x0 donc p ≡ 1 (mod m).
Ainsi, Ker f = {1̇}.
f est surjective. En eet. Soit ϕ ∈ A(D). Il existe p, 1 ≤ p ≤ m − 1, tel que ϕ(x0 ) = xp0 (car
si ϕ(x0 ) = e alors ∀k, ϕ(xk0 ) = e et ϕ n'est pas bijective). Soit y ∈ D. Il existe q ∈ Z tel que
y = xq0 , donc ϕ(y) = ϕ(xq0 ) = ϕ(x0 )q = xpq 0 = y . Donc ϕ = ϕp = f (ṗ).
p

f est donc un isomorphisme, d'où le résultat.


2/a) Soit p1 l'ordre de Z(G). Supposons p1 > 1. L'ensemble Z(G) est un sous-groupe de G donc
p1 | pq = Card(G) donc p1 ∈ {p, q} car G n'est pas abélien. Le centre de G est distingué dans
G, et le groupe quotient G/Z(G) est d'ordre pq/p1 , donc premier, donc cyclique. Soit a ∈ G tel
que ȧ (la classe de a dans G/Z(G)) engendre G/Z(G). Si x ∈ G, il existe un entier n tel que
ẋ = ȧn , autrement dit il existe y ∈ Z(G) tel que x = yan . On voit donc que x commute avec
a, et ceci pour tout x ∈ G. Donc a ∈ Z(G), donc ȧ = ė, ce qui est absurde puisque ȧ engendre
G/Z(G) = {ė}. Donc p1 = 1.
b) D'après le théorème 8 page 24, il existe une famille nie de sous-groupes stricts (Hi )i∈I de G
telle que
 pq
pq = Card(G) = Card(Z(G)) + .
Card(Hi )
i∈I

S'il n'existe aucun sous-groupe de G d'ordre q , alors pour tout i on a forcément Card(Hi ) = p
(car Card(Hi ) | pq , = 1, = pq et = q ). L'équation aux classes s'écrit donc pq = 1 + qCard(I),
donc 1 = q(p − Card(I)), absurde. Il existe donc au moins un sous-groupe de G d'ordre q .
c) Supposons qu'il existe deux sous-groupes distincts K1 et K2 d'ordre q. Alors K1 ∩ K2 = {e}
(car K1 ∩ K2 est un sous-groupe de K1 , son cardinal divise donc q , donc vaut 1 ou q  car q est
premier . Si son ordre est q , c'est que K1 = K2 ). L'application f : K1 ×K2 → G (x1 , x2 ) → x1 x2
est donc injective (si x1 x2 = y1 y2 , alors x−1
1 y1 = x2 y2 ∈ K1 ∩ K2 donc x1 y1 = x2 y2 = e).
−1 −1 −1

Donc Card(G) ≥ Card(K1 × K2 ) = q , absurde car p < q . Il n'y a donc qu'un seul sous-groupe
2

K d'ordre q .
 Montrons que K est distingué dans G. Si x ∈ K et si a ∈ G, alors (axa−1 )q = axq a−1 =
aea−1 = e, donc axa−1 est d'ordre q ou 1 (q est premier), donc axa−1 ∈ K d'après l'unicité d'un
sous-groupe d'ordre q . Le sous-groupe K est donc distingué dans G.
d) Le sous-groupe K étant cyclique (car d'ordre q premier), il est commutatif. Donc K ⊂ K  .
Or K  est un sous-groupe de G, donc Card(K  ) | pq . Or Card(K  ) ≥ Card(K) = q > p > 1 donc
Card(K  ) ∈ {q, pq}. Si Card(K  ) = pq , c'est que K  = G et en retournant à la dénition de K  ,
ceci entraîne K ⊂ Z(G) = {e}, ce qui est absurde. Donc Card(K  ) = q , donc K = K  .
 D'après 1/b), K  = K étant distingué dans G, G/K  est isomorphe à un sous-groupe de A(K).
Donc p = Card(G)/K divise Card(A(K)). Or d'après 1/b)β ), A(K) est isomorphe à (Z/qZ)∗ .
Donc Card(A(K)) = q − 1, donc p | (q − 1).
3/ Comme p  (q − 1), G est abélien d'après 2/. D'après la question a) du problème 9, on peut
donc trouver deux sous-groupes H1 et H2 de G d'ordre p et q . Les nombres p et q étant premiers,
H1 et H2 sont cycliques et donc il existe x ∈ H1 d'ordre p et y ∈ H2 d'ordre q . L'élément z = xy
est alors d'ordre pq (si z m = e alors xm = y −m donc xmq = e donc p | mq donc p | m d'après le
théorème de Gauss ; de même q | m donc pq | m), donc G = z est cyclique.
5. SUJETS D'ÉTUDE 47

Remarque. Le résultat de cet exercice est un cas particulier du résultat suivant : si G est
un groupe ni d'ordre n et si n et ϕ(n) sont premiers entre eux (où ϕ désigne l'indicateur
d'Euler), alors G est cyclique.
 Nous avons redémontré dans 2/a) le résultat de la question 2/a) du problème 8 page 42,
qui arme que pour G non abélien, G/Z(G) ne peut pas être cyclique.

5. Sujets d'étude
Sujet d'étude 1 (Théorème de Tchébycheff). Pour tout x ∈ R, on note [x] sa
partie entière. Si n ≥ 2, on note P(n) l'ensemble des nombres premiers ≤ n, et π(n) =
Card(P(n)). Enn, si n ∈ N∗ et si p est un nombre premier, on note vp (n) le plus grand
entier naturel α tel que pα | n (valuation p-adique de n).
1/ Montrer que si n est un entier, n ≥ 2, le coecient binomial C2n
n
vérie
4n n
√ < C2n < 4n .
2 n
2/a) Si k ∈ N∗ , montrer C2k+1
k
< 4k . 
b) En déduire que pour n ≥ 2, Pn = p∈P(n) p < 4n .
3/ Montrer que si n ≥ 14, π(n) ≤ n/2 − 1.
4/ Si n ∈ N et p est premier, montrer
∞  
 n
vp (n!) = .
i=1
pi

5/ Soient p un nombre premier. Montrer que pr ≤ 2n, où r = vp (C2n


n
). En déduire
n
C2n ≤ (2n)π(2n) .
6/ Soit n > 2. Soit p premier, 2n/3 < p ≤ n. Montrer
 que p  C2n .
n

7/ Soit n ≥ 2. On note P = P(2n)  P(n) et Rn = p∈P p. Si n ≥ 98, montrer


4n/3
√ √ < Rn < (2n)π(2n)−π(n) .
n/2
2 n(2n)

8/ Si x ∈ R, x ≥ 7, montrer que 2x ≥ 18x. Si x ≥ 5, montrer que 2x ≥ 6x. En déduire


que si n ∈ N, n ≥ 450, Rn > 2n.
9/a) Montrer que si n ∈ N, n > 5, il existe au moins deux nombres premiers p tels que
n < p < 2n.
b) En déduire le théorème de Tchébyche : Si n est un entier, n ≥ 4, alors il existe au
moins un nombre premier p vériant n < p < 2n − 2.
Solution. 1/ La majoration de C2n
n est une conséquence de l'identité du binôme, qui entraîne

2n

n k
C2n < C2n = (1 + 1)2n = 4n .
k=0

Montrons
√ l'autre inégalité par récurrence sur n ≥ 2. Pour n = 2, c'est vrai car C4 = 6 >
2

4 /(2 2). Supposons le résultat vrai pour n, montrons le pour n + 1. On écrit


2

n+1 2n + 1 n 2(2n + 1) 4n 2n + 1
C2n+2 =2 C2n > · √ =  √ 4n+1 ,
n+1 n+1 2 n 2 4n(n + 1) n + 1
et il sut alors de voir que 4n(n + 1) < (2n + 1)2 = 1 + 4n(n + 1).
48 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX

2/a) On écrit tout simplement


2k+1

k k k+1 n
2C2k+1 = C2k+1 + C2k+1 < C2k+1 = 22k+1 = 2.4k .
n=0

b) Procédons par récurrence sur n.


- Pour n = 2 c'est vrai car P2 = 2 < 42 .
- Supposons le résultat vrai jusqu'au rang n − 1. Si n est pair, alors Pn = Pn−1 < 4n−1 <
4 . Sinon n est impair. Soit k ∈ N tel que n = 2k + 1. Pour tout nombre premier p tel que
n

k + 2 ≤ p ≤ 2k + 1, p divise k!C2k+1 k = (k + 2) · · · (2k + 1). Or p est premier avec k!, donc


d'après le théorème de Gauss, p | C2k+1 k . Si N désigne le produit des nombres premiers p tels
que k + 2 ≤ p ≤ 2k + 1, on a donc N | C2k+1 k , donc N ≤ C2k+1 k < 4k . Or Pk+1 < 4k+1 . Donc
P2k+1 = N Pk+1 < 4k 4k+1 = 42k+1 .
3/ On vérie facilement que π(14) = 6 = 14/2 − 1.
Supposons n ≥ 15. Parmi 1, 2, . . . , n, les [n/2] − 1 nombres pairs 4, 6, . . . , 2[n/2] sont composés.
Par ailleurs 1, 9 et 15 ne sont pas premiers. On trouve donc au moins ([n/2] − 1) + 3 = [n/2] + 2
nombres composés parmi 1, 2 . . . , n. Donc π(n) ≤ n − ([n/2] + 2) ≤ n − (n/2 + 1) = n/2 − 1.
4/ Si k ∈ N∗ , vp (k) s'interprète
 comme l'exposant de p dans la décomposition de k en facteurs
premiers. Donc vp (n!) = nk=1 vp (k). Par commodité, nous utilisons  le symbole de Kronecker
déni par δki = 1 si pi | k, δki = 0 si pi  k. On a bien sûr vp (k) = ∞ i=1 k , de sorte que
δ i

n n
∞  ∞
 n 
    
vp (n!) = vp (k) = δki = δki .
k=1 k=1 i=1 i=1 k=1

Pour tout i, nk=1 δki représente le nombre d'entiers k, 1 ≤ k ≤ n tels que pi | k. Ces
 entiersi sont
de la forme pi où  ∈ N∗ et  ≤ n/pi , donc au nombre de [n/pi ]. Donc vp (n!) = ∞ i=1 [n/p ].
5/ Notre point de départ est la formule suivante (conséquence immédiate du résultat de la
question précédente) :
∞ 
   
n 2n n
r = vp (C2n ) = vp [(2n)!] − 2vp (n!) = −2 . (∗)
pk pk
k=1

Lorsque x ∈ R, les inégalités 2x−1 < [2x] ≤ 2x et x−1 < [x] ≤ x entraînent −1 < [2x]−2[x] < 2,
et comme [2x] − 2[x] est entier, on a
0 ≤ [2x] − 2[x] ≤ 1. (∗∗)
Lorsque pk > 2n, [2n/pk ] = [n/pk ] = 0 donc on peut se restreindre dans la somme (∗) aux indices
k tels que pk ≤ 2n, ou encore k ≤ log(2n)/ log p, ce qui entraîne
     
n 2n n log(2n)
r = vp (C2n )= k
− 2 ≤ 1≤ .
p pk log p
1≤k≤log(2n)/ log p 1≤k≤log(2n)/ log p

On en déduit pr ≤ 2n. Finalement, ceci conduit à l'inégalité


 n

n
C2n = pvp (C2n ) ≤ (2n) = (2n)π(2n) .
p∈P(2n) p∈P(2n)

6/ Les hypothèses sur p s'écrivent aussi 2n/p < 3 et n ≥ p, donc [2n/p] ≤ 2 et [n/p] ≥ 1.
Les inégalités (∗∗) entraînent alors nécessairement [2n/p] − 2[n/p] = 0. Lorsque k ≥ 2, on a
pk ≥ p2 > 4n2 /9, ce qui pour n ≥ 5 donne pk > 2n et donc [2n/pk ] = [n/pk ] = 0. Ainsi
∞ 
   
n 2n n
∀n ≥ 5, vp (C2n )= −2 = 0,
pk pk
k=1

d'où le résultat si n ≥ 5. Lorsque n = 3 ou n = 4, on a nécessairement p = 3. Or C63 = 20 et


C84 = 70 ne sont pas divisibles par 3, le résultat est donc démontré pour tout n ≥ 3.
5. SUJETS D'ÉTUDE 49

7/ Il est clair que  


Rn = p< (2n) = (2n)π(2n)−π(n) .
p∈P p∈P
- Comme pour 2/b), on voit que Rn | C2n n . Soit Q ∈ N∗ tel que C n = R Q . D'après 5/, si
n 2n n n
p est premier, n < p ≤ 2n, on a p  Qn . Donc tout nombre premier p divisant Qn vérie p ≤ n.
D'après 6/, on a même p ≤ 2n/3. Le produit des nombres premiers de Qn sera donc au plus égal
à P[2n/3] , donc inférieur à 42n/3 .
D'après
√ 5/, l'exposant de p dans √ la décomposition
√ de Qn en facteurs premiers ne sera > 1 que
si p < 2n.√D'après 3/, comme 2n ≥ 2 · 98 = 14,√ce nombre de facteurs premiers de Qn est
inférieur à [ 2n]/2 − 1, donc strictement inférieur à 2n/2 = n/2 √. Le produit des puissances
de ces nombres premiers divisant Qn sera donc au plus égal à (2n) n/2 , et nalement

Qn ≤ 42n/3 (2n) n/2

et comme Rn Qn = C2n
n , on tire de 1/

4n 4n/3
Rn Q n > √ donc Rn > √ √ .
2 n 2 n(2n) n/2

8/ La première partie de cette question se résout facilement (en utilisant par exemple une étude
de fonctions

ou une récurrence

sur

x). Traitons maintenant la seconde partie. Lorsque n ≥ 450,
on a 2n/6 ≥ 5 donc 2 2n/6 > 2n, d'où
√ √ √√ √
2n/3 = (2 2n/6 2n
> ( 2n) 2n = (2n) n/2 .
) (∗∗∗)

On a aussi 2n/9 ≥ 7, donc 22n/9 > 4n donc 2n/3 > (4n)3/2 > 4n n. En combinant cette dernière
inégalité avec (∗∗∗), on obtient
4n/3 √
√ > 2n/3 > 4n n,
(2n) n/2
d'où le résultat d'après 7/.
9/a) D'après 8/ et 7/, si n ≥ 450, on a (2n)π(2n)−π(n) > Rn > 2n, donc π(2n) − π(n) ≥ 2.
Il reste à vérier le résultat pour 6 ≤ n ≤ 450. Les nombres premiers 7, 11, 13, 19, 23, 37,
43, 73, 83, 139, 163, 277, 317, 547, 631 susent à l'armer.
b) Pour n = 4 c'est vrai (4 < 5 < 6) ainsi que pour n = 5 (5 < 7 < 8). Pour n ≥ 6, il existe
d'après 9/a) deux nombres premiers p tels que n < p < 2n, donc il en existe au moins un vériant
n < p < 2n − 2.
Remarque. Ce résultat fut conjecturé par J. Bertrand en 1845 et démontré pour la pre-
mière fois par Tchébyche en 1850.

Sujet d'étude 2 (Symbole de Legendre et applications). Soit p > 2 un nombre


premier. Pour alléger les notations, on note Fp le corps Z/pZ et p = (p − 1)/2. Pour tout
x ∈ R, on note [x] sa partie entière.
1/ Calculer le cardinal de l'ensemble (F∗p )2 = {x2 | x ∈ F∗p }.
2/ Si x ∈ Z, p  x, on note ( xp ) = 1 si ẋ ∈ (F∗p )2 , ( xp ) = −1 sinon (symbole de Legendre).
a) Si p  x, montrer que ( xp ) ≡ xp (mod p), puis montrer
    
xy x y
∀x, y, p  x, p  y, = .
p p p
b) Calculer ( −1
p
).
50 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX

3/ Soit S = {1̇, 2̇, . . . , ṗ } et soit a ∈ Z, p  a. Si s ∈ N, 1 ≤ s ≤ p , on peut écrire de


manière unique ȧṡ = es (a)ṡa avec es (a) ∈ {−1, 1} et ṡa ∈ S .
a) Montrer que l'application f : S → S ṡ → ṡa est bijective.
b) Soit µa = Card{s ∈ S | es (a) = −1}. Montrer ( ap ) = (−1)µa .
4/ (Loi de réciprocité quadratique.) Soit q > 2 premier, q = p. On note q = (q − 1)/2.
a) On considère les sommes
p 
  q 
 
 sq  sp
Sq,p = et Sp,q = .
s=1
p s=1
q

Montrer que Sp,q + Sq,p = p q  .


b) Montrer que Sq,p ≡ µq (mod 2).
c) En déduire la loi de réciprocité quadratique
  
p q  
= (−1)p q .
q p

Application 1. 5/a) (Un test de primalité.) Soient h et m deux entiers tels que m ≥ 2 et
1 ≤ h ≤ 2m − 1. On pose n = h2m + 1. Soit p > 2 premier tel que ( np ) = −1. Montrer que
n est premier si et seulement si p(n−1)/2 ≡ −1 (mod n).
b) (Test de Pépin). On rappelle que les nombres de Fermat sont les nombres de la forme
Fk = 22 + 1 où k ∈ N∗ (voir l'exercice 4 page 13). Montrer que Fk est un nombre premier
k

si et seulement si 3(Fk −1)/2 ≡ −1 (mod Fk ).


Application 2. 6/a) Soit p > 3 un nombre premier. Montrer que −3̇ est un carré dans Fp
si et seulement si p ≡ 1 (mod 6). En déduire qu'il existe une innité de nombres premiers
de la forme 6n + 1.
b) Soit p > 5 un nombre premier. Montrer que 5̇ est un carré dans Fp si et seulement si
p ≡ ±1 (mod 10). En déduire qu'il existe une innité de nombres premiers de la forme
10n − 1, n ∈ N.

Solution. 1/ L'application ϕ : F∗p → (F∗p )2 x → x2 est un morphisme de groupe surjectif. Or


x ∈ Ker ϕ ⇐⇒ x2 = 1̇ ⇐⇒ (x − 1̇)(x + 1̇) = 0̇ ⇐⇒ x ∈ {−1̇, 1̇}. Donc Card(Ker ϕ) = 2,
donc Card (F∗p )2 = Card(F∗p )/Card(Ker ϕ) = (p − 1)/2 = p .
2/a) Si x ∈ (F∗p )2 , alors il existe y ∈ F∗p tel que x = y2 etdonc xp = yp−1 = 1̇. L'équation xp − 1
ayant au plus p racines dans le corps F∗p , comme Card (F∗p )2 = p on en déduit l'équivalence
   
(xp = 1̇) ⇐⇒ (x ∈ (F∗p )2 ). Or si x ∈ F∗p , xp−1 = x2p = 1̇ donc (xp − 1̇)(xp + 1̇) = 0̇ donc
 
xp ∈ {−1̇, 1̇}. Donc si x ∈ (F∗p )2 , xp = −1̇, d'où le résultat.
On a donc
    
xy    x y
≡ (xy)p ≡ (xp )(y p ) ≡ (mod p)
p p p
et comme p > 2, on en déduit le résultat.
b) D'après 2/a), ( −1
p ) ≡ (−1)
p (mod p), et comme p > 2 et que ( −1 ) ∈ {−1, 1}, ( −1 ) = (−1)p .
p p
3/a) Remarquons que si ṡ ∈ S , alors f (ṡ) = es (a)ȧṡ. Ceci étant, f est injective. En eet, si
f (ṡ) = f (ṡ ), alors es (a)ȧṡ = es (a)ȧṡ donc es (a)ṡ = es (a)ṡ , donc p divise es (a)s − es (a)s = n.
Or |n| ≤ |s|+|s | ≤ 2p < p, donc n = 0, ce qui prouve es (a)s = es (a)s et en passant aux valeurs
absolues s = s . L'application f est injective et comme le cardinal de l'ensemble de départ est
égal à celui de l'ensemble d'arrivée, f est bijective.
5. SUJETS D'ÉTUDE 51

b) On écrit
    




a p  
ṡ = ȧ (1̇ · 2̇ · · · ṗ ) = ȧ(2̇ȧ) · · · (ṗ ȧ) = es (a) ṡa .
p
ṡ∈S ṡ∈S ṡ∈S
 
Comme f est bijective, ṡ∈S ṡ = ṡ∈S ṡa , et ce terme étant non nul, on obtient
  
a
≡ es (a) ≡ (−1)µa (mod p),
p
ṡ∈S
d'où le résultat.
4/a) Nous allons établir la preuve à l'aide d'un dessin (voir la gure ci contre). Remarquons déjà
que p et q étant premiers et distincts, ils sont premiers entre eux. Autrement dit, dans la gure,
aucun point à coordonnées (i, j) entières (1 ≤ i ≤ p , 1 ≤ j ≤ q  ) ne rencontre la diagonale
OC . Soit s ∈ N, 1 ≤ s ≤ p . [sq/p] représente le nombre de points à coordonnées entières,

d'abscisse s, d'ordonnée > 0, se trouvant sous la diagonale OC . Le nombre Sq,p = ps=1 [sq/p]
représente donc le nombre de points à coordonnées entières d'ordonnées > 0 dans le rectangle
OP RQ se trouvant sous la diagonale OC . Pour des raisons analogues, Sp,q représente le nombre
de points à coordonnées entières d'abscisse > 0 dans le rectangle OP RQ se trouvant au dessus
de la diagonale OC . La somme Sp,q + Sq,p est donc le nombre de points à coordonnées entières
dans le rectangle OP RQ d'abscisse et d'ordonnées > 0, c'est-à-dire Sp,q + Sq,p = p q  .

B C
q

Q
q
R

P A
O p p

Figure 1. La diagonale OC sépare les points de OP RQ en deux régions.


b) Lorsque s ∈ N, 1 ≤ s ≤ p , on écrit sq = p[sq/p] + us , où 1 ≤ us ≤ p − 1. On a la propriété
suivante :
Si us ≤ p , us = sq et es (q) = 1 ; si us > p , us = p − sq et es (q) = −1.
Par sommation de l'égalité sq = p[sq/p] + us on obtient
p

 p 

  p

 p


sq
sq = p + us = pSq,p + us . (∗)
p
s=1 s=1 s=1 s=1
Par ailleurs, en travaillant modulo 2 on a
p 
    
us ≡ sq + (p − sq ) ≡ s q + µq p + sq (mod 2),
s=1 es (q)=1 es (q)=−1 es (q)=1 es (q)=−1
p  p
 
≡ s q + µq p ≡ s + µq (mod 2).
s=1 s=1
En injectant ceci dans l'identité (∗) on obtient
p p  p 
  
q s ≡ pSq,p + s + µq ≡ Sq,p + s + µq (mod 2).
s=1 s=1 s=1
52 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX

Comme q ≡ 1 (mod 2) ce résultat entraîne que Sq,p et µq ont la même parité.


c) D'après 4/b), Sq,p et µq ont la même parité ; pour les mêmes raisons, Sp,q et µp ont également
même parité. Donc d'après 3/b)
  
p q  
= (−1)µp (−1)µq = (−1)Sp,q +Sq,p = (−1)p q ,
q p
cette dernière égalité provenant de 4/a).
5/a) Condition nécessaire. Comme m ≥ 2, n = (n − 1)/2 est pair, donc d'après la loi de
réciprocité quadratique    
p n
= = −1,
n p
ce qui d'après 2/a) entraîne p(n−1)/2 ≡ −1 (mod n).
Condition susante. Soit q un facteur premier de n (q = p car p ∧ n = 1). On a
p(n−1)/2 ≡ −1 (mod q), pn−1 ≡ 1 (mod q), pq−1 ≡ 1 (mod q).
En désignant par d l'ordre de ṗ dans (Z/qZ)∗ , on a donc
n−1
d , d | (n − 1) et d | q − 1.
2
Les deux premières assertions s'écrivent aussi d  2m−1 h et d | 2m h, donc 2m | d et 2m | (q − 1).
Soit x ∈ N∗ tel que q = 2m x + 1. Si r est tel que n = qr, de n ≡ 1 ≡ q (mod 2m ) on tire r ≡ 1
(mod 2m ) donc il existe y ∈ N, r = 2m y + 1. Donc
n = qr = (2m x + 1)(2m y + 1) = 2m (2m xy + x + y) + 1
d'où on tire 2m xy < 2m xy + x + y = h < 2m , donc y = 0, et donc n = q est premier.
b) On veut appliquer le test précédent avec h = 1 et m = 2k ≥ 2. Comme 2m ≡ (−1)m ≡ 1
(mod 3), on a n ≡ 2 (mod 3) donc ( n3 ) = −1 comme on le vérie facilement. Le test précédent
s'applique donc (avec p=3), d'où le résultat.
6/a) D'après la loi de réciprocité quadratique
      
3 p  3  p
= (−1)1×p donc = (−1)p .
p 3 p 3
On a donc, en utilisant 2/a) et 2/b)
        
−3 −1 3 p p p p
= = (−1) (−1) = . (∗∗)
p p p 3 3
Si p ≡ 1 (mod 3), alors ( p3 ) = 1 ; si p ≡ 2 (mod 3), alors ( p3 ) = −1. D'après (∗∗), −3̇ est donc
un carré dans Fp si et seulement si p ≡ 1 (mod 3), autrement dit si et seulement si p = 1 + 3k
avec k ∈ N∗ , ou encore p = 1 + 6n avec n ∈ N∗ car k doit être pair.
Supposons qu'il y ait un nombre ni de nombres premiers de la forme 1 + 6n. Nous les notons
p1 , · · · , pk . On pose N = 1 + 22 3(p1 · · · pk )2 . Soit p un nombre premier divisant N . Comme
6 | N − 1, on a p > 3. Par ailleurs
−1 ≡ 22 3(p1 · · · pk )2 (mod p) donc − 3 ≡ (2 · 3 · p1 · · · pk )2 (mod p),
donc −3̇ est un carré dans Fp , donc p ≡ 1 (mod 6), donc il existe i tel que p = pi . Mais alors
p | N − 1, ce qui est absurde puisque p = pi divise N . D'où le résultat.
b) D'après la loi de réciprocité quadratique
      
5 p  5 p
= (−1)2p = 1 donc = . (∗∗∗)
p 5 p 5
On vérie facilement que les carrés dans F∗5 sont −1̇ et 1̇. D'après (∗∗∗), 5 est donc un carré dans
Fp si et seulement si p ≡ ±1 (mod 5), c'est-à-dire p = ±1 + 5k , k ∈ N∗ , où encore p = ±1 + 10n,
n ∈ N∗ car k doit être pair pour que p soit premier.
5. SUJETS D'ÉTUDE 53

Supposons qu'il y ait un nombre ni de nombres premiers de la forme 10n − 1, n ∈ N∗ . Nous
les notons p1 , · · · , pk . Posons N = −1 + 22 32 5(p1 · · · pk )2 . Soit p un nombre premier divisant N .
Comme (2 · 3 · 5) | N + 1, p > 5. Par ailleurs,
1 ≡ 22 32 5(p1 · · · pk )2 (mod p) donc 5 ≡ (2 · 3 · 5p1 · · · pk )2 (mod p),

donc 5̇ est un carré dans Fp . Donc p ≡ ±1 (mod 10). Si p ≡ −1 (mod 10), alors il existe i tel
que p = pi et donc p | N + 1, ce qui est absurde puisque p | N . Nous venons donc de montrer
que tout diviseur premier p de N vérie p ≡ 1 (mod 10), ce qui en écrivant la décomposition
en facteurs premiers de N entraîne N ≡ 1 (mod 10). Ceci est absurde puisque la forme de N
entraîne N ≡ −1 (mod 10). Il y a donc une innité de nombres premiers de la forme 10n − 1,
n ∈ N∗ .
Remarque. On retrouve avec la question 2/b) le résultat 1/a) du problème 5 (page 40).
Le résultat de 6/a) est un cas particulier de la question 2/ de ce même problème.
 Les nombres de Fermat Fk sont premiers pour k ≤ 4. On n'a jusqu'ici jamais trouvé
d'autres nombres de Fermat premiers, et on ne sait pas s'il y en a. On sait que Fk n'est
pas premier pour 5 ≤ k ≤ 32. Le test de Pépin a été utilisé en 1999 pour montrer que F24
n'est pas premier.

Sujet d'étude 3 (Sur les entiers somme de deux carrés). Le but de ce sujet
d'étude est de donner une condition nécessaire et susante sur n pour qu'un entier n soit
somme de deux carrés.
On note A2 = {x2 + y 2 | (x, y) ∈ Z2 }. On suppose connu le résultat 1/a) du problème 3 :
Si p > 2 est premier, alors
−1̇ est un carré dans Z/pZ ⇐⇒ p≡1 (mod 4) (∗).

1/ Si X et Y appartiennent à A2 , montrer que XY ∈ A2 .


2/ Soit p un nombre premier tel que p ≡ 1 (mod 4).
a) Montrer qu'il existe un entier m, 1 ≤ m < p, tel que mp ∈ A2 .
b) Soit m0 = inf{m ∈ N∗ | mp ∈ A2 }. Supposons m0 > 1. Montrer qu'il existe deux
entiers x1 et y1 tels que x21 + y12 = m1 m0 , avec m1 un entier vériant 1 ≤ m1 < m0 .
c) Montrer qu'il existe deux entiers X et Y tels que X 2 + Y 2 = m1 p. Conclure.
3/ Démontrer le résultat suivant : Un entier n > 0 est somme de deux carrés d'entiers si
et seulement si tous les facteurs premiers de n de la forme 4m+3, m ∈ N, ont un exposant
pair dans la décomposition en facteurs premiers de n.

Solution. 1/ Soit X = x21 + x22 et Y = y12 + y22 deux éléments de A2 . On peut écrire X et Y
comme le carré des modules des nombres complexes x = x1 + ix2 et y = y1 + iy2 . Il sut ensuite
de remarquer que XY = |xy|2 = (x1 x2 + y1 y2 )2 + (x1 y2 − x2 y1 )2 .
2/a) D'après (∗), −1̇ est un carré dans Z/pZ. Autrement dit, il existe x ∈ Z,tel que −1 ≡ x2
(mod p). On peut même choisir x tel que 0 ≤ x ≤ p − 1. Comme x2 + 1 ≡ 0 (mod p), il existe
m ∈ Z tel que x2 + 1 = mp, et comme 0 ≤ x ≤ p − 1, on a 0 < m < p, d'où le résultat.
b) Par hypothèse, il existe x, y ∈ Z tels que x2 + y2 = m0 p (∗∗). Si m0 divise x et y , alors
m20 | (x2 + y 2 ) donc m0 | p, ce qui est absurde puisque 1 < m0 ≤ m < p. Donc m0 ne divise pas
x ou ne divise pas y . En désignant par c et d les entiers les plus proches de x/m0 et y/m0 , les
entiers x1 = x − cm0 et y1 = y − dm0 vérient
1 1
|x1 | ≤ m0 , |y1 | ≤ m0 et x21 + y12 > 0.
2 2
54 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX

Or x1 ≡ x (mod m0 ) et y1 ≡ y (mod m0 ) donc x21 + y12 ≡ x2 + y 2 ≡ 0 (mod m0 ), et donc il


existe m1 ∈ N tel que x21 + y12 = m1 m0 . Comme x21 + y12 > 0, m1 > 0. Par ailleurs, x21 + y12 ≤
(m0 /2)2 + (m0 /2)2 = m20 /2 donc m1 < m0 .
c) Multipliant (∗∗) par l'égalité x21 + y12 = m1 m0 , on obtient
m20 m1 p = (x2 + y 2 )(x21 + y12 ) = (xx1 + yy1 )2 + (xy1 − x1 y)2 .
Mais

xx1 + yy1 = x(x − cm0 ) + y(y − dm0 ) = m0 X avec X = p − cx − dy ∈ Z
xy1 − x1 y = x(y − dm0 ) − y(x − cm0 ) = m0 Y avec Y = cy − dx ∈ Z/
Donc m1 p = X 2 + Y 2 ∈ A2 . Or 1 ≤ m1 < m0 ce qui est contraire à l'hypothèse de minimalité
faite sur m0 . Donc m0 = 1, c'est-à-dire p ∈ A2 .
3/ Condition nécessaire. Soit n = x2 + y2 (avec x, y ∈ Z) et p un facteur premier de n tel que son
exposant dans la décomposition de n en facteurs premiers soit impair. Notons d = pgcd (x, y). Les
nombres X = x/d et Y = y/d sont des entiers qui vérient X ∧ Y = 1. Comme n = d2 (X 2 + Y 2 )
et que l'exposant de p dans la décomposition de n en facteurs premiers est impair, on a forcément
p | X 2 + Y 2 . Or p  X (sinon p | X donc p | Y , absurde car X ∧ Y = 1), Ẋ est donc non nul dans
Z/pZ. Comme Ẋ 2 + Ẏ 2 = 0̇ dans Z/pZ, on a −1̇ = (Ẋ −1 Y )2 donc −1̇ est un carré dans Z/pZ,
donc p = 2 ou p ≡ 1 (mod 4) d'après (∗). D'où la condition nécessaire.
Condition susante. Soient p1 , . . . , pk les facteurs premiers de n dont l'exposant dans la décom-
position en facteurs premiers de n est impair. On peut écrire n = m2 p1 · · · pk , où m ∈ N∗ . Par
hypothèse, pour tout i on a pi ≡ 3 (mod 4), ce qui, les pi étant des nombres premiers, entraîne
pi ≡ 1 (mod 4) ou pi = 2. Donc pi ∈ A2 (d'après 2/ et parce que 2 = 12 +12 ∈ A2 ). Donc d'après
1/, p1 · · · pk ∈ A2 . Or m2 = m2 + 02 ∈ A2 , et toujours d'après 1/, n = (m2 )(p1 · · · pk ) ∈ A2 .
D'où le résultat.
Remarque. Ce résultat fut complété par Jacobi qui montra que si d1 (n) (resp. d3 (n))
désigne le nombre de diviseurs de n de la forme 4n + 1 (resp. 4n + 3), alors
 
Card{(x, y) ∈ Z2 | n = x2 + y 2 } = 4 d1 (n) − d3 (n) .

Sujet d'étude 4 (Tout entier est somme de quatre carrés). Le but de ce


sujet d'étude est de montrer que tout entier naturel est somme de quatre carrés. On note
A4 = {x2 + y 2 + z 2 + t2 | (x, y, z, t) ∈ Z4 } et Z[i] = {x + iy | (x, y) ∈ Z2 } (anneau des
entiers de Gauss).
1/ Soient x, y, z et t des nombres complexes. Vérier que
(|x|2 + |y|2 )(|z|2 + |t|2 ) = |xz + yt|2 + |xt − yz|2 .
En déduire que si X et Y ∈ A4 , alors XY ∈ A4 .
2) Soit p > 2 un nombre premier.
a) Montrer qu'il existe x, y ∈ Z tels que −1 ≡ x2 + y2 (mod p). (On pourra utiliser le
résultat de la question 1/ du sujet d'étude 2 page 49).
b) En déduire qu'il existe m ∈ N, 1 ≤ m < p tel que mp ∈ A4 .
Soit m0 le plus petit entier > 0 tel que m0 p ∈ A4 . Supposons m0 > 1.
c) Montrer que m0 est impair.
d) Montrer qu'il existe x, y ∈ Z[i] tel que m0 p = |x|2 + |y|2 .
e) Montrer qu'il existe c et d ∈ Z[i] tels que z = x − cm0 et t = y − dm0 vérient
|z|2 + |t|2 = m0 m1 avec 1 ≤ m1 < m0 .
f) En utilisant 1/, montrer que m1 p ∈ A4 . Conclure.
5. SUJETS D'ÉTUDE 55

3/ En déduire le théorème de Lagrange : tout entier naturel est somme de quatre carrés
d'entiers.
Solution. 1/ Pour la première partie de la question, il sut d'écrire
|xz + yt|2 + |xt − yz|2 = (xz + yt)(xz + yt) + (xt − yz)(xt − yz)
= (|xz|2 + |yt|2 + xzyt + xzyt) + (|xt|2 + |yz|2 − xtyz − xtyz)
= |xz|2 + |yt|2 + |xt|2 + |yz|2 = (|x|2 + |y|2 )(|z|2 + |t|2 ).
Maintenant, considérons X = x21 + x22 + x23 + x24 et Y = y12 + y22 + y32 + y42 deux éléments de A4 .
Appliquons la relation précédente avec x = x1 + ix2 , y = x3 + ix4 , z = y1 + iy2 et t = y3 + iy4 .
On a X = |x|2 + |y|2 et Y = |z|2 + |t|2 . Le carré du module d'un élément de Z[i] étant la somme
de deux carrés d'entiers, on en déduit que XY = |xz + yt|2 + |xt − yz|2 est somme de quatre
carrés d'entiers, d'où le résultat.
2/a) D'après la question 1/ du sujet d'étude 2, on a Card{x2 | x ∈ (Z/pZ)∗ } = (p − 1)/2. En
comptant 0̇, on voit donc que Γ = {x2 | x ∈ Z/pZ} a (p + 1)/2 éléments. De l'injectivité de
l'application Z/pZ → Z/pZ y → −1−y , on voit que Γ = {−1−y 2 | y ∈ Z/pZ} a aussi (p+1)/2
éléments. Donc Γ∩Γ = ∅ (car si Γ∩Γ = ∅, alors p = Card(Z/pZ) ≥ Card(Γ)+Card(Γ ) = p+1,
absurde), ce qui entraîne l'existence de x, y ∈ Z/pZ tels que −1̇ − y 2 = x2 , d'où le résultat.
b) D'après la question précédente, il existe x, y ∈ Z tels que −1 ≡ x2 + y2 (mod p). On peut
même supposer 0 ≤ x < p et 0 ≤ y < p, et quitte à changer x en p − x, y en p − y , supposer
0 ≤ x ≤ (p − 1)/2 et 0 ≤ y ≤ (p − 1)/2. Comme p | 1 + x2 + y 2 , il existe m ∈ Z tel que
1 + x2 + y 2 = mp. Donc 0 < mp ≤ 1 + 2( p−1 2 ) < p , d'où 1 ≤ m < p.
2 2

c) Supposons m0 pair. Soient x1 , x2 , x3 , x4 ∈ Z tels que m0 p = x21 + x22 + x23 + x24 . Comme m0
est pair, les éléments x1 , x2 , x3 , x4 sont (i) soit tous pairs, (ii) soit tous impairs, (iii) soit deux
d'entre eux sont pairs et deux sont impairs, et quitte à renuméroter, on peut supposer x1 , x2
pairs et x3 , x4 impairs. Dans tous les cas, les éléments
x 1 − x2 x 1 + x2 x 3 − x4 x 3 + x4
, , ,
2 2 2 2
sont des entiers. Comme
 2  2  2  2
m0 x1 − x 2 x1 + x 2 x3 − x 4 x3 + x 4
p= + + + ,
2 2 2 2 2
l'hypothèse de minimalité de m0 est contredite. Donc m0 est impair.
d) Si x1 , x2 , x3 , x4 ∈ Z sont tels que m0 p = x21 +x22 +x23 +x24 , si x = x1 +ix2 et y = x3 +ix4 ∈ Z[i],
alors m0 p = |x|2 + |y|2 .
e) Montrons auparavant le résultat suivant :
1
∀Z = a + ib ∈ C, ∃Z  ∈ Z[i] tel que |Z − Z  |2 ≤ . (∗)
2
Il sut en eet de prendre Z  = a + ib où a et b sont des entiers tels que |a − a | ≤ 1/2 et
|b − b | ≤ 1/2. On a alors |Z − Z  |2 = |a − a |2 + |b − b |2 ≤ (1/2)2 + (1/2)2 = 1/2.
D'après (∗), il existe c ∈ Z[i] tel que |x/m0 − c|2 ≤ 1/2. Autrement dit, si z = x − m0 c, on a
|z|2 ≤ m20 /2. Comme |z|2 est un entier et que m0 est impair, on a même |z|2 < m20 /2. De même,
il existe d ∈ Z[i] tel que t = y − dm0 vérie |t|2 < m20 /2. Or
|z|2 + |t|2 = |x|2 + |y|2 − m0 [(xc + xc) + (yd + yd)] = m0 (p − [(xc + xc) + (yd + yd)],
donc m0 divise |z|2 + |t|2 . Soit m1 ∈ N tel que |z|2 + |t|2 = m1 m0 . On tire des majorations de |z|2
et |t|2 que m1 < m0 . Par ailleurs m1 > 0 car si m1 = 0, alors z = t = 0 donc x = cm0 et y = dm0
donc pm0 = |x|2 + |y|2 = |m0 |2 (|c|2 + |d|2 ), donc m0 | p ce qui est absurde car 1 < m0 < p
(d'après 2/a)). Donc 1 ≤ m1 < m0 d'où le résultat.
f) En multipliant les égalités m0 p = |x|2 + |y|2 et m0 m1 = |z|2 + |t|2 , on obtient d'après 1/
m20 m1 p = |xz + yt|2 + |xt − yz|2 . (∗∗)
56 1. ARITHMÉTIQUE, GROUPES ET ANNEAUX

Or
xz + yt = x(x − cm0 ) + y(y − dm0 ) = |x|2 + |y|2 − m0 (xc + yd) = m0 α, α = p − xc − yd ∈ Z[i].
Par ailleurs, xt − yz = −dm0 x + cm0 y = m0 β où β = −dx + cy ∈ Z[i]. D'après (∗∗), on peut
écrire m1 p = |α|2 + |β|2 , et comme le carré du module d'un élément de Z[i] est la somme de deux
carrés d'entiers, m1 p ∈ A4 . Ceci contredit l'hypothèse de minimalité faite sur m0 . On a donc
m0 = 1, c'est-à-dire p ∈ A4 .
3/ D'après 2/, tout nombre premier p > 2 est somme de quatre carrés. Il en est de même
de p = 2 = 12 + 12 + 02 + 02 . Tout nombre premier est donc élément de A4 . Si n est un
entier, n peut s'écrire comme le produit de nombres premiers d'après le théorème fondamental
de l'arithmétique, et donc n ∈ A4 d'après 1/. D'où le résultat.
Remarque. Il faut au minimum additionner quatre carrés d'entiers pour représenter tout
entier naturel n, comme le montre le cas de n = 7.
 On peut se poser le problème plus général suivant. Étant donné un entier k ≥ 2, que
vaut g(k), le plus petit entier m > 0 tel que tout entier est somme de m puissances k -ièmes
d'entiers, et que vaut G(k), le plus petit entier m > 0 tel que tout entier susamment
grand est somme de m puissances k -ièmes d'entiers ? La recherche (et l'existence) de g(k)
et G(k) s'appelle le problème de Waring. Nous venons de montrer que g(2) = 4. On peut
montrer que G(2) = 4. On sait par exemple que g(3) = 9 et 4 ≤ G(3) ≤ 7, g(4) = 19 et
G(4) = 16, g(5) = 37 et 6 ≤ G(5) ≤ 17.
Chapitre 2

Corps, Polynômes et Fractions Rationnelles

H istoriquement, la recherche des solutions des équations polynomiales pré-


cède l'étude des polynômes. Elle marque l'entrée des mathématiques dans une
nouvelle ère. En eet, la première en date des grandes découvertes en ma-
thématiques allant nettement au delà des connaissances de l'antiquité est la
formule de résolution de l'équation du troisième degré x3 − px = q obtenue
sans doute au début du seizième siècle par Scipione del Ferro, professeur à
l'université de Bologne. Cardan est le premier à rendre publique cette formule
vers 1545. Vers 1540, Ferrari, élève de Cardan, obtient la formule de résolu-
tion de l'équation du quatrième degré. L'équation du cinquième degré tient
cependant les mathématiciens en échec pendant 200 ans ; ce n'est qu'en 1826
qu'Abel démontre qu'il est impossible de donner des formules explicites de
type de celles données pour les degrés inférieurs pour les solutions des équa-
tions de degré supérieur ou égal à 5. Quelques années plus tard, Galois donne
un critère de résolubilité par radicaux de toutes les équations polynomiales.
La théorie des polynômes est née.
Parallèlement, on essaye de démontrer le théorème fondamental de l'Al-
gèbre (tout polynôme complexe de degré n a n racines complexe). On s'y at-
taque vers 1746, d'abord en essayant de donner une démonstration purement
algébrique, avant de s'apercevoir qu'il fallait utiliser les propriétés topologiques
de R. Lagrange en publia une démonstration dans ses mémoires en 1771.

1. Corps, polynômes et arithmétique dans K[X]


1.1. Corps
Définition 1. Soit K un ensemble muni de deux lois internes  + et  ·. On dit que
(K, +, ·) est un corps si
(i) (K, +) est un groupe abélien.
(ii) (K∗ , ·) est un groupe.
(iii) La loi · est distributive par rapport à la loi +.
Remarque 1.  Si la loi · est commutative, on parle de corps commutatif.
 Il revient au même de dire qu'un corps est un anneau unitaire dans lequel tout
élément non nul est inversible.
 Les corps les plus couramment rencontrés sont Q, R, C et Z/pZ (p premier).
Définition 2. Soit (L, +, ·) un corps et K ⊂ L. On dit que K est un sous-corps de L si
la restriction à K des lois + et · lui confère une structure de corps (on dit aussi que L est
un surcorps ou une extension de K).
Remarque 2. Si K est un sous-corps commutatif de L, L est un K-espace vectoriel.
Avec la dénition de la caractéristique d'un anneau donnée page 32, on a :
Proposition 1. La caractéristique d'un corps est 0 ou un nombre premier.
Démonstration. Immédiat car un corps est un anneau unitaire intègre (cf. proposition 3 p. 32) 
58 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES

Exemple 1. Les corps Q, R et C sont de caractéristique 0 ; si p est un nombre premier, le


corps Z/pZ est de caractéristique p.
Corps premier, sous-corps premier.
Définition 3. Un corps est dit premier s'il n'admet pas d'autres sous-corps que lui même.
Exemple 2. Les corps Q, Z/pZ (où p est un nombre premier) sont premiers.
Définition 4. Soit (K, +, ·) un corps dont l'élément neutre de (K∗ , ·) est noté e.
 Si K est de caractéristique 0, alors Q1 = { me
ne
, (n, m) ∈ Z×Z∗ } est un corps premier
isomorphe à Q. C'est le sous-corps premier de K.
 Si K est de caractéristique p premier, l'application f : Z → K n → ne est un
morphisme d'anneaux et Ker f = pZ. Donc Z/ Ker f = Z/pZ est isomorphe à
K = f (Z), donc K est un corps premier. C'est le sous-corps premier de K.
Exemple 3. Le corps Q est le sous-corps premier de R (ou de C). Le corps Z/pZ est le
sous-corps premier de Z/pZ (où p est un nombre premier).
1.2. Polynômes
Définition 5. Soit A un anneau commutatif unitaire. On appelle polynôme à une indé-
terminée à coecients dans A toute suite (an )n∈N d'éléments de A tous nuls à partir d'un
certain rang.
Les polynômes sont munis des opérations usuelles d'addition et de produit de poly-
 tout polynôme P = (ai )i∈N à une indéterminée à coecients
nômes. On rappelle que
dans A s'écrit P = i∈N ai X i où X désigne la suite X = (0, 1, 0, · · · , 0, · · · ) et où 1
désigne l'élément neutre de A pour la multiplication. On appelle degré de P , l'entier
deg(P ) = max{i ∈ N | ai = 0} (par convention deg(P ) = −∞ si P = 0). L'ensemble
des polynômes à une indéterminée à coecients dans A est noté A[X]. C'est un anneau
commutatif unitaire, intègre si A est un anneau intègre. Si A = K est un corps, K[X] est
un K-espace vectoriel.
Définition 6. Soit A un anneau commutatif unitaire.
 On dit que P, Q ∈ A[X] sont associés s'il existe λ ∈ A inversible tel que P = λQ.
 On dit que P ∈ A[X] est unitaire si son coecient dominant (i. e. le coecient du
monôme de plus haut degré de P ) est égal à l'élément neutre 1 de la multiplication.
1.3. Arithmétique dans K[X]
Dans toute cette section, K désigne un corps commutatif.
Le caractère euclidien (donc principal) de l'anneau des polynômes K[X] lui confère
une structure arithmétique tout-à-fait analogue à celle sur les entiers. Pour cette raison,
nous ne passerons en revue que les propriétés arithmétiques de K[X] les plus importantes.
 Théorème 1 (Division euclidienne). Soient A, B ∈ K[X], B = 0. Alors
∃!(Q, R) ∈ K[X] 2
tel que A = BQ + R avec deg(R) < deg(B).
Remarque 3. Dans le cas de A[X] où A est un anneau commutatif unitaire, si le coecient
dominant de B est inversible, alors
(∃(Q, R) ∈ A[X]2 ), A = BQ + R avec deg(R) < deg(B).
Si de plus A est intègre, il y a unicité du couple (Q, R). Ceci est en particulier vrai sur
Z[X] si B est unitaire.

 Théorème 2. L'anneau K[X] est principal.


1. CORPS, POLYNÔMES ET ARITHMÉTIQUE DANS K[X] 59

Remarque 4. Ceci est faux sur A[X] lorsque A n'est pas un corps (voir l'exercice 1).
Définition 7. Soient P1 , . . . , Pn des polynômes de K[X]. L'unique polynôme unitaire P
engendrant l'idéal (P1 ) + · · · + (Pn ) s'appelle le pgcd des polynômes P1 , . . . , Pn . Il est noté
pgcd (P1 , . . . , Pn ). C'est aussi le diviseur unitaire de plus haut degré divisant tous les Pi .
Définition 8. Des polynômes P1 , . . . , Pn ∈ K[X] sont dits premiers entre eux dans leur
ensemble si on a pgcd(P1 , . . . , Pn ) = 1. Ils sont dits premiers entre eux deux à deux si
∀i = j, pgcd(Pi , Pj ) = 1.
On dénit également, comme dans Z, la notion de ppcm de n polynômes.
Théorème 3 (Bezout). Des polynômes P1 , . . . , Pn ∈ K[X] sont premiers entre eux dans
leur ensemble si et seulement s'il existe U1 , . . . , Un ∈ K[X] tels que U1 P1 + · · · + Un Pn = 1.
Remarque 5.  Lorsque P, Q ∈ K[X] sont premiers entre eux, on peut même avoir
U P + V Q = 1 avec deg(U ) < deg(Q) et deg(V ) < deg(P ) (voir la remarque de
l'exercice 3, page 60).
 Comme dans Z, il découle du théorème de Bezout le théorème de Gauss : Si P | QR
et si pgcd (P, Q) = 1, alors P | R.
Ce qui dans Z joue le rôle des nombres premiers est ici appelé polynôme irréductible.
Plus précisément :
Définition 9. Un polynôme P ∈ K[X] est dit irréductible dans K[X] si P n'est pas
constant (i. e. deg(P ) ≥ 1) et si ses seuls diviseurs dans K[X] sont les constantes non
nulles et les polynômes associés à P .
Remarque 6. Attention. Un polynôme irréductible dans K[X] ne l'est pas forcément dans
L[X] où L est un surcorps de K. Par exemple, P = X 2 + 1 est irréductible dans R[X],
mais pas dans C[X] puisque P = (X − i)(X + i).
Comme dans Z, on a le résultat suivant.
 Théorème 4. Soit P ∈ K[X] un polynôme non nul. Alors P se décompose de manière
unique à l'ordre prés sous la forme
P = λP1α1 · · · Pkαk
où λ ∈ K∗ , αi ∈ N∗ et les Pi des polynômes distincts, unitaires et irréductibles dans K[X].
Rappelons enn le théorème de division selon les puissances croissantes (l'algorithme
associé peut être utilisé sur une fraction rationnelle, pour calculer son développement
limité, ou pour calculer la partie principale relative à un pôle multiple dans sa décompo-
sition en éléments simples, dont un exemple est donné page 76).
Théorème 5 (Division selon les puissances croissantes). Soient A, B ∈ K[X],
le coecient du terme constant de B étant non nul. Soit k ∈ N∗ . Alors
(∃!(Qk , Rk ) ∈ K[X]2 ), A = BQk + X k+1 Rk avec deg(Qk ) ≤ k.
1.4. Exercices
Exercice 1. Soit A un anneau commutatif unitaire intègre. Montrer que A est un corps
si et seulement si A[X] est un anneau principal.
Solution. La condition nécessaire est une question de cours. Montrons la condition susante.
Soit a ∈ A, a = 0. Il s'agit de montrer que a est inversible. Comme A[X] est principal, il existe
P ∈ A[X] tel que (a) + (X) = (P ). Comme a ∈ (P ), il existe Q ∈ A[X] tel que a = P Q. On en
déduit, A[X] étant intègre, que P ∈ A.
60 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES

Comme P ∈ (a) + (X), il existe U et V ∈ A[X] tels que aU + XV = P . Si b ∈ A désigne le


coecient du terme constant de U , on en déduit ab = P puisque P est constant.
Comme X ∈ (P ), il existe Q ∈ A[X] tel que P Q = X . Si c ∈ A désigne le coecient du
terme en X de Q, on a donc P c = 1. Finalement, on a abc = P c = 1, et A étant commutatif,
a(bc) = (bc)a = 1 donc a est inversible. D'où le résultat.

Exercice 2. Soient A = X a − 1 et B = X b − 1 ∈ K[X], avec a, b ∈ N∗ . Quel est le pgcd


de A et de B ?
Solution. Nous allons déterminer pgcd (A, B) grâce à l'algorithme d'Euclide. Rappelons en le
principe. On eectue à partir de A et B des divisions euclidiennes successives. On écrit
A = BQ0 + R0 avec Q0 , R0 ∈ K[X] et deg(R0 ) < deg(B),
et on recommence, en divisant toujours le dividende par le reste :
B = R0 Q1 + R1 avec Q1 , R1 ∈ K[X] et deg(R1 ) < deg(R0 ).
Au rang k, on fait
Rk−1 = Rk Qk+1 + Rk+1 avec Qk+1 , Rk+1 ∈ K[X] et deg(Rk+1 ) < deg(Rk ).
La suite (deg(Rk ))k∈N décroît strictement et donc il existe n ∈ N∗ tel que Rn = 0 et Rn−1 = 0.
On remarque alors que pgcd (A, B) = pgcd (B, R0 ) = · · · = pgcd (Rn−1 , Rn ), de sorte qu' a une
constante multiplicative près, pgcd (A, B) = Rn−1 (cet algorithme reste valable dans Z).
Avant d'appliquer l'algorithme, remarquons d'abord que si m ≥ n ∈ N∗ et si m = nq + r est
la division euclidienne dans Z de m par n, on a
X m − 1 = (X n − 1)(X m−n + X m−2n + · · · + X m−qn ) + (X m−qn − 1).
Comme m − qn = r < m, cette égalité constitue la division euclidienne de X m − 1 par X n − 1.
Nous venons donc de montrer que
le reste de la division euclidienne de X m − 1 par X n − 1 est X r − 1 où r est
le reste de la division euclidienne de m par n. (∗)
Appliquons l'algorithme d'Euclide (dans Z) à a et b :
a = bq0 + r0 , 0 ≤ r0 < b,
b = r0 q1 + r1 , 0 ≤ r1 < r0 ,
···
rk−1 = rk qk+1 + rk+1 , 0 ≤ rk+1 < rk .
On s'arrête au rang n lorsque rn = 0 = rn−1 . Comme pour les polynômes, on a
pgcd (a, b) = pgcd (b, r0 ) = · · · = pgcd (rn−1 , rn ) = rn−1 .
D'après le principe (∗), si les Rk désignent les polynômes introduits plus haut, on a R0 =
X r0 − 1, R1 = X r1 − 1, · · · , Rn−1 = X rn−1 − 1, Rn = 0. Donc pgcd(A, B) = Rn−1 = X rn−1 − 1 =
X pgcd(a,b) − 1.

Exercice 3. Déterminer l'ensemble des polynômes P ∈ R[X] tels que


P ≡1 (mod (X − 1) ) et P ≡ −1
3
(mod (X + 1)3 ).

Solution. Notons Γ l'ensemble des polynômes P vériant la condition requise. Un polynôme P


appartient à Γ si et seulement s'il existe U, V ∈ R[X] tels que
 
P = 1 + U (X − 1)3 P = 1 + U (X − 1)3
ou encore .
P = −1 + V (X + 1)3 1 + U (X − 1)3 = −1 + V (X + 1)3
1. CORPS, POLYNÔMES ET ARITHMÉTIQUE DANS K[X] 61

En d'autres termes, Γ représente l'ensemble des polynômes de la forme 1 + U (X − 1)3 où U


appartient à l'ensemble
∆ = {U ∈ R[X] | ∃V ∈ R[X], U (X − 1)3 + V (X + 1)3 = 2}. (∗)
Au facteur 2 près, on est ramené au problème de trouver les couples (U, V ) tels que U (X − 1)3 +
V (X + 1)3 = 1. C'est un problème classique qui rentre dans le cadre du résultat suivant.
Lemme. Soient P, Q ∈ K[X], premiers entre eux. Alors il existe (U0 , V0 ) ∈ K[X]2 tel que
U0 P + V0 Q = 1, et les couples (U, V ) solution de U P + V Q = 1 vérient :
U P + V Q = 1 (U, V ∈ K[X]) ⇐⇒ ∃R ∈ K[X], U = U0 + RQ, V = V0 − RP.
Preuve. L'existence de (U0 , V0 ) est assurée par le théorème de Bezout. Si U P + V Q = 1 on a
(U − U0 )P + (V − V0 )Q = 0 donc (U − U0 )P = −(V − V0 )Q. Donc P | (V − V0 )Q et comme P et
Q sont premiers entre eux, d'après le théorème de Gauss, P | V − V0 . Donc il existe R ∈ K[X]
tel que V = V0 − RP , et en remplaçant dans l'équation (U − U0 )P = −(V − V0 )Q, on tire
U = U0 + RQ. Réciproquement, on vérie facilement que ce couple est solution. D'où le lemme.
Les polynômes X − 1 et X + 1 étant premiers entre eux, il en est de même des polynômes
P = (X − 1)3 et Q = (X + 1)3 , et le lemme s'applique donc. On détermine U0 et V0 en
utilisant l'algorithme d'Euclide (déjà rencontré dans l'exercice précédent, et de manière similaire
à l'exercice 2 page 12 dans Z), ce qui donne : .
(X + 1)3 = (X − 1)3 + 6X 2 + 2,
 
X 1 8
(X − 1)3 = (6X 2 + 2) − + X,
6 2 3
  
8 9
6X 2 + 2 = X X + 2.
3 4
Maintenant, on remonte les calculs (la méthode s'appelle algorithme d'Euclide étendu) :
    
X 1 9
2 = (6X 2 + 2) − (X − 1)3 − (6X 2 + 2) − X
6 2 4
    
9 X 1 9
= − X (X − 1)3 + (6X 2 + 2) − X +1
4 6 2 4
   
9 3
 3 3
 3 2 9
= − X (X − 1) + (X + 1) − (X − 1) X − X +1
4 8 8
   
3 9 3 2 9
= − X 2 − X − 1 (X − 1)3 + X − X + 1 (X + 1)3 .
8 8 8 8
Ainsi, les polynômes
3 2 9 1 3 2 9 1
U0 = − X − X− et V0 = X − X+
16 16 2 16 16 2
vérient U0 (X − 1)3 + V0 (X + 1)3 = 1. Le lemme entraîne que l'ensemble déni dans (∗) est égal
à ∆ = {U0 + R(X + 1)3 , R ∈ R[X]}, on a donc
  3 2 9 1
Γ = 1 + (2U0 + R(X + 1)3 )(X − 1)3 | R ∈ R[X] , avec U0 = − X − X− .
16 16 2

Remarque. On peut tirer du lemme un résultat analogue à celui de la question a) de


l'exercice 2 page 12, qui ici s'exprime sous la forme suivante.
Si P et Q ∈ K[X] sont premiers entre eux, alors il existe un unique
couple (U0 , V0 ) ∈ (K[X])2 tel que U0 P + V0 Q = 1 avec deg(U0 ) < deg(Q)
et deg(V0 ) < deg(P ).
(Pour montrer ce résultat, partir d'une solution U P + V Q = 1 puis eectuer la division
euclidienne de U par Q.)
62 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES

Exercice 4 (Lemme de Gauss et critère d'Eisenstein). 1/ a) Soient P, Q ∈ Z[X]


et p un nombre premier. On suppose que p divise tous les coecients du produit P Q.
Montrer que p divise tous les coecients de P ou tous les coecients de Q.
b) (Lemme de Gauss). Si P ∈ Z[X], on note c(P ) le pgcd des coecients de P (et c(P ) = 1
si P = 0). Montrer que si P, Q ∈ Z[X], alors c(P Q) = c(P )c(Q).
2/ Montrer que si Φ ∈ Z[X] est irréductible dans Z[X], il est irréductible dans Q[X].
3/ a) (Critère d'Eisenstein). Soit n ∈ N∗ et P = an X n + · · · + a1 X + a0 ∈ Z[X]. On
suppose qu'il existe un nombre premier p tel que
(i) ∀k, 0 ≤ k ≤ n − 1, p | ak (ii) p  an (iii) p2  a0 .
Montrer que P est irréductible dans Q[X].
b) Application. Soit p un nombre premier et Φ(X) = X p−1 + · · · + X + 1. Montrer que Φ
est irréductible dans Q[X].
Solution. 1/ a) Si a ∈ Z, on note a sa classe dans Z/pZ. Si P = an X n + · · · + a1 X + a0 ∈ Z[X],
on note P = an X n + · · · + a1 X + a0 ∈ Z/pZ[X]. Si p divise tous les coecients de P Q, on a,
avec ces notations : P Q = P · Q = 0. Comme Z/pZ est intègre, Z/pZ[X] est intègre. Donc P = 0
ou Q = 0, d'où le résultat.
Remarque : on peut également résoudre cette question à la main, sans passer par Z/pZ.
b) Soient P, Q ∈ Z[X]. Il est clair que P1 = c(P 1
) P et Q1 = c(Q) Q sont dans Z[X], et on a
1

c(P1 ) = c(Q1 ) = 1. Si c(P1 Q1 ) > 1, alors il existe un nombre premier p divisant c(P1 Q1 ).
D'après 1/a), on a donc p | c(P1 ) ou p | c(Q1 ), ce qui est absurde. Donc c(P1 Q1 ) = 1, ce qui
entraîne c(P Q) = c(P )c(Q)c(P1 Q1 ) = c(P )c(Q).
2/ Soient P, Q ∈ Q[X] tels que Φ = P Q. Soient α, β ∈ N∗ tels que P1 = αP et Q1 = βQ ∈ Z[X].
On a αβΦ = P1 Q1 donc d'après le lemme de Gauss
αβ · c(Φ) = c(P1 )c(Q1 ).
Posons P2 = 1
c(P1 ) P1 et Q2 = c(Q1 ) Q1 .
1
Ces polynômes sont à coecients entiers. Par ailleurs,
αβΦ = c(P1 )c(Q1 )P2 Q2 = αβ · c(Φ)P2 Q2 .
Si P3 = c(Φ)P2 , on a donc Φ = P3 Q2 avec P3 , Q2 ∈ Z[X]. Comme Φ est irréductible dans Z[X],
on a nécessairement deg(P3 ) = 0 ou deg(Q2 ) = 0, donc deg(P ) = 0 ou deg(Q) = 0, ce qui prouve
que Φ est bien irréductible dans Q[X].
3/ a) Supposons P réductible dans Q[X]. D'après la question précédente, Φ est réductible dans
Z[X] et donc il existe Q, R ∈ Z[X] tels que P = QR, avec a = deg(Q) ≥ 1 et b = deg(R) ≥ 1.
 
Dans Z/pZ, on a, d'après les hypothèses, P = an X n . Écrivons Q = ai=0 qi X i et R = bi=0 ri X i .
Dans Z/pZ[X], on a P = QR donc an X n = QR, donc Q = q a X a et R = rb X b . Ceci entraîne
q 0 = r0 = 0, donc p | q0 et p | r0 , donc p2 | q0 r0 = a0 , ce qui est contraire aux hypothèses.
Finalement, P est irréductible dans Q[X].
b) L'astuce est d'utiliser le critère d'Eisenstein en considérant Φ(X +1). L'identité (X −1)Φ(X) =
X p − 1 entraîne X Φ(X + 1) = (X + 1)p − 1, d'où on tire
p  
 p
Φ(X + 1) = X k−1 .
k
k=1

Il est maintenant facile de vérier que Φ(X + 1) satisfait les hypothèses du critère d'Eisenstein
 
avec le nombre premier p (rappelons que si p est premier et si 1 ≤ k ≤ p − 1, alors p | kp ), donc
Φ(X + 1) est irréductible dans Q[X]. Donc Φ(X) est irréductible dans Q[X].
Remarque. Le résultat 3/ b) est un cas particulier d'un résultat général concernant les
polynômes cyclotomiques (voir le problème 10, page 97).
2. FONCTION POLYNÔME, RACINES D'UN POLYNÔME 63

2. Fonction polynôme, racines d'un polynôme


Dans toute cette section, K désigne un corps commutatif.
2.1. Fonction polynôme
Soit A une K-algèbre (c'est-à-dire un K-espace vectoriel muni d'un produit interne 
noté ici multiplicativement  faisant de A un anneau et tel que si λ ∈ K, et x, y ∈ A,
alors λ(xy) = (λx)y = x(λy)) non nécessairement commutative (par exemple A = K,
A = K[X] ou A = Mn (K)).
Pour tout F = a0 + a1 X + · · · + an X n ∈ K[X], on note F l'application
n

F : A → A x → ai xi .
i=0

 Si F, G ∈ K[X], on a F  et F
+ G = F + G  G = FG.

 Si A = K[X], on note F ◦ G = F(G). Pour toute K-algèbre A, on a alors F ◦G=
F ◦ G.
 

Remarque 1. En général il n'y a pas d'ambiguïté, la fonction polynôme x → F(x) est


notée plus simplement x → F (x).
2.2. Racines d'un polynôme
Définition 1. Soit F ∈ K[X] et L une extension de K. On dit que a ∈ L est une racine
(ou un zéro) de F si F (a) = 0.
Proposition 1. Soit a ∈ K et F ∈ K[X]. L'élément a est une racine de F si et seulement
si X − a divise F .
Définition 2. Soit F ∈ K[X], a ∈ K et h ∈ N∗ . On dit que a est une racine d'ordre h
de F si (X − a) | F et (X − a)h+1  F .
h

 Proposition 2. Soit F ∈ K[X] et a1 , . . . , ar ∈ K des racines de F d'ordre h1 , . . . , hr (les


ai étant deux à deux distincts). Alors il existe Q ∈ K[X] tel que
F (X) = (X − a1 )h1 · · · (X − ar )hr Q(X) et ∀i, Q(ai ) = 0.
Conséquence. Si F ∈ K[X] est de degré n ≥ 1, alors F a au plus n racines (comptées avec
leur ordre de multiplicité).
Remarque 2. Attention ! La proposition précédente est fausse lorsque l'on remplace le
corps K par un anneau. Par exemple, dans Z/8Z, le polynôme F = 4̇X ∈ Z/8Z[X] a 3
racines 0̇, 2̇ et 4̇, mais deg(F ) = 1.
Proposition 3. Soit F ∈ K[X] tel que pour tout x ∈ K, F (x) = 0. Si K est inni, on a
F = 0.
Remarque 3. Si K est ni, le résultat précédent est faux. Par exemple, si on note a1 , . . . , an
les éléments de K, le polynôme F = (X − a1 ) · · · (X − an ) est non nul et pourtant tous les
éléments x de K vérient P (x) = 0. Il ne faut donc pas confondre polynôme et fonction
polynôme. Par contre, si K est inni, la proposition précédente nous dit qu'il y a bijection
entre K[X] et les fonctions polynômes de K dans K.
Définition 3. Un polynôme F ∈ K[X] est dit scindé (ou dissocié) sur K si on peut écrire
F = λ(X − a1 )h1 · · · (X − ar )hr
avec λ ∈ K et pour tout i, ai ∈ K et hi ∈ N∗ .
64 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES

Remarque 4. Deux polynômes F et G de K[X] scindés sur K sont premiers entre eux si
et seulement s'ils n'ont aucune racine commune.

Théorème 1 (Relations entre coefficients et racines). Soit un polynôme


P = a0 X n + a1 X n−1 + · · · + an−1 X + an ∈ K[X], a0 = 0,
scindé sur K, dont les racines (comptées avec leur ordre de multiplicité) sont x1 , . . . , xn
(de sorte que P = a0 (X − x1 ) · · · (X − xn )). Alors
 ap
∀p ∈ {1, . . . , n}, σp = xi1 · · · xip = (−1)p .
1≤i <···<i ≤n
a0
1 p

En particulier
n
  n

a1 a2 an
σ1 = xi = − , σ2 = xi xj = , σn = xi = (−1)n .
i=1
a0 1≤i<j≤n
a0 i=1
a0

2.3. Dérivation dans K[X]


Définition 4. Soit F = a0 + a1 X + · · · + an X n ∈ K[X]. On appelle polynôme dérivé de
F le polynôme F  = a1 + 2a2 X + · · · nan X n−1 .
Remarque 5.  Si F est constant, F  = 0. La réciproque est vraie si K est de ca-
ractéristique 0, fausse en caractéristique non nulle (par exemple si F = X 2 + 1̇ ∈
Z/2Z[X], on a F  = 2̇X = 0̇ et pourtant F n'est pas une constante).
 Les règles de dérivations de somme, produit et composée pour les polynômes sont
identiques aux règles de dérivations usuelles sur les fonctions dérivables. D'ailleurs,
sur R[X], la fonction polynôme dérivé coïncide avec la dérivée de la fonction po-
lynôme. Comme pour les fonctions dérivées, on note F  le polynôme dérivé de F  ,
et par récurrence sur n ∈ N∗ on dénit F (n) le polynôme dérivé de F (n−1) .

Théorème 2 (Formule de Taylor). Si le corps K est de caractéristique nulle, tout


polynôme F de K[X] de degré inférieur ou égal à n vérie
(X − a)  (X − a)n (n)
∀a ∈ K, F (X) = F (a) + F (a) + · · · + F (a).
1! n!
Une conséquence importante de la formule de Taylor est la caractérisation de l'ordre
d'une racine :
 Théorème 3. Si le corps K est de caractéristique 0, et si F ∈ K[X], F = 0, alors a ∈ K
est racine d'ordre h de F si et seulement si
(i) ∀i, 0 ≤ i ≤ h − 1, F (i) (a) = 0 (ii) F (h) (a) = 0.
Remarque 6.  Le cas de F = X 3 ∈ Z/3Z[X] et a = 0̇ montre que ceci est faux en
caractéristique non nulle ( a est racine d'ordre 3 de F et pourtant F (3) (a) = 0̇).
 Le résultat du théorème reste vrai en caractéristique quelconque pour caractériser
les racines simples. Plus précisément, on a le résultat suivant.
Si F ∈ K[X], F = 0, et si a ∈ K, alors a est racine simple de F si et
seulement si F (a) = 0 et F  (a) = 0.
En eet. Si F = (X − a)G, alors F  = G + (X − a)G donc F  (a) = G(a) et on en
déduit facilement le résultat.
2. FONCTION POLYNÔME, RACINES D'UN POLYNÔME 65

2.4. Polynômes d'interpolation de Lagrange


Soient a1 , . . . , an ∈ K, deux à deux distincts, et b1 , . . . , bn ∈ K. Nous allons prouver
qu'il existe un unique polynôme L ∈ K[X], deg(L) ≤ n − 1, tel que ∀i, L(ai ) = bi .
 Existence. Pour 1 ≤ i ≤ n, on pose
(X − a1 ) · · · (X − ai−1 )(X − ai+1 ) · · · (X − an )
Li =
(ai − a1 ) · · · (ai − ai−1 )(ai − ai+1 ) · · · (ai − an )
(les polynômes Li s'appellent des polynômes d'interpolation
 de Lagrange ). On a
Li (ai ) = 1 et pour tout j = i, Li (aj ) = 0. Si L = ni=1 bi Li , on a alors L(ai ) =
bi Li (ai ) = bi pour tout i et comme deg(L) ≤ n − 1, L convient.
 Unicité. Supposons que F et G conviennent. On pose H = F − G. Pour tout
i, 1 ≤ i ≤ n, on a H(ai ) = F (ai ) − G(ai ) = bi − bi = 0. Le polynôme H a
donc au moins n racines. Or deg(H) ≤ n − 1, donc d'après la conséquence de la
proposition 2, H = 0, c'est-à-dire F = G.
Remarque 7. Il existe une autre expression utile de L. Posons Φ = (X − a1 ) · · · (X − an )
et pour tout i, 1 ≤ i ≤ n, Φi le polynôme tel que Φ = (X − ai )Φi . Par dérivation, on
obtient Φ = Φi + (X − ai )Φi et donc Φ (ai ) = Φi (ai ), d'où on tire
 n

Φi (X) Φ(X)  bi
Li (X) = = donc L(X) = Φ(X) .
Φi (ai ) (X − ai )Φ (ai ) i=1
(X − ai )Φ (ai )
Remarque 8. Plus généralement, on peut dénir l' interpolation de Hermite en imposant
au polynôme interpolant des conditions sur l'évaluation et les dérivées aux abscisses ai
(voir l'exercice 7 page 70).
2.5. L'anneau quotient K[X]/(P )
Notation. - Si P ∈ K[X], on note (P ) l'idéal (P ) = {P Q | Q ∈ K[X]}.
- Si A, B ∈ K[X], on note A ≡ B (mod P ) lorsque A − B ∈ (P ).
Soit P ∈ K[X], P = 0. Comme (P ) est un idéal de K[X], le quotient K[X]/(P ) dénit
une structure d'anneau (voir la partie 3.2 du chapitre I). Si A ∈ K[X], la classe de A dans
K[X]/(P ) est Ȧ = A + (P ) = {A + P Q | Q ∈ K[X]}. On a par ailleurs
Ȧ = Ḃ ⇐⇒ A ≡ B (mod P ) ⇐⇒ P | (B − A).
Théorème 4. Soit P ∈ K[X], deg(P ) ≥ 1. Alors K[X]/(P ) est une K-algèbre de dimen-
sion nie n = deg(P ). Si on note x = Ẋ , la famille (1, x, . . . , xn−1 ) en est une base.
Démonstration. L'anneau quotient K[X]/(P ) est évidemment une K-algèbre. Montrons que la
famille (1, x, . . . , xn−1 ) en est une base.
- C'est une famille génératrice. En eet. Soit A ∈ K[X]. Il existe Q, R ∈ K[X] tels que
A = P Q + R avec deg(R) < n = deg(P ). Donc Ȧ = Ṙ ∈ Vect(1, x, . . . , xn−1 ).
- C'est une famille libre. Si a0 + a1 x + · · · + an−1 xn−1 = 0̇ , alors le polynôme A = a0 +
a1 X + · · · + an−1 X n−1 vérie Ȧ = 0. Donc P | A, et comme deg(A) < deg(P ), on a A = 0, donc
a0 = a1 = . . . = an−1 = 0. 

Proposition 4. Soit P ∈ K[X], deg(P ) ≥ 1. L'anneau K[X]/(P ) est un corps si et


seulement si P est irréductible.
Démonstration. Condition nécessaire. Si P est réductible, alors il existe Q et R ∈ K[X] tels que
P = QR, avec 1 ≤ deg(Q) < deg(P ) et 1 ≤ deg(R) < deg(P ). Donc 0̇ = Q̇Ṙ avec Q̇ = 0̇ et
Ṙ = 0̇, ce qui est absurde puisque K[X]/(P ) est un corps par hypothèse. Donc P est irréductible.
Condition susante. Supposons P irréductible. Soit A ∈ K[X], Ȧ = 0̇. Le polynôme P ne divise
pas A et P étant irréductible, P et A sont premiers entre eux. D'après le théorème de Bezout, il
66 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES

existe U, V ∈ K[X] tels que U P + V A = 1, d'où V̇ Ȧ = 1̇. Donc Ȧ est inversible, et ceci dès que
Ȧ = 0̇. Finalement, K[X]/(P ) est un corps. 

Remarque 9. Ce résultat est analogue à la proposition 10 page 11 (ici aussi, on voit que
les propriétés arithmétiques de Z et de K[X] sont semblables.)
2.6. Corps des racines d'un polynôme
Toutes les extensions de corps considérées dans cette sous partie seront commutatives.
Notation. Si L est une extension de corps de K, pour tout A ⊂ L on note K(A) le
plus petit sous-corps de L contenant K et A (il existe, c'est l'intersection des sous-corps
de L contenant K et A). Lorsque A = {a1 , · · · , an } est ni, on note souvent K(A) =
K(a1 , . . . , an ) pour alléger les notations.

Remarque 10. Si A et B sont deux parties de L, on a facilement K(A)(B) = K(A ∪ B).


Proposition 5. Soit P ∈ K[X] irréductible dans K[X]. Il existe une extension L de K
telle que P admette une racine x dans L.
Démonstration. D'après la proposition 4, L = K[X]/(P ) est un corps. L'injection canonique
ϕ : K → L a → ȧ (c'est une injection car deg(P ) ≥ 1) permet d'identier les éléments de K
et de ϕ(K). Ainsi, L apparaît comme une extension de K. En posant x = Ẋ ∈ L, on voit que
P (x) = Ṗ = 0. 

Théorème 5. Soit F ∈ K[X], deg(F ) ≥ 1. Alors il existe une extension L de K sur


laquelle le polynôme F soit scindé.
Démonstration. Nous allons procéder par récurrence sur n = deg(F ). Pour n = 1, c'est évident.
Supposons le résultat vrai jusqu'à n − 1 et montrons le pour n. Soit G un facteur irréductible
de F , et H tel que F = GH . D'après la proposition précédente, il existe une extension L1 de
K dans laquelle G admette une racine a1 . On peut écrire G = (X − a1 )G1 avec G1 ∈ L1 [X],
et donc F = (X − a1 )F1 avec F1 = G1 H ∈ L1 [X]. Comme deg(F1 ) = n − 1, il existe d'après
l'hypothèse de récurrence une extension L de L1 telle que F1 soit scindé sur L. Dans L[X], F est
donc scindé. 

Remarque 11. Une telle extension L de K dans laquelle F soit scindé s'appelle un corps
de dissociation de F . Dans ce corps, on peut écrire
F = λ(X − a1 ) · · · (X − an ) avec λ ∈ K∗ et a1 , . . . , an ∈ L.
Le corps L1 = K(a1 , . . . , an ) est le plus petit sous-corps de L sur lequel F soit scindé.
On peut montrer que L1 ainsi déni est unique à un isomorphisme près (l'unicité n'est
pas immédiate car il n'y a pas unicité du corps de dissociation L). On l'appelle corps des
racines du polynôme F .
Définition 5. Un corps K est dit algébriquement clos si tout polynôme de K[X] de degré
≥ 1 a au moins une racine dans K.
Remarque 12. Une récurrence immédiate sur le degré montre que si K est un corps algé-
briquement clos, tout polynôme de K[X] est scindé sur K.
 On peut montrer que tout corps K admet une extension L algébriquement close (théo-
rème de Steinitz). La plus petite extension L vériant cette propriété est unique à un
isomorphisme près, et on l'appelle clôture algébrique de K. Nous ne démontrerons pas ce
résultat. On a cependant le résultat suivant.
2. FONCTION POLYNÔME, RACINES D'UN POLYNÔME 67

Théorème 6 (Théorème fondamental de l'algèbre). Le corps C des nombres


complexes est algébriquement clos.

Remarque 13. Deux preuves diérentes de ce résultat sont proposées dans le problème 4
page 90.
 Le théorème fondamental de l'algèbre entraîne que les polynômes irréductibles de C[X]
sont de degré 1. On montre que les polynômes irréductibles de R[X] sont les polynômes
de degré 1 et les polynômes de la forme aX 2 + bX + c avec b2 − 4ac < 0.
2.7. Exercices
Exercice 1. Montrer qu'un corps ni n'est pas algébriquement clos.
Solution. Soit K = {a1 , . . . , an } un corps ni. Le polynôme P = 1 + (X − a1 ) · · · (X − an ) ∈ K[X]
vérie P (ai ) = 1 pour tout i. Donc P n'a pas de racine dans K, et K n'est pas algébriquement
clos.

Exercice 2. a) Si n ∈ N, n ≥ 2, factoriser Pn = (X + 1)n − (X − 1)n dans C[X].


b) En déduire pour tout p ∈ N∗ la valeur de
p
   p
  
kπ kπ
Ap = cot 2
et Bp = cot .
k=1
2p + 1 k=1
2p + 1

Solution. a) Il s'agit de trouver les racines de Pn . Comme 1 n'est pas racine de Pn , on peut
écrire
 n
z+1 z−1
Pn (z) = 0 ⇐⇒ =1 ⇐⇒ ∃k, 0 ≤ k ≤ n − 1, = e2ikπ/n .
z−1 z+1
Le cas k = 0 est à exclure car on ne peut pas avoir = 1. Si 1 ≤ k ≤ n − 1, l'équivalence
z−1
z+1
 
z+1 e2ikπ/n + 1 eikπ/n + e−ikπ/n kπ
= e2ikπ/n ⇐⇒ z = 2ikπ/n = ikπ/n = −i cot ,
z−1 e −1 e − e−ikπ/n n
montre que
 z est une racine de Pn si et seulement s'il existe k ∈ {1, . . . , n − 1} tel que z =
n . Ainsi on a trouvé n − 1 racines distinctes de Pn . Le monôme de plus haut degré de
−i cot kπ
Pn étant 2nX n−1 , Pn est de degré n − 1 et

n−1  

Pn = 2n X + i cot .
n
k=1

b) Notons  

ck = cot .
2p + 1
2p
La relation de symétrie c2p+1−k = −ck montre que Ap = 1
2 k=1 ck .
2 Les racines de P2p+1 sont
les uk = −ick (avec 1 ≤ k ≤ 2p). Comme
 
2p 2p + 1
P2p+1 (X) = 2(2p + 1)X +2 X 2p−2 + · · ·
3
les relations entre coecients et racines (voir le théorème 1 page 64) montrent que
2p  
  2 2p+1 p(2p − 1)
σ1 = uk = 0 et σ2 = uk ul = 3
= .
2(2p + 1) 3
k=1 1≤k<≤2p
68 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES

Donc
2p 2p
1 2 1 2 1 p(2p − 1)
Ap = ck = − uk = − (σ12 − 2σ2 ) = .
2 2 2 3
k=1 k=1

 Par ailleurs, le terme constant de P2p+1 est 2 et son coecient dominant est 2(2p + 1), donc le
produit de ses racines est 2/(2(2p + 1)) = 1/(2p + 1), donc
p    2p  1/2  2p
1/2
 kπ  kπ  1
p
Bp = cot = (−1) cot = uk =√ .
2p + 1 2p + 1 2p + 1
k=1 k=1 k=1

Exercice 3. a) Montrer que pour tout n ∈ N, n ≥ 2, le polynôme


1 1 1
Pn = 1 + X + X2 + · · · + Xn
1! 2! n!
n'a que des racines simples dans C.
b) Montrer que pour tout n ≥ 2, le polynôme Pn = X n − X + 1 n'a que des racines
simples dans C.
Solution. a) Supposons que Pn ait une racine multiple z0 ∈ C. Alors Pn (z0 ) = Pn (z0 ) = 0 et
comme Pn = Pn−1 , on a Pn−1 (z0 ) = 0, donc z0n /n! = (Pn − Pn−1 )(z0 ) = 0 d'où z0 = 0. Ceci
entraîne Pn (z0 ) = Pn (0) = 1 = 0, ce qui est absurde. Le polynôme Pn n'a donc que des racines
simples dans C.
b) Supposons que Pn ait une racine multiple z0 ∈ C. Alors Pn (z0 ) = Pn (z0 ) = 0, c'est-à-dire
z0n − z0 + 1 = nz0n−1 − 1 = 0. Donc z0n − z0 + 1 = 0 et z0n = z0 /n, d'où z0 (1/n − 1) + 1 = 0,
c'est-à-dire z0 = n/(n − 1). Ceci entraîne
 n−1
n
Pn (z0 ) = nz0n−1 − 1 = n − 1 > n − 1 > 0,
n−1
ce qui est absurde. Le polynôme Pn n'a donc que des racines simples dans C.

Exercice 4. 1/ Soit P ∈ Q[X] irréductible dans Q[X]. Montrer que P n'a que des
racines simples dans C.
2/ (Deux applications) a) Soit P ∈ Q[X] un polynôme ayant une racine λ ∈ C d'ordre
de multiplicité µ > deg(P )/2. Montrer que λ ∈ Q.
b) Soit P ∈ Q[X], deg(P ) = 2n + 1 avec n ∈ N∗ , tel que P admette une racine d'ordre n.
Si n ≥ 2, montrer que P admet une racine dans Q.
Solution. 1/ Il sut de montrer d'après le théorème 3 que P et P  n'ont aucune racine commune,
ce qui équivaut (voir la remarque 4) à montrer que P et P  sont premiers entre eux dans C[X],
ce qui n'est qu'un cas particulier du résultat plus général suivant (d'ailleurs utile !).
Lemme. Soit K un corps commutatif, L un surcorps commutatif de K. Soient
P et Q ∈ K[X] deux polynômes premiers entre eux dans K[X]. Alors P et Q
sont premiers entre eux dans L[X].
En eet, cela provient de l'égalité de Bezout. Il existe U et V ∈ K[X] tel que U P + V Q = 1,
égalité qui reste évidemment vraie dans L[X], d'où le lemme. Maintenant le polynôme P étant
irréductible dans Q[X], P et P  sont premiers entre eux dans Q[X] (car deg(P  ) < deg(P )) donc
dans C[X] d'après le lemme précédent.
2/a) Soit P = αP1 · · · Pk la décomposition de P en facteurs irréductibles de Q[X]. Parmi
P1 , . . . , Pk , il y a r polynômes dont λ soit racine, par exemple P1 , . . . , Pr . Si λ ∈ Q, comme
2. FONCTION POLYNÔME, RACINES D'UN POLYNÔME 69

P1 , · · · , Pr sont à coecients rationnels, on a deg(Pi ) ≥ 2 pour 1 ≤ i ≤ r. Or d'après 1/, les Pi


étant irréductibles, λ est racine simple de Pi pour 1 ≤ i ≤ r. Donc µ = r. Donc
k
 r

deg(P ) = deg(Pi ) ≥ deg(Pi ) ≥ 2r = 2µ,
i=1 i=1
ce qui est contraire aux hypothèses car µ > deg(P )/2. On a donc forcément λ ∈ Q.
b) Par hypothèse, il existe une racine λ ∈ C d'ordre n de P . Supposons que P n'ait aucune racine
dans Q. Alors dans la factorisation de P en facteurs irréductibles de Q[X], P = αP1 · · · Pk , on a
deg(Pi ) ≥ 2 pour tout i.
Parmi P1 , . . . , Pk , il y a r polynômes dont λ soit racine, par exemple P1 , . . . , Pr . D'après
1/, les Pi étant irréductibles, λ est racine simple de Pi pour 1 ≤ i ≤ r. Donc r = n (et donc
k ≥ r = n).
 On a k = n. En eet. Si k > n, alors
k

deg P = deg(Pi ) ≥ 2k ≥ 2n + 2,
i=1
ce qui est incompatible avec l'hypothèse deg P ≤ 2n + 1.
 Donc P = αP1 · · · Pn . Le degré de P étant impair, il existe un polynôme Pi de degré impair,
par exemple deg(P1 ) impair. Comme de plus deg(P1 ) ≥ 2, on a deg(P1 ) ≥ 3.
 Il existe un polynôme Pi de degré 2 (sinon pour tout i, deg(Pi ) ≥ 3 donc 2n + 1 = deg(P ) =

i=1 deg(Pi ) ≥ 3n, absurde car n ≥ 2), par exemple deg(P2 ) = 2. Eectuons la division eu-
n

clidienne de P1 par P2 : P1 = QP2 + R, avec R ∈ Q[X] et deg(R) < deg(P2 ) = 2. On a


R = 0 car P1 est irréductible et deg(P1 ) > deg(P2 ). Or λ est racine de R (car P1 (λ) = 0 =
Q(λ)P2 (λ) + R(λ) = R(λ)), donc comme R = 0 et deg(R) ≤ 1, on en déduit λ ∈ Q, ce qui est
contradictoire. Le polynôme P admet donc au moins une racine rationnelle.
Remarque. Si n = 1, le résultat 2/b) est faux (prendre par exemple P = X 3 − 2).

Exercice 5. Déterminer les polynômes P non constants de C[X] vériant


P (X 2 ) = P (X)P (X + 1). (∗)

Solution. Soit P ∈ C[X] vériant (∗) avec deg(P ) ≥ 1. Soit α une racine de P .
Comme P (α2 ) = P (α)P (α + 1) = 0, α2 est une racine de P . En itérant le procédé, on voit
que α2 , α4 , . . . , α2 , . . . sont des racines de P . Le polynôme P n'ayant qu'un nombre ni de
n

racines, on doit avoir


α = 0 ou |α| = 1. (∗∗)
D'après (∗), P [(α − 1)2 ]= P (α − 1)P (α) = 0, donc (α − 1) est une racine de P . D'après
2

(∗∗), on doit avoir |(α − 1)2 | = 0 ou |(α − 1)2 | = 1, c'est-à-dire


α = 1 ou |α − 1| = 1. (∗∗∗)
D'après (∗∗) et (∗∗∗), on a soit (i) α = 0, soit (ii) α = 1, soit (iii) |α − 1| = |α| = 1. On
vérie facilement que la condition (iii) s'écrit aussi α = 1 + j ou α = 1 + j 2 où j = exp(2iπ/3).
Or (α − 1)2 est une racine de P donc d'après (∗∗), |(α − 1)2 − 1| ∈ {0, 1}, et comme |j 2 − 1| > 1
et |(j 2 )2 − 1| = |j − 1| > 1, on voit que les solutions (iii) ne conviennent pas.
Nécessairement, on a donc α ∈ {0, 1}. Ainsi, le polynôme P est de la forme P = λX p (X −1)q ,
λ ∈ C∗ . Comme P vérie (∗), on a
λX 2p (X 2 − 1)q = λ2 X p (X − 1)q (X + 1)p X q ,
d'où on déduit p = q et λ = 1.
Réciproquement, si P est de la forme X p (X − 1)p , on vérie facilement que P vérie (∗). Les
solutions sont donc les polynômes de la forme X p (X − 1)p , p ∈ N∗ .
70 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES

 Exercice 6. a) Soit P ∈ C[X], deg(P ) ≥ 2. Montrer que les racines de P  appartiennent


à l'enveloppe convexe des racines de P .
b) Que dire sur les racines de P  si P ∈ R[X] a toutes ses racines réelles ?
Solution. a) Soient a1 , . . . , an les racines de P , comptées avec leur ordre de multiplicité, de sorte
que si β désigne le coecient dominant de P , P = β(X − a1 ) · · · (X − an ). On a facilement
n
P  (X)  1
= .
P (X) X − ai
i=1

Soit a une racine de P . Si a est une racine de P , le résultat est évident. Sinon
n n
P  (a)  1  a − ai
0= = = ,
P (a) a − ai |a − ai |2
i=1 i=1

et en passant au conjugué
n
 n
 n
 a − ai  1  ai
= 0 donc a= ,
|a − ai |2 |a − ai |2 |a − ai |2
i=1 i=1 i=1

d'où le résultat.
b) D'après a), les racines de P  sont réelles. On a même plus de renseignements sur leur locali-
sation. Soient a1 , . . . , ap les racines de P avec a1 < · · · < ap , d'ordre de multiplicité α1 , · · · , αp ,
de sorte que si β est le coecient dominant de P , P = β(X − a1 )α1 · · · (X − ap )αp . D'après le
théorème de Rolle, pour tout i ∈ {1, . . . p − 1}, il existe bi ∈ ]ai , ai+1 [ tel que P  (bi ) = 0. On a
ainsi trouvé p − 1 racines de P  .
 Pour tout i tel que αi ≥ 2, ai est racine de P  d'ordre de multiplicité  αi −1 (voir le théorème
 3).
Comptées avec leur ordre de multiplicité, on a ainsi localisé (p−1)+ pi=1 (αi −1) = ( i αi )−1 =
deg(P )−1 = deg(P  ) racines. On a donc localisé toutes les racines de P  : ce sont les bi ∈ ]ai , ai+1 [
et les ai tels que αi ≥ 2.

 Exercice 7 (Interpolation de Hermite). Soit p ∈ N∗ , p entiers naturels non nuls



n1 , . . . , np et n = pi=1 ni .
a) Soit K un corps commutatif de caractéristique nulle, et x1 , . . . , xp ∈ K, deux à deux
distincts. Soient des points yi,k de K, dénis pour 1 ≤ i ≤ p et 0 ≤ k < ni . Montrer qu'il
existe un unique polynôme P ∈ K[X] tel que deg(P ) < n et tel que
∀(i, k) ∈ N∗ × N, 1 ≤ i ≤ p, 0 ≤ k < ni , P (k) (xi ) = yi,k .
b) Soit I un intervalle de R et f : I → R une fonction de classe C n . On considère p
points x1 < . . . < xp de I . Si P est le polynôme d'interpolation de Hermite de degré < n
vériant P (k) (xi ) = f (k) (xi ) pour 1 ≤ i ≤ p et 0 ≤ k < ni , montrer que
p
f (n) (ξ) 
∀x ∈ I, ∃ξ ∈ I, f (x) − P (x) = (x − xi )ni . (∗)
n! i=1

Solution. a) Notons Pn le s.e.v des polynômes de K[X] de degré < n, et considérons l'application
linéaire
ϕ : Pn → K n P → (P (x1 ), . . . , P (n1 −1) (x1 ); . . . ; P (xp ), . . . , P (np −1) (xp )).
Il s'agit de montrer que ϕ est bijective. Calculons son noyau Ker ϕ. Supposons ϕ(P ) = 0 avec
P ∈ Pn . Pour i = 1, . . . , p, on a P (k) (xi ) = 0 pour 0 ≤ k < ni , donc xi est une racine d'ordre
2. FONCTION POLYNÔME, RACINES D'UN POLYNÔME 71

hi ≥ ni d'après le théorème 3 page 64. Ceci étant vrai pour tout i, on peut donc écrire P sous la
forme
p

P =Q (X − xi )hi avec Q ∈ K[X].
i=1
 
Si Q = 0, on a deg P ≥ pi=1 hi ≥ pi=1 ni = n, ce qui est impossible puisque P ∈ Pn .
Donc Q = 0, ce qui entraîne Ker ϕ = {0}. Donc ϕ est injective. Comme l'e.v d'arrivée Kn de
l'application linéaire ϕ a même dimension que son e.v de départ Pn , on en déduit d'après le
théorème du rang que ϕ est bijective.
b) Soit x ∈ I . S'il existe i tel que x = xi le résultat (∗) est immédiat puisque f (xi ) = P (xi ).
Dans le cas contraire, on considère A ∈ R tel que
p

ϕx : I → R t → f (t) − P (t) − A (t − xi )ni
i=1
vérie ϕx (x) = 0. La fonction ϕx est de classe C n . En comptant avec les ordres de multiplicité,
(l'ordre de multiplicité k d'un zéro α d'une fonction g de classe C n est le plus grand entier k ≤ n
tel que g(α) = . . . = g (k−1) (α) = 0) ϕx a au moins n + 1 zéros car ϕx (x) = 0 par construction,
et ϕ(k)
x (xi ) = 0 pour 1 ≤ i ≤ p et 0 ≤ k < ni . On remarque maintenant que pour toute fonction
g : I → R de classe C m , qui a au moins m + 1 zéros sur I , la fonction g  a au moins m zéros sur I
(la preuve est immédiate en remarquant qu'un zéro de g d'ordre k ≥ 2, est un zéro de g  d'ordre
k − 1, et qu'entre deux zéros de g il y a au moins un zéro de g  d'après le théorème de Rolle).
Ainsi ϕx a au moins n zéros sur I , ϕx au moins n − 1 zéros, . . ., ϕ(n) x a au moins 1 zéro sur I .
Donc il existe ξ ∈ I tel que ϕ(n)x (ξ) = 0 , ce qui s'écrit aussi f (n) (ξ) − n!A = 0, d'où le résultat.

Exercice 8. Donner la forme des polynômes P ∈ R[X] scindés sur R, de degré n ≥ 2, à


racines toutes distinctes a1 < a2 < · · · < an , tels que
 
 ai + ai+1
∀i, 1 ≤ i ≤ n − 1, P = 0. (∗)
2

Solution. Nous allons montrer que les polynômes vériant la condition sont ceux de degré 2. Si
P = α(X − a1 )(X − a2 ) est de degré 2 (avec a1 < a2 et α ∈ R), on a P  = α(2X − a1 − a2 ) donc
P vérie la condition (∗). 
Si maintenant P = α ni=1 (X −  ai ) est de degré n ≥ 3 (a1 < · · · < an , α = 0), on écrit
P = (X − a1 )(X − a2 )Q avec Q = α ni=3 (X − ai ). Par dérivation, on obtient
P  (X) = (2X − a1 − a2 )Q(X) + (X − a1 )(X − a2 )Q (X).
Si P vérie (∗), on a donc Q ( a1 +a2 ) = 0, ce qui est impossible car
2

 Si deg(Q) = 1, Q est une constante non nulle.




 Si deg(Q) ≥ 2, Q s'annule au moins une fois sur chaque intervalle ]ai , ai+1 [ (2 ≤ i ≤ n−1)
d'après le théorème de Rolle, donc Q a au moins n − 3 racines distinctes dans l'intervalle
]a2 , an [. Comme deg(Q ) = n − 3, on en déduit que toutes les racines de Q sont dans
]a2 , an [ et comme a1 +a
2
2
∈ ]a2 , an [, on aboutit à une contradiction.

Exercice 9 (Principe du maximum). Soit P ∈ C[X] un polynôme non constant. Soit


r > 0. Montrer
∀z0 ∈ C, |z0 | < r, |P (z0 )| < sup |P (z)|.
|z|=r

Solution. Tout découle du résultat suivant.


72 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES

Lemme. ∀a ∈ C, ∀ρ > 0, ∃b ∈ C, |b − a| < ρ tel que |P (b)| > |P (a)|.


En eet. Quitte à multiplier P par eiψ avec ψ ∈R bien choisi, on peut supposer P (a) ∈ R+ .
Soit n = deg P , et posons Q(X) = P (X + a) = ni=0 qi X i . On a q0 = Q(0) = P (a) ∈ R+ . Par
ailleurs, qn = 0 de sorte que k = inf{i | 1 ≤ i ≤ n, qi = 0} existe. On peut écrire
Q(z) = q0 + qk z k (1 + ϕ(z)) avec lim ϕ(z) = 0.
z→0

Il existe ρ , 0 < ρ < ρ tel que ∀z ∈ C, |z| ≤ ρ , |ϕ(z)| ≤ 1/2. Écrivons qk = |qk |eiθ , θ ∈ R. Soit
z0 = ρ e−iθ/k . On a Q(z0 ) = q0 + |qk |ρ k [1 + ϕ(z0 )], donc comme q0 ∈ R+ :
    1 1
 k  k  k k k
|Q(z0 )| ≥ q0 + |qk |ρ  − |qk |ρ ϕ(z0 ) ≥ q0 + |qk |ρ − |qk |ρ = q0 + |qk |ρ > q0 = |Q(0)|.
2 2
Si b = a + z0 , on a donc |b − a| = ρ < ρ et |P (b)| = |Q(z0 )| > |Q(0)| = |P (a)|, d'où le lemme.
Montrons maintenant le résultat demandé. L'ensemble C = {z ∈ C, |z| ≤ r} est compact, et
l'application z → |P (z)| étant continue
∃z1 ∈ C, |z1 | ≤ r, |P (z1 )| = sup |P (z)|. (∗)
|z|≤r

Si |z1 | < r, le lemme entraîne l'existence de z2 ∈ C, |z2 | < r tel que |P (z2 )| > |P (z1 )|, ce qui
est absurde d'après (∗). Donc |z1 | = r et donc sup|z|≤r |P (z)| = sup|z|=r |P (z)|, d'où : Si z0 ∈ C,
|z0 | < r, |P (z0 )| < sup|z|≤r |P (z)| = sup|z|=r |P (z)|.
Remarque. On trouve dans le tome d'analyse (voir le chapitre sur les fonctions de plusieurs
variables) un résultat équivalent sur les fonctions harmoniques.
 Plus généralement, le lemme permet également de montrer que pour tout compact

C ⊂ C, on a : ∀z0 ∈ C , |P (z0 )| < supz∈Fr(C) |P (z)| où Fr(C) désigne la frontière de C .

Exercice 10. Soit n ∈ N∗ et z1 , . . . , z


n des nombres complexes de module 1. Montrer
qu'il existe z ∈ C, de module 1, tel que nk=1 |z − zk | = 1.
n n
Solution. Soit le polynôme P (X) = k=1 (X − zk ). On a |P (0)| =
k=1 |z − zk | = 1, et d'après
le principe du maximum (voir l'exercice précédent) on en déduit sup|z|=1 |P (z)| > |P (0)| = 1.
Donc il existe z0 ∈ C, |z0 | = 1, tel que |P (z0 )| > 1. Soit α, β ∈ R tel que z0 = eiα et z1 = eiβ . La
fonction f : R → R θ → |P (eiθ )| est continue. Comme f (α) = 0 et f (β) > 1, le théorème des
valeursintermédiaires nous assure l'existence de θ ∈ R tel que f (θ) = 1. En notant z = eiθ ceci
s'écrit nk=1 |z − zk | = 1.
Remarque. La clé de l'exercice est l'inégalité
|P (0)| ≤ sup |P (z)|. (∗)
|z|=1

Onpeut la retrouver sans utiliser le principe du maximum, à partir de l'identité P (0) =



1
2π 0
P (eiθ ) dθ, qui est un cas particulier ( k = 0) de l'identité suivante
n
  2π
1
∀P = aj X ∈ C[X],
j
∀k ∈ {0, . . . , n}, ak = P (eiθ )e−ikθ dθ.
j=0
2π 0

(à rapprocher de l'identité (*) de la remarque 18 page 348, sur les fonctions caractéris-
tiques). La preuve est immédiate, il sut d'écrire
 2π n
  2π n
  2π
iθ −ikθ ijθ −ikθ
P (e )e dθ = aj e e dθ = aj ei(j−k)θ dθ
0 j=0 0 j=0 0
2. FONCTION POLYNÔME, RACINES D'UN POLYNÔME 73


puis de remarquer que 02π eiθ dθ = 2π si  = 0, = 0 si  ∈ Z∗ . On peut également prouver

l'inégalité (*) à partir de l'identité P (0) = m1 m−1
k=0 P (ω ) avec ω = e
k 2iπ/m
(qu'on retrouve
dans le problème 1 page 87 sur la transformée de Fourier discrète d'un polynôme) vraie
dès que m > n, qui montre l'existence de k tel que |P (0)| ≤ |P (ω k )|. .

Exercice 11. On considère n entiers distincts a1 , a2 , · · · , an .


a) Prouver que P = (X − a1 )(X − a2 ) · · · (X − an ) − 1 est irréductible dans Z[X] (c'est-
à-dire que si P = F G avec F, G ∈ Z[X], alors F ou G est constant).
b) Prouver que P = (X − a1 )2 (X − a2 )2 · · · (X − an )2 + 1 est irréductible dans Z[X].
Solution. a) Supposons P réductible dans Z[X]. Il existe deux polynômes F, G ∈ Z[X], deg(F ) <
n et deg(G) < n, tels que
P (X) = (X − a1 )(X − a2 ) · · · (X − an ) − 1 = F (X)G(X).
Pour tout i, 1 ≤ i ≤ n, on a F (ai )G(ai ) = −1 (∗). Comme F et G sont à coecients entiers,
F (ai ) et G(ai ) sont entiers. Avec (∗), on en déduit que pour 1 ≤ i ≤ n, F (ai ) = −G(ai ) = ±1. Le
polynôme F +G s'annule donc aux points ai , 1 ≤ i ≤ n. Or deg(F +G) ≤ sup{deg(F ), deg(G)} <
n, ce qui entraîne la nullité de F + G. Donc F = −G, d'où P = −F 2 . Cette dernière égalité est
impossible puisque P est unitaire et que −F 2 ne l'est pas. D'où le résultat.
b) Supposons P réductible dans Z[X]. Il existe F, G ∈ Z[X], deg(F ) ≥ 1 et deg(G) ≥ 1, tels que
P = (X − a1 )2 (X − a2 )2 · · · (X − an )2 + 1 = F (X)G(X).
On peut supposer F et G unitaires (l'égalité précédente entraîne que les coecients dominants
de F et G sont égaux tout deux soit à 1, soit à -1). Soit k = deg(F ),  = deg(G), de sorte que
k +  = 2n.
La forme de P montre que pour tout réel x, P (x) ≥ 1. Ainsi, P ne s'annule pas sur R, il en
est donc de même de F et G qui alors gardent un signe constant sur R. De plus F et G sont
unitaires et prennent donc des valeurs > 0 sur R.
Pour tout i, 1 ≤ i ≤ n, F (ai )G(ai ) = 1 (∗∗). Comme de plus F (ai ) et G(ai ) sont entiers et
positifs, on en déduit que pour tout i, F (ai ) = G(ai ) = 1.
Si k = deg(F ) <  = deg(G), alors k < n. Or pour tout i, F (ai ) = 1 ; autrement dit, le
polynôme F − 1 s'annule en n points donc est nul (son degré est < n). Finalement F = 1, ce
qui est absurde car deg(F ) ≥ 1. De même l'inégalité  < k est impossible. On a donc deg(F ) =
deg(G) = n.
D'après (∗∗), pour tout i, 1 ≤ i ≤ n, F (ai ) = G(ai ). Le polynôme F − G s'annule donc en n
points. Or deg(F −G) ≤ n−1 (F et G sont de degré n et sont tout deux unitaires), donc F −G = 0.
Donc F = G. Finalement, on a P (X) = F (X)2 , c'est-à-dire F (X)2 − (X − a1 )2 · · · (X − an )2 = 1
ou encore
[F − (X − a1 ) · · · (X − an )][F + (X − a1 ) · · · (X − an )] = 1,
égalité impossible à réaliser. Le polynôme P est donc irréductible dans Z[X].
Remarque. On peut également montrer que (X − a1 )4 · · · (X − an )4 + 1 est irréductible
dans Z[X], mais c'est plus dicile.
 En fait, les polynômes exhibés sont irréductibles dans Q[X]. En eet, d'après le lemme
de Gauss (voir l'exercice 4 page 62) tout polynôme de Z[X] irréductible dans Z[X] est
irréductible dans Q[X].

Exercice 12 (Quelques polynômes irréductibles). Si F = a0 + a1 X + · · · an X n ∈


Z[X], on note (pour p ∈ N∗ ), F = a0 + a1 X + · · · + an X n ∈ Z/pZ[X] où pour tout i, ai
désigne la classe de ai dans Z/pZ.
74 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES

1/ Si P ∈ Z[X], unitaire, est tel que P ∈ Z/pZ[X] est irréductible dans Z/pZ[X], montrer
que P est irréductible dans Z[X]. La réciproque est elle vraie ?
2/ Montrer que F = X 4 + X + 1 est irréductible dans Z[X].
3/ Soit p ∈ N∗ un nombre premier et F = X p − X − 1 ∈ Z[X].
a) Soit α une racine de F dans le corps des racines de F . Montrer que les racines de F
sont exactement α, α + 1, · · · , α + p − 1.
b) En déduire que F est irréductible dans Z/pZ[X], et que F est irréductible dans Z[X].
Solution. 1/ C'est immédiat. Si P = F G avec F, G ∈ Z[X], unitaires, alors P = F G dans
Z/pZ[X]. Comme P est irréductible dans Z/pZ[X], ceci entraîne deg(F ) = 0 ou deg(G) = 0.
Les polynômes F et G étant unitaires, on a deg(F ) = deg(F ) et deg(G) = deg(G) et donc F
ou G est constant, ce qui prouve l'irréductibilité de P dans Z[X] (P est alors irréductible dans
Q[X], voir l'exercice 4 page 62). La réciproque est fausse. Par exemple, P = X 2 − 2X − 1 est
irréductible dans Z[X] et pourtant P = (X − 1)2 n'est pas irréductible dans Z/2Z[X].
2/ On va montrer que F est irréductible dans Z/2Z[X], ce qui prouvera le résultat en vertu de
1/. Supposons F = P Q avec P, Q ∈ Z/2Z[X], deg(P ) ≥ 1, deg(Q) ≥ 1.
Le polynôme F n'a aucune racine dans Z/2Z, donc deg(P ) = deg(Q) = 2.
Le coecient dominant et le coecient constant de F étant égaux à 1, P et Q sont néces-
sairement de la forme
P = X 2 + aX + 1 et Q = X 2 + bX + 1, a, b ∈ Z/2Z.
Donc F = X 4 + X + 1 = P Q = X 4 + (a + b)(X 3 + X) + (2 + ab)X 2 + 1, et donc le coecient
de X 3 est égal à celui de X dans F , ce qui est absurde étant donnée la forme de F .
3/a) Notons K le corps des racines de F , α une racine de F dans K. Le corps K étant de
caractéristique p (car surcorps de Z/pZ), on a
∀x ∈ K, F (x) = F (x) − F (α) = xp − αp − (x − α) = (x − α)p − (x − α)

p de la dernière égalité, développer (x−α) par la formule du binôme et utiliser


(pour se convaincre p

le fait que p | k si 1 ≤ k ≤ p − 1). Donc x ∈ K est une racine de F si et seulement si x − α


est une racine de X p − X , c'est-à-dire si et seulement si x − α ∈ {0, 1, . . . , p − 1} (les racines du
polynôme X p − X sont 0, 1, . . . , p − 1 en vertu du théorème de Fermat).
b) Soit G un facteur irréductible unitaire de F dans Z/pZ[X]. Notons k = deg(G). D'après
la question précédente, les racines de G dans K sont de la forme α + a1 , · · · , α + ak où les ai
sont dans Z/pZ. De plus G étant unitaire, le coecient du monôme de degré k − 1 de G est
au signe près la somme de ses racines. Comme G a ses coecients dans Z/pZ, on en déduit

que ki=1 (α + ai ) ∈ Z/pZ, et comme les ai ∈ Z/pZ, kα ∈ Z/pZ. Or α ∈ Z/pZ (sinon F (α) =
(αp − α) + 1 = 1 = 0). Le fait que kα ∈ Z/pZ entraîne donc que k = 0 et donc k = p puisque
1 ≤ k ≤ p. Donc G est de degré p ce qui entraîne que F = G est irréductible dans Z/pZ. Donc
F est irréductible dans Z[X] d'après la question 1/.

Exercice 13 (Polynômes de Tchébycheff). a) Montrer que pour tout n ∈ N∗ , il


existe un unique polynôme Tn ∈ R[X] tel que ∀θ ∈ R, Tn (cos θ) = cos nθ et calculer le
coecient dominant de Tn (les Tn s'appellent les polynômes de Tchébyche ).
b) Montrer que tout P ∈ R[X] unitaire de degré n ∈ N∗ , on a P ∞ ≥ 21−n où on note
P ∞ = supt∈[−1,1] |P (t)|.

Solution. a) En posant x = cos θ, on voit que Tn (cos θ) = cos nθ si et seulement si


[n/2] [n/2]
 
Tn (x) = [(cos θ + i sin θ)n ] = Cn2k cosn−2k θ (− sin2 θ)k = Cn2k xn−2k (x2 − 1)k . (∗)
k=0 k=0
3. FRACTIONS RATIONNELLES 75

Ceci montre l'existence et l'unicité de Tn , dont la forme polynomiale est donnée par le dernier

membre de (∗). D'après (∗), Tn est de degré n et son coecient dominant est [n/2] 2k
k=0 Cn = 2
n−1 .

b) Remarquons déjà que l'identité Tn (cos θ) = cos nθ entraîne Tn ∞ = 1. Donc le polynôme
unitaire Un = 21−n Tn vérie Un ∞ = 21−n . Soit P ∈ R[X] unitaire et de degré n. Raisonnons
par l'absurde et supposons P ∞ < 21−n = Un ∞ . Le polynôme Q = Un − P est de degré
≤ n − 1 (car P et Un sont unitaires et de degré n). En posant xk = cos kπ/n, on remarque
maintenant que Tn (xk ) = cos kπ = (−1)k pour 0 ≤ k ≤ n. Donc Q(xk ) = (−1)k 21−n − P (xk ), et
comme |P (xk )| ≤ P ∞ < 21−n ceci montre que Q(xk ) est non nul et a le signe de (−1)k . Ainsi,
les n + 1 points (xk )0≤k≤n vérient −1 = xn < xn−1 < . . . < x1 < x0 = 1 et Q change de signe
entre xk+1 et xk (pour 0 ≤ k ≤ n − 1). Donc Q a au moins n racines, et comme deg(Q) < n on
a forcément Q = 0, donc P = Un ce qui est absurde puisque P ∞ < 21−n par hypothèse.
Remarque. La propriété de mini-max P ∞ ≥ Un ∞ pour tout P ∈ R[X] unitaire et de
degré n est remarquable, et fait de la famille (Tn ) des polynômes de Tchébyche une base
commode pour l'interpolation polynomiale.

3. Fractions rationnelles
Dans toute cette partie, K désigne un corps commutatif.
3.1. Généralités
L'anneau K[X] étant intègre, son corps des fractions existe bien. On le note K(X).
Proposition 1. Soit F ∈ K(X), F = 0. On peut écrire F = P/Q avec P et Q ∈ K[X], Q
unitaire, P et Q premiers entre eux, et ceci de manière unique. L'écriture P/Q s'appelle
la forme réduite de F .
Définition 1. Soit F ∈ K(X), F = 0, F = N/D sa forme réduite. Un élément a ∈ K est
dit pôle de F d'ordre h si a est racine de D d'ordre h.
De la même que pour les fonctions polynômes, on peut associer à toute fraction ra-
tionnelle F = N/D une fonction rationnelle dénie en tout point x de K qui n'est pas un
pôle de F , par x → F (x) = N (x)/D(x). Si F, G ∈ K(X) et x ∈ K n'est pas pôle de F ou
G, on a (F + G)(x) = F (x) + G(x), (F G)(x) = F (x)G(x)<.

 Théorème 1 (Décomposition en éléments simples). Soit F ∈ K(X), F = 0, N/D


sa forme réduite. Soit D = D1α1 · · · Dnαn la décomposition de D en facteurs irréductibles
de K[X]. On peut écrire, de manière unique
n
α 
  i
Ai,j
F =E+
i=1 j=1
Dij

avec E ∈ K[X], Ai,j ∈ K[X] et deg(Ai,j ) < deg(Di ). Le polynôme E s'appelle la partie
entière de F et s'obtient comme le quotient de la division euclidienne de N par D.
Les deux parties suivantes s'attachent à donner des méthodes de calcul des éléments
simples Ai,j /Dij pour K = C et K = R.
3.2. Pratique de la décomposition dans C(X)
Il est indispensable de bien savoir décomposer en éléments simples (on s'en sert en
particulier pour le calcul de primitives de fractions rationnelles).
76 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES

Soit F ∈ C(X), F = 0, de forme réduite N/D. Le corps C étant algébriquement clos, on


peut écrire D = (X − a1 )α1 · · · (X − an )αn avec ai ∈ C pour tout i et αi ∈ N∗ . Appliquant
le théorème précédent, on voit que l'on peut écrire de manière unique
n
α 
  i
ai,j
F =E+ avec ai,j ∈ C et E ∈ C[X].
i=1 j=1
(X − ai )j

Nous avons déjà vu plus haut que E s'obtient comme le quotient de la division euclidienne
αi
 ai,j
de N par D. Pour tout i, le terme s'appelle partie principale de F relative
j=1
(X − ai ) j
au pôle ai . Nous allons donner des méthodes pratiques de calcul des ai,j .
Partie principale relative à un pôle simple. Soit F ∈ C(X), F = 0, N/D sa forme
réduite. Soit a un pôle simple de F . La partie principale de F relative à a est de la forme
λ N λ
avec λ ∈ C, et on peut écrire F = = + G avec G ∈ C(X), a n'étant pas
X −a D X −a
un pôle de G. On peut également écrire D = (X − a)D1 avec D1 ∈ C[X] et D1 (a) = 0,
de sorte que
N N (a)
= λ + (X − a)G donc λ = . (∗)
D1 D1 (a)
Par ailleurs, l'égalité D = D1 + (X − a)D1 donne D (a) = D1 (a), ce qui donne un autre
moyen de calculer λ :
N (a)
λ=  . (∗∗)
D (a)
Remarque 1. (∗) et (∗∗) s'utilisent dans des circonstances diérentes : (∗) quand on connaît
une forme explicite de D1 , (∗∗) sinon (voir les exemples qui suivent).
X +3 a b
Exemple 1.  Soit F = , et F = + sa décomposition
(X − 1)(X + 2) X −1 X +2
en éléments simples. Grâce à (∗), on trouve a = 4/3 et b = −1/3.
P
 Soit F = n , avec P ∈ C[X], deg(P ) < n. Notons ω = e2iπ/n . On a X n − 1 =
X −1
n−1
 n−1
 ak
(X − ω k ), donc F = k
, ak ∈ C. Grâce à (∗∗), on trouve
k=0 k=0
X − ω
n−1
P (ω k ) ωk 1  ω k P (ω k )
ak = = P (ω k ), donc F = .
n(ω k )n−1 n n k=0 X − ω k

Partie principale relative à un pôle multiple. Soit F ∈ C[X], N/D sa forme réduite,
et a ∈ C un pôle d'ordre h ≥ 2 de F . On peut écrire D = (X − a)h D0 avec D0 ∈ C[X] et
D0 (a) = 0. Posons D1 (T ) = D0 (T + a), N1 (T ) = N (T + a) et F1 (T ) = F (T + a). On a
N1 (T )
F1 (T ) = . Ainsi, si N1 = (ah + · · · + a1 T h−1 )D1 + T h S , (S ∈ C[X]) est la division
T h D1 (T )
selon les puissances croissantes de N1 par D1 à l'ordre h − 1, on a :
a1 a2 ah S(T )
F1 (T ) = + 2 + ··· + h +
T T T D1 (T )
et donc
a1 ah S(X − a)
F (X) = + ··· + + .
X −a (X − a)h D0 (X)
On a ainsi obtenu la partie principale relative au pôle a.
3. FRACTIONS RATIONNELLES 77

X +3
Exemple 2. Recherchons la partie principale de F = relative au pôle 1
(X − 1)4 (X + 1)
d'ordre 4. On a, avec les notations précédentes, N1 (T ) = T + 4 et D1 (T ) = T + 2. On
eectue la division euclidienne de T +4 par T +2 selon les puissances croissantes à l'ordre 3,
ce qui donne
4 +T 2+T
−T 2 − 12 T + 14 T 2 − 18 T 3
1 2
2
T
−1 3
4
T
On en déduit que la partie principale de F relative au pôle 1 est
−1 1 1 2
+ 2
− 3
+ .
8(X − 1) 4(X − 1) 2(X − 1) (X − 1)4
En pratique, on n'utilise cette méthode que si l'ordre du pôle est grand (typiquement
supérieur à 3 ou 4). La plupart du temps, on procède par identication en donnant à X
certaines valeurs particulières et en utilisant certaines propriétés de F comme la parité,
le fait que F est à coecients réels, et en utilisant la remarque suivante : Si a est un pôle
N
d'ordre h de F , on peut écrire F = , D0 (a) = 0, et
(X − a)h D0
a1 ah
F = + ··· + + G,
X −a (X − a)h
a n'étant pas un pôle de G. En multipliant cette dernière égalité par (X − a)h , on obtient
N  
= ah + (X − a) ah−1 + · · · + a1 (X − a)h−2 + (X − a)h−1 G .
D0
En donnant à X la valeur a, on trouve un moyen commode de calculer ah :
N (a)
ah = . (∗∗∗)
D0 (a)
X +2
Exemple 3. F = se décompose en éléments simples sous la forme
(X + 1)2 (X − 2)2
a b c d
F = + 2
+ + .
X − 2 (X − 2) X + 1 (X + 1)2
En utilisant la relation (∗∗∗), on trouve b = 4/9 et d = 1/9.
Par ailleurs, en multipliant F par X , en regardant X comme un nombre réel et en le
faisant tendre vers +∞, on trouve (i) 0 = a + c. Or F (0) = 12 = −a 2
+ 4b + c + d, donc
(ii) 9 = −a + 2c. De (i) et (ii), on trouve a = 27 et c = 27 .
5 −5 5

D'autres décompositions en éléments simples dans C(X) sont traitées à l'exercice 1.


3.3. Pratique de la décomposition dans R(X)
On trouve dans R(X) les deux types d'éléments simples suivants :
α αX + β
, (α, a ∈ R), , (α, β, p, q ∈ R, p2 − 4q < 0.)
(X − a)n (X 2
+ pX + q)n
Ceux du premier type sont appelés éléments simples de première espèce, ceux du second
type des éléments simples de seconde espèce.
Pour décomposer F ∈ R(X) en éléments simples dans R(X), on peut
 Soit décomposer F en éléments simples dans C(X) et regrouper les termes conju-
gués (en général à éviter).
78 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES

 Soit procéder par identication, en utilisant les propriétés de F (parité, . . .). Des
exemples sont traités dans l'exercice 2.
3.4. Exercices
Exercice 1. Décomposer en éléments simples dans C(X) les fractions rationnelles sui-
vantes :
X X4
a) F = . b) F = .
(X 2 − 1)2 (X 2 + 1) X5 + 1

Solution. a) On commence par scinder le dénominateur de F dans C[X], ce qui donne


(X 2 − 1)2 (X 2 + 1) = (X − 1)2 (X + 1)2 (X + i)(X − i).
On peut donc écrire
a b a b c c
F = + 2
+ + 2
+ + , a, b, c, a , b , c ∈ C.
X − 1 (X − 1) X + 1 (X + 1) X −i X +i
Comme F est impaire, l'unicité de la décomposition de F en éléments simples permet d'identier
la décomposition de F (X) et de −F (−X), ce qui donne a = a et b = −b .
De plus F est à coecients réels, donc F (X) = F (X) et par identication c = c .
La relation (∗∗∗) de la partie 3.2 donne b = 18 et c = 4·2i
i
= 18 . Donc b = − 18 et c = 18 .
Multipliant F par X , regardant X comme un nombre réel et en le faisant tendre vers +∞,
on tire 0 = a + a + c + c . Donc 2a = a + a = −(c + c) = − 14 , d'où a = a = − 18 .
b) Recherchons les racines de X 5 + 1. On a
x5 + 1 = 0 ⇐⇒ x5 = −1 = eiπ ⇐⇒ x = ei(π/5+2kπ/5) = ωk , (k ∈ {0, 1, 2, 3, 4}).
Ainsi les (ωk )0≤k≤4 sont 5 racines distinctes du dénominateur de F , et comme ce dernier est
de degré 5, tous les pôles de F sont simples. On obtient le coecient de la partie principale
ak /(X − ωk ) de F en utilisant l'identité (∗∗) page 76, qui donne ak = ωk4 /(5ωk4 ) = 1/5. Donc
4
1 1
F = .
5 X − ωk
k=0

Exercice 2. Décomposer en éléments simples dans R(X) les fractions rationnelles sui-
vantes.
X2 1
a) F = . b) F = .
(X 4
+ X 2 + 1)2 X(X 2 + 1)2
X7 + 2 1
c) F = . d) F = 2n , n ∈ N∗ .
(X 2 + X + 1)3 X −1

Solution. a) On a (X 4 + X 2 + 1)2 = (X 2 + X + 1)2 (X 2 − X + 1)2 donc


aX + b cX + d eX + f gX + h
∃a, b, c, d, e, f, g, h ∈ R, F = + + + .
X 2 + X + 1 (X 2 + X + 1)2 X 2 − X + 1 (X 2 − X + 1)2
Comme F est paire, l'unicité de la décomposition en éléments simples permet d'obtenir
e = −a, f = b, g = −c, h = d.
Multipliant F par (X 2 + X + 1)2 puis en remplaçant X par j = e2iπ/3 , on obtient
j2 j2 1 1
cj + d = = 2 = donc c = 0 et d = .
(j 2 − j + 1) 2 4j 4 4
On a F (0) = 0 = b + d + f + h = 2b + 12 , d'où b = − 14 .
3. FRACTIONS RATIONNELLES 79

On a F (i) = −1 = ai+b
i − (ci + d) − i − (gi + h), donc −1 = 2a + i − i(c + g) − (d + h) =
ei+f (b−f )

2a − 2d = 2a − 2 , d'où a = − 4 .
1 1

Finalement on a trouvé
1 1 1 1 1 1
a=− , b=− , c = 0, d= , e= , f =− , g = 0, h= .
4 4 4 4 4 4
a bX + c dX + e
b) Il existe a, b, c, d, e ∈ R tels que F + 2
= + . La fraction F est impaire,
X X +1 (X 2 + 1)2
donc c = e = 0. D'après la relation (∗) de la partie 3.2, on a a = 1. Multiplions F par (X 2 + 1)2
puis remplaçons X par i. On obtient 1i = di + e = di donc d = −1.
Multipliant F par X , regardant X comme un nombre réel et en le faisant tendre vers +∞,
on obtient 0 = a + b, donc b = −a = −1.
c) Il s'agit d'un cas classique, qui se traite par divisions euclidiennes successives. On trouve
X 7 + 2 = (X 2 + X + 1)(X 5 − X 4 + X 2 − X) + (X + 2), d'où
X7 + 2 X +2 X5 − X4 + X2 − X
F = = + . (∗)
(X 2 + X + 1)3 (X 2 + X + 1)3 (X 2 + X + 1)2
On recommence, en divisant cette fois ci X 5 − X 4 + X 2 − X par X 2 + X + 1. On obtient
X 5 − X 4 + X 2 − X = (X 2 + X + 1)(X 3 − 2X 2 + X + 2) − 4X − 2, donc
X5 − X4 + X2 − X 4X + 2 X 3 − 2X 2 + X + 2
2 2
=− 2 2
+ . (∗∗)
(X + X + 1) (X + X + 1) X2 + X + 1
De même la division X 3 − 2X 2 + X + 2 = (X 2 + X + 1)(X − 3) + (3X + 5) entraîne
X 3 − 2X 2 + X + 2 3X + 5
= 2 + X − 3. (∗∗∗)
X2 + X + 1 X +X +1
De (∗), (∗∗) et (∗∗∗), on tire
X +2 4X + 2 3X + 5
F = − + 2 + (X − 3).
(X 2 + X + 1) 3 2
(X + X + 1) 2 X +X +1
Ce procédé est facile et à retenir.
2n−1
d) On décompose d'abord dans C(X). On pose ω = eiπ/n , de sorte que X 2n −1 = k=0 (X −ω k ).
2n−1
 ak 1 ωk
Donc F = , où d'après l'identité (∗∗) page 76, ak = = .
X − ωk 2n(ω k )2n−1 2n
k=0
Il ne reste plus qu'à regrouper les termes conjugués. Lorsque 1 ≤ k ≤ n − 1, on a
ωk ω (2n−k) ωk ωk 2 cos(kπ/n)X − 2
+ = + = 2 ,
X − ωk X − ω (2n−k) X − ωk X −ω k X − 2 cos(kπ/n)X + 1
donc
2n−1
 n−1

1  ωk 1 1 1  2 cos(kπ/n)X − 2
F = = − + .
2n X − ωk 2n X −1 X +1 X 2 − 2 cos(kπ/n)X + 1
k=0 k=1

Exercice 3. a) Soit n ∈ N∗ . Montrer qu'il existe Pn ∈ R[X] de degré n tel que


 
1 1
Xn + = P n X + .
Xn X

b) Pour tout n ∈ N∗ , décomposer la fraction rationnelle Fn = 1/Pn en éléments simples


dans R(X).
80 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES

Solution. a) On procède par récurrence sur n ∈ N∗ . Pour n = 1, c'est évident en prenant


P1 (X) = X . Supposons le résultat vrai jusqu'au rang n − 1 et démontrons le au rang n. On a
  n    k m   
1 n  n 1 1  n 1
X+ = X n−k = Xn + n + X n−2k + n−2k + rn ,
X k X X k X
k=0 k=1
 
n
où m = [(n − 1)/2] est la partie entière de (n − 1)/2 et où rn = si n est pair, rn = 0 si n
n/2
est impair. On peut donc écrire
 n m  
  
n1 1 n 1
X + n = X+ − Pn−2k X+ − rn ,
X X k X
k=1
m  
 n
Ainsi, Pn (X) = X n − Pn−2k (X) − rn vérie la propriété requise, et on a bien deg Pn = n.
k
k=1
b) Commençons par chercher les pôles de Fn , qui sont les racines de Pn . On a
 
1 1
Pn x+ = 0 ⇐⇒ xn + = 0 ⇐⇒ x2n = −1 ⇐⇒ x = ωk = ei(2k+1)π/(2n) (k ∈ Z).
x xn
Ainsi, pour tout k ∈ Z, la valeur
1 (2k + 1)π
x k = ωk += ei(2k+1)π/(2n) + e−i(2k+1)π/(2n) = 2 cos
ωk 2n
est une racine de Pn . On remarque que les xk sont deux à deux distincts lorsque 0 ≤ k ≤ n − 1,
et comme deg(Pn ) = n, ceci montre que x0 , x1 , . . . , xn−1 sont les racines de Pn et qu'elles sont
simples. Maintenant, on peut écrire (grâce à la relation (∗∗) page 76)
 n−1
1 1 1
Fn = = · . (∗)
Pn Pn (xk ) X − xk
k=0

Il ne reste plus qu'à remarquer, après dérivation de la relation Pn (X + 1/X) = X n + 1/X n , que
   
1 1 n n n
1− 2 Pn ωk + = nωkn−1 − = (ω − ωk−n )
ωk ωk ωkn+1 ωk k
donc
n −n sin (2k+1)π n
Pn (xk ) = −1 (ω n
k − ω k ) = n 2
(2k+1)π
= (−1)k (2k+1)π
,
ωk − ωk sin 2n sin 2n
d'où la décomposition en éléments simples de Fn en reportant cette égalité dans (∗).

Exercice 4. Pour tout F ∈ C(X), on note DF = C  {a1 , . . . , an }, où a1 , . . . , an sont les


pôles de F , et on identie F avec la fonction rationnelle DF → C z → F (z).
a) Si F ∈ C(X) est non constante, montrer que
(i) F (DF ) = C ou (ii) ∃α ∈ C | F (DF ) = C  {α}
et caractériser les fractions rationnelles F vériant l'assertion (ii).
b) Si F, G ∈ C(X), et si G n'est pas une constante qui est un pôle de F , il est possible
de dénir la composée F ◦ G ∈ C(X). Donner la forme des fractions rationnelles F et
G ∈ C(X) telles que la fraction rationnelle F ◦ G soit un polynôme.

Solution. a) Soit F = N/D la forme réduite de F . Par hypothèse, F est non constante donc l'un
au moins des polynômes N, D est non constant. Pour tout λ ∈ C, l'équation F (z) = λ (z ∈ DF )
est équivalente à (N − λD)(z) = 0 (z ∈ C). (En eet, si (N − λD)(z) = 0 alors on doit avoir
D(z) = 0 sinon N et D ont une racine commune, donc z ∈ DF ). Deux cas se présentent :
3. FRACTIONS RATIONNELLES 81

(i) Pour tout λ ∈ C, le polynôme N − λD est non constant. Le corps des nombres complexes
étant algébriquement clos, N − λD admet une racine zλ pour tout λ ∈ C. Ainsi, pour tout
λ ∈ C, F (zλ ) = λ et on en déduit F (DF ) = C.
(ii) Il existe α ∈ C tel que N − αD est constant. Pour tout λ = α, le polynôme N − λD est
non constant (si N − λD est constant pour λ = α, il est facile de voir que l'on doit avoir
N et D constants, ce qui est contraire aux hypothèses) donc admet au moins une racine
zλ qui vérie F (zλ ) = λ. Ainsi, C  {α} ⊂ F (DF ). De plus, le polynôme N − αD est une
constante non nulle (si elle est nulle, F est constant égal à α), donc l'équation N − αD = 0
n'a pas de solution. Finalement, F (DF ) = C  {α}.
Les fractions rationnelles F = N/D vériant (ii) sont celles vériant ∃c ∈ C∗ | N − αD = c.
Ainsi, F = N/D = (αD + c)/D = α + c/D est de la forme F = α + 1/P où P est un polynôme
non constant et réciproquement, une fraction rationnelle de cette forme vérie (ii).
b) Si F est constant, F ◦ G = F est toujours un polynôme. De même, si G est constant et si G
n'est pas un pôle de F , F ◦ G est une constante donc un polynôme.
Supposons maintenant F et G non constants. Si α est un pôle de F , on a lim z→α
z=α
|F (z)| = +∞,
donc si α = G(β) ∈ G(DG ), le théorème de composition des limites entraîne
lim |F ◦ G(z)| = +∞
z→β
z=β

ce qui est impossible si F ◦ G est un polynôme. Ainsi nous venons de montrer


Si F ◦ G est un polynôme, tout pôle de F appartient à C  G(DG ). (∗)
D'après la question précédente, l'ensemble C  G(DG ) a au plus un élément, ce qui montre que
nécessairement F a au plus un pôle.
 Si F n'a pas de pôle, c'est-à-dire si F est un polynôme, alors si F ◦ G est un polynôme,
G est un polynôme. En eet, si G admet un pôle β , alors lim z→β |G(z)| = +∞ et le
z=β
polynôme F étant non constant on en déduit
lim |F ◦ G(z)| = +∞ car lim |F (z)| = +∞,
z→β |z|→+∞
z=β

et F ◦ G ne peut donc pas être un polynôme.


 Si F admet un seul pôle α, on peut écrire F sous la forme
P (X − α)
F = , P ∈ C[X] et h ∈ N∗ .
(X − α)h
Pour que F ◦ G soit un polynôme, la propriété (∗) entraîne C  G(DG ) = {α}. Comme G
n'est pas constant (le cas G constant a été traité plus haut), d'après la question a), ceci
entraîne G = α + 1/Q où Q est un polynôme non constant. On a alors
P (1/Q)
F ◦G= = Qh P (1/Q).
(1/Q)h
 
En écrivant P = nk=0 ak X k (où n = deg P ), ceci s'écrit aussi F ◦ G = nk=0 ak Qh−k ,
et ceci est un polynôme si et seulement si n = deg(P ) ≤ h.
Réciproquement, il est facile de vérier que les solutions trouvées conviennent. Finalement,
F ◦ G est un polynôme si et seulement si l'une des conditions suivantes est vériée :
(i) F est constant.
(ii) G est constant et n'est pas un pôle de F .
(iii) F et G sont des polynômes.
P (X)
(iv) F = où P ∈ C[X] et deg(P ) ≤ h, et G = α + 1/Q où Q ∈ C[X].
(X − α)h
82 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES

Exercice 5. 1/ Déterminer les polynômes de C[X] qui laissent stable le cercle unité
U = {z ∈ C | |z| = 1} de C.
2/ Déterminer les fractions rationnelles de C(X) qui laissent stable U.
Solution. 1/ Pour tout polynôme P = a0 + · · · + an X n ∈ C[X] de degré n ∈ N, on note P ∗ le
polynôme déni par
P ∗ (X) = a0 X n + a1 X n−1 + · · · + an = X n P (1/X).
Lorsque z ∈ U, on a 1/z = z donc P ∗ (z) = z n P (z) = z n P (z), et lorsque P stabilise U on a
donc P (z)P ∗ (z) = z n |P (z)|2 = z n . Ainsi, le polynôme P (X)P ∗ (X) − X n s'annule sur U, donc
une innité de fois, donc c'est le polynôme nul. On en déduit P (X)P ∗ (X) = X n , et comme
deg(P ) = n il existe λ ∈ C∗ tel que P (X) = λX n et P ∗ (X) = 1/λ. Comme |P (1)| = 1 on a
forcément |λ| = 1, donc nalement P (X) = λX n avec |λ| = 1.
Réciproquement, il est immédiat que tout polynôme de cette forme stabilise le cercle unité.
2/ Soit F ∈ C(X) laissant stable U. On peut écrire F sous la forme F = X n P/Q où n ∈ Z et
P, Q ∈ C[X] sont premiers entre eux, avec P (0) = 0 et Q(0) = 0. Soit a = deg P , b = deg Q.
Pour tout z ∈ U qui n'est pas un zéro de Q ou de Q∗ , on peut écrire
 2
P ∗ (z) z a P (z) P (z) P ∗ (z) a−b |P (z)|
2  
a−b  P (z) 
= , donc = z = z  = z a−b .

Q (z) z b Q(z) ∗
Q(z) Q (z) |Q(z)| 2 Q(z) 
Si a ≥ b, on en déduit que le polynôme P (X)P ∗ (X) − X a−b Q(X)Q∗ (X) s'annule sur U (sauf
eventuellement sur les zéros de Q et Q∗ ), donc il s'annule une innité de fois, donc il est nul.
Donc P (X)P ∗ (X) = X a−b Q(X)Q∗ (X). Comme P (0)Q(0) = 0 on a deg P ∗ = deg P = a et
deg Q∗ = deg Q = b, donc l'égalité implique 2a = a − b + 2b = a + b donc a = b. Donc
P P ∗ = QQ∗ . Si a < b, un raisonnement similaire à partir de Q(X)Q∗ (X) − X b−a P (X)P ∗ (X)
aboutit à la même conclusion.
On a donc Q | P P ∗ et comme P et Q sont premiers entre eux, on en déduit Q | P ∗ . On a
vu que ces polynômes ont même degré, on en déduit l'existence de α ∈ C∗ tel que Q = αP ∗ ,
donc F = (X n /α)P (X)/P ∗ (X). Donc F = βX m P (X)/P (1/X) avec β = 1/α et m = n − a.
Comme F (1) ∈ U on a forcément β ∈ U. Réciproquement, on vérie facilement que tout fraction
rationnelle de la forme F (X) = βX m P (X)/P (1/X) avec m ∈ Z, β ∈ U et P ∈ C[X] (P = 0)
stabilise bien le cercle unité.

4. Polynômes à plusieurs indéterminées


4.1. Généralités
Soit A un anneau commutatif unitaire. L'anneau A[X] est aussi commutatif unitaire.
On peut donc dénir l'anneau des polynômes à une indéterminée à coecients dans A[X].
C'est A[X][Y ], noté aussi A[X, Y ], appelé anneau des polynômes à coecients dans A à
deux indéterminées . Les éléments de A[X, Y ] sont ceux de la forme

P = ai,j X i Y j , ai,j ∈ A
i,j

où la somme sur (i, j) est nie. Par récurrence, on dénit même


A[X1 , . . . , Xn ] = A[X1 , . . . , Xn−1 ][Xn ],
anneau des polynômes à coecients dans A à n indéterminées.
 Si A = K est un corps commutatif, K[X1 , · · · , Xn ] est une K-algèbre, dont
{X1i1 · · · Xnin | (i1 , . . . , in ) ∈ Nn } est une base.
 Si A est intègre, A[X1 , . . . , Xn ] est un anneau intègre.
4. POLYNÔMES À PLUSIEURS INDÉTERMINÉES 83

Si n ≥ 2, et K est un corps, K[X1 , · · · , Xn ] n'est pas un anneau principal (en revanche


c'est un anneau factoriel, ce qui lui confère des propriétés arithmétiques ; cette notion
n'est pas au programme de mathématiques spéciales).
Définition1 (Degré partiel). Soit P ∈ A[X1 , . . . , Xn ] et i, 1 ≤ i ≤ n. On peut
écrire P = P
j j iX j
avec pour tout j , P j ∈ A[X1 , . . . , Xi−1 , Xi+1 , . . . , Xn ]. On appelle
degré partiel de P selon Xi le degré de P considéré comme polynôme en Xi et on le note
degXi (P ) (avec les notations précédentes, degXi (P ) = sup{j | Pj = 0}).

Définition 2 (Degré total). Le degré total d'un monôme aX1i1 · · · Xnin , a = 0, est
i1 + · · · + in . Si P ∈ A[X1 , . . . , Xn ], le degré total de P , noté deg(P ), est le plus grand
degré total des monômes qui forment P .
De même que dans K[X], on peut dénir dans K[X1 , . . . , Xn ] des fonctions polynôme
de n variables. On a en particulier le résultat suivant.
Proposition 1. Soit K un corps commutatif inni et un polynôme P ∈ K[X1 , . . . , Xn ].
Si P (x1 , . . . , xn ) = 0 pour tout n-uplet (x1 , . . . , xn ) de Kn , on a P = 0.
Remarque 1.  Comme pour les polynômes à une indéterminée, ce résultat est faux
si K est un corps ni. Par exemple dans Z/pZ[X1 , . . . , Xn ] (p premier), le polynôme
P = (X1 )(X1 − 1) · · · (X1 − (p − 1))X2 · · · Xn est non nul et pourtant, pour tout
x1 , . . . , xn ∈ Z/pZ, P (x1 , . . . , xn ) = 0.
 Attention, même si K est un corps inni, on peut avoir P (x1 , . . . , xn ) = 0 pour une
innité de n-uplets (x1 , . . . , xn ) sans que P = 0 (prendre par exemple P (X, Y ) =
X − Y sur R[X, Y ]).
4.2. Polynômes symétriques
Définition 3. Un polynôme P ∈ A[X1 , . . . , Xn ] est dit symétrique si pour tout σ ∈ Sn
(où Sn désigne le groupe symétrique d'indice n), P (Xσ(1) , . . . , Xσ(n) ) = P (X1 , . . . , Xn ).
Exemple 1. Dans R[X, Y, Z], P = XY + Y Z + ZX est symétrique.

Définition 4 (Symétrisé d'un monôme). Soit M = X1α1 · · · Xnαn ∈ A[X1 , · · · Xn ]. Si


σ ∈ Sn , on pose Mσ = α1
Xσ(1) . Le polynôme
αn
· · · Xσ(n) Mσ est symétrique dans
Mσ distincts 
A[X1 , . . . , Xn ]. On l'appelle symétrisé de M dans A[X1 , . . . , Xn ] et on le note M.
 2
Exemple 2. Dans K[X1 , X 2 ], 2 X1 X2 =2 X1 X2 + X21 X2 . 2
2 2

Dans K[X1 , X2 , X3 ], X1 X2 = X1 X2 + X1 X2 + X2 X3 + X32 X2 + X12 X3 + X1 X32 .


(On voit sur cet exemple que les symétrisés d'un monôme dans A[X1 , . . . , Xm ] et dans
A[X1 , . . . , Xn ] sont diérents si n = m).
Polynômes symétriques élémentaires. On appelle polynômes symétriques élémen-
taires de A[X1 , . . . , Xn ] les polynômes notés Σp (1 ≤ p ≤ n) et dénis par
 
Σp = X1 · · · Xp = X i1 · · · X ip .
i1 <···<ip

On a en particulier
  
Σ1 = X 1 = X 1 + · · · + Xn , Σ2 = X 1 X2 = Xi Xj , Σn = X1 · · · Xn .
i<j

Les polynômes symétriques élémentaires vérient l'égalité fondamentale


(T − X1 ) · · · (T − Xn ) = T n − Σ1 T n−1 + Σ2 T n−2 + · · · + (−1)n−1 Σn−1 T + (−1)n Σn .
84 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES

En particulier, si P = X n + a1 X n−1 + · · · + an est un polynôme de K[X] scindé sur K et


si u1 , . . . , un sont ses racines, alors ∀i, 1 ≤ i ≤ n, (−1)i ai = Σi (u1 , . . . , un ).
Remarque 2. Si Φ ∈ A[X1 , . . . , Xn ], alors Φ[Σ1 (X1 , . . . , Xn ), . . . , Σn (X1 , . . . , Xn )] est un
polynôme symétrique de A[X1 , . . . , Xn ]. La réciproque est vraie : tout polynôme symé-
trique peut se mettre sous cette forme. Plus précisément, on a le théorème suivant :

 Théorème 1. Soit A un anneau commutatif unitaire et P ∈ A[X1 , . . . , Xn ] un polynôme


symétrique dans A[X1 , . . . , Xn ]. Il existe un unique polynôme Φ ∈ A[X1 , . . . , Xn ] tel que
P = Φ(Σ1 , . . . , Σn ).

Remarque 3. Une preuve classique de ce résultat consiste à utiliser la méthode de Waring


dont le principe est de faire diminuer la hauteur de P en lui retranchant le produit d'une
constante et de polynômes symétriques élémentaires. Un cas typique d'utilisation de cette
méthode fait l'objet de l'exercice 1.
 
Exemple 3. Dans A[X1 , . . . , Xn ], X12 = Σ21 − 2Σ2 et X12 X2 = Σ1 Σ2 − 3Σ3 .
Remarque 4. Ce théorème entraîne le résultat suivant. Soit P ∈ Z[X] un polynôme
unitaire. Les fonctions symétriques σ1 , . . . , σn de ses racines u1 , . . . , un sont donc en-
tières. Si F ∈ Z[X1 , . . . , Xn ] est symétrique, alors F (u1 , . . . , un ) ∈ Z (l'existence de G ∈
Z[X1 , . . . , Xn ] tel que F = G(Σ1 , . . . , Σn ), entraîne F (u1 , . . . , un ) = G(σ1 , . . . , σn ) ∈ Z).
4.3. Exercices
Exercice 1. Exprimer les polynômes P suivants comme un polynôme Φ en les polynômes
symétriques élémentaires σi .
a) P = X
 +2Y 2 + Z ∈ R[X, Y, Z].
3 3 3

b) P = X1 X2 X3 ∈ R[X1 , . . . , Xn ] pour n ≥ 5.
Solution. a) On a (X + Y + Z)3 = X 3 + Y 3 + Z 3 + 3X 2 Y
+ 3X 2 Z + 3Y 2 2 2
 X 2+ 3Y Z + 3Z X +
3Z 2 Y + 6XY Z , et donc X 3 + Y 3 + Z 3 = Σ31 − 6Σ3 − 3 X 2 Y . Or X Y = Σ1 Σ2 − 3Σ3 .
Finalement, on a P = Σ31 − 3Σ1 Σ2 + 3Σ3 .
b) Rappelons que la méthode générale (méthode de Waring) pour trouver le polynôme Φ consiste
à faire diminuer la hauteur de P (la hauteur de P est la plus grande des hauteurs de ses monômes,
la hauteur d'un monôme aX1α1 · · · Xnαn étant (α1 , . . . , αn ), ordonnée par l'ordre lexicographique).
 Ici, le monôme
 le plus haut de P est X12 X22 X3 . On va donc commencer par retrancher P à
( X1 X2 )( X1 X2 X3 ) = Σ2 Σ3 . Calculons ce dernier terme. Chaque monôme de Σ2 Σ3 est de
degré total 5 (produit de deux monômes de degré total 2 et 3) et est moins haut que X12 X22 X3 .
On peut donc écrire
  
∃a, b, c, Σ2 Σ3 = a X12 X22 X3 + b X12 X2 X3 X4 + c X 1 X2 X3 X4 X5 .

Le nombre a est le coecient de X12 X22 X3 dans Σ2 Σ3 . C'est donc le nombre de manières de
former X12 X22 X3 par un monôme de Σ2 multiplié par un monôme de Σ3 . Il n'y a qu'une seule
façon de faire ceci. C'est X12 X22 X3 = (X1 X2 )(X1 X2 X3 ), donc a = 1.
 De même, on a b = 3 car les façons d'écrire X12 X2 X3 X4 comme le produit d'un monôme de
Σ2 par un monôme de Σ3 sont
X12 X2 X3 X4 = (X1 X2 )(X1 X3 X4 ) = (X1 X3 )(X1 X2 X4 ) = (X1 X4 )(X1 X2 X3 ).

 On trouve de même c = 52 = 10.
 
 Finalement, on a P − Σ2 Σ3 = −3 X12 X2 X3 X4 − 10 X1 X2 X3 X4 X5 . Par des méthodes
analogues aux précédentes, on trouve
 
Σ1 Σ4 = X12 X2 X3 X4 + 5 X1 X2 X3 X4 X5 ,
4. POLYNÔMES À PLUSIEURS INDÉTERMINÉES 85


et donc X12 X2 X3 X4 = Σ1 Σ4 − 5Σ5 . Finalement, on a
P = Σ2 Σ3 − 3(Σ1 Σ4 − 5Σ5 ) − 10Σ5 = Σ2 Σ3 − 3Σ1 Σ4 + 5Σ5 .

Remarque. Il est conseillé dans ce type de calcul de vérier les résultats, en donnant par
exemple à n, X1 , . . . , Xn des valeurs particulières.

Exercice 2. Soit P = X 3 + pX + q ∈ R[X] et α, β, γ ses racines complexes.


a) Calculer ∆ = (α − β)2 (β − γ)2 (γ − α)2 en fonction de p et q.
b) En déduire une condition nécessaire et susante portant sur p et q pour que P ait
trois racines réelles.
Solution. a) Posons σ1 = α + β + γ , σ2 = αβ + βγ + γα, σ3 = αβγ . La relation entre coecients
et racines d'un polynôme (voir le théorème 1 page 64) donne σ1 = 0, σ2 = p et σ3 = −q .
Comme ∆ est symétrique en α, β , γ , on peut l'exprimer comme un polynôme en σ1 , σ2 , σ3 .
Plutôt que de calculer directement ce polynôme (les manipulations sont lourdes), nous allons
utiliser une technique dont les calculs sont plus simples.
Supposons dans un premier temps q = 0, c'est-à-dire αβγ = σ3 = 0, de sorte que α, β et γ
sont non nuls. On a (α − β)2 = α2 + β 2 − 2αβ . Or α2 + β 2 + γ 2 = σ12 − 2σ2 = −2p, donc
2q
(α − β)2 = −2p − γ 2 − 2αβ = −2p − γ 2 + .
γ
On montrerait de même
2q 2p
(β − γ)2 = −2p − α2 + et (γ − α)2 = −2p − β 2 + .
α β
Finalement, on a  
 2q
∆= −2p − x2 + .
x
x racine de P
Recherchons un polynôme Q dont les racines sont les y = −2p − x2 + 2q/x (x = α, β, γ ).
  2 
x3 + px + q = 0 x = −p − q/x 0 = 1 + p/x2 + q/x3
2 ⇐⇒ ⇐⇒
−2p − x + 2q/x = y y = −p + 3q/x x = 3q/(y + p)
 2  3
y+p y+p
⇐⇒ 1 + p +q = 0 ⇐⇒ y 3 + 6py 2 + 9p2 y + (4p3 + 27q 2 ) = 0.
3q 3q
Donc Q = X 3 + 6pX 2 + 9p2 X + (4p3 + 27q 2 ). Le nombre ∆ apparaissant comme le produit des
racines de Q, on en déduit ∆ = −(4p3 + 27q 2 ).
Ceci est vrai pour q = 0. Si q = 0, alors une des racines de P est nulle, par exemple α, et
alors ∆ = β 2 γ 2 (β − γ)2 . Or σ1 = 0 = β + γ , donc γ = −β et donc ∆ = β 4 · (2β)2 = 4β 6 . Il ne
reste plus qu'à remarquer que p = σ2 = βγ = −β 2 , et donc ∆ = −4p3 .
Finalement, dans tous les cas, ∆ = −(4p3 + 27q 2 ).
b) Le polynôme P ∈ R[X] est de degré impair et admet donc au moins une racine dans R (c'est
classique ! Comme limx→+∞ P (x)P (−x) = −∞, il existe a > 0 tel que P (a) et P (−a) aient des
signes opposés, et P étant continue, il existe x ∈ ] − a, a[ tel que P (x) = 0 d'après le théorème
des valeurs intermédiaires). Notons par exemple α une telle racine réelle. Deux cas se présentent.
 Premier cas. β et γ sont réelles. Alors ∆ = (α − β)2 (β − α)2 (γ − α)2 ≥ 0.
 Second cas. β et γ sont non réelles. Alors elles sont complexes conjuguées. Autrement dit,
on peut écrire β = x + iy et γ = x − iy avec x, y ∈ R, y = 0. On a alors
 2  2
∆ = (α − β)(α − γ) (β − γ)2 = |α − β|2 (2iy)2 = −4y 2 |α − β|4 < 0.

Finalement, on voit que P a trois racines réelles si et seulement si ∆ = −(4p3 + 27q 2 ) ≥ 0.


86 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES

Remarque. Ce dernier résultat peut également s'obtenir à partir des formules de Cardan
donnant les racines de P en fonction de ses coecients (voir l'annexe A).
 Le nombre ∆ s'appelle le discriminant de P . De manière générale, pour tout polynôme
Q de degré n ≥ 2 dont on note x1 , . . . , xn les racines, le discriminant de Q est déni par
∆ = i<j (xi − xj )2 . Comme ∆ est symétrique en les xi , il s'exprime comme un polynôme
en les coecients de Q. On voit par ailleurs que Q n'admet que des racines simples si et
seulement si ∆ = 0.

 Exercice 3 (Identités de Newton). Soit un entier n ≥ 2. On appelle sommes de


Newton les polynômes
n

Sp = Xip ∈ R[X1 , . . . , Xn ].
i=1
Comme Sp est symétrique, il s'exprime comme polynôme en les polynômes symétriques
élémentaires : Sp = Φp (Σ1 , . . . , Σn ). On se propose de donner des formules simples per-
mettant de calculer le polynôme Φp . 
a) Soit (x1 , . . . , xn ) ∈ Rn . Pour tout p ∈ N∗ , onpose sp = ni=1 xpi et pour tout i, on
i = Σi (x1 , . . . , xn ), σi = (−1) σi . Soit P =
pose σ  i
i=1 (X − xi ). En partant de l'identité
n

P = i=1 X−xi , montrer


 n P

∀k, 1 ≤ k ≤ n − 1, Sk − Σ1 Sk−1 + · · · + (−1)k−1 Σk−1 S1 + (−1)k kΣk = 0. (∗)


b) Pour tout p ∈ N, donner une relation entre Sn+p , Sn+p−1 , . . . , Sp .
Solution. On a P = X n + σ1 X n−1 + · · · + σn−1
 X + σn . Pour tout i, la division euclidienne de
P par X − xi donne
P
= X n−1 + (xi + σ1 )X n−2 + (x2i + σ1 xi + σ2 )X n−3 + · · ·
X − xi
· · · + (xn−1
i + σ1 xn−2
i

+ · · · + σn−2 
xi + σn−1 ). (∗∗)
En sommant l'égalité (∗∗) pour 1 ≤ i ≤ n, on trouve
n
 P
P = = nX n−1 + (s1 + nσ1 )X n−2 + (s2 + σ1 s1 + nσ2 )X n−3 + · · ·
X − xi
i=1
· · · + (sn−1 + σ1 sn−2 + · · · + σn−2
 
s1 + nσn−1 ).
Or on sait que P  = nX n−1 + (n − 1)σ1 X n−2 + · · · + σn−1
 . En identiant les coecients, on
trouve
∀k, 1 ≤ k ≤ n − 1, sk + sk−1 σ1 + · · · + s1 σk−1

+ kσk = 0.
Autrement dit, si Pk = Sk −Sk−1 Σ1 +· · ·+(−1)k−1 S1 Σk−1 +(−1)k kΣk , on a Pk (x1 , · · · , xn ) = 0,
et ceci pour tout (x1 , . . . , xn ) ∈ Rn , donc Pk = 0 (1 ≤ k ≤ n − 1) d'où le résultat.
b) Il sut de remarquer que
∀i, xp+n
i + σ1 xp+n−1
i

+ · · · + σn−1 xp+1
i + σn xpi = xpi P (xi ) = 0,
et en sommant cette égalité pour 1 ≤ i ≤ n :
sp+n + σ1 sp+n−1 + · · · + σn−1

sp+1 + σn sp = 0.
Ceci étant vrai pour tout (x1 , . . . , xn ) ∈ Rn , on en déduit que
Sp+n − Σ1 Sp+n−1 + · · · + (−1)n−1 Σn−1 Sp+1 + (−1)n Σn Sp = 0.

Remarque. En procédant par récurrence sur p, ces formules permettent de trouver fa-
cilement les polynômes en Σ1 , . . . , Σn égaux à Sp . Elles peuvent en particulier s'inverser
5. PROBLÈMES 87

(pour 1 ≤ p ≤ n), ce qui prouve que les Σi (1 ≤ i ≤ n) s'expriment comme des polynômes
en les Si (1 ≤ i ≤ n). Donc tout polynôme symétrique de R[X1 , . . . , Xn ] peut s'exprimer
comme un polynôme en les sommes de Newton S1 , . . . , Sn .

5. Problèmes
Problème 1 (Transformée de Fourier discrète d'un polynôme). On se xe un
entier n ≥ 1 et on note ω = e2iπ/n .
a) Pour tout polynôme P ∈ C[X], on dénit les polynômes
n−1
 n−1

Fd (P ) = P (ω k )X k et F d (P ) = P (ω −k )X k ∈ C[X].
k=0 k=0

Si P ∈ C[X] et deg(P ) ≤ n − 1, montrer que F d [Fd (P )] = nP .


b) Conséquence. Soit P ∈ Z[X] vériant
(i) ∀j ∈ Z, |P (ω j )| ≤ 1 (ii) ∃k ∈ {0, 1, . . . , n − 1} tel que P (ω k ) = 0.
Montrer que (X n − 1) divise P .

Solution. a) Écrivons P = a0 + a1 X + · · · + an−1 X n−1 . Si 0 ≤ k ≤ n − 1, le coecient de X k


dans F d [Fd (P )] est
n−1 n−1
 
  n−1 
−k −jk
[Fd (P )](ω ) = j
P (ω )ω = ai ω ω −jk
ij

j=0 j=0 i=0


 
 n−1
 n−1

= ai ω (i−k)j = ai  (ω i−k )j  . (∗)
0≤i,j≤n−1 i=0 j=0

Lorsque 0 ≤ i ≤ n − 1, ξ = ω i−k est une racine n-ième de l'unité égale à 1 si et seulement si


i = k , donc
n−1


i−k j 0 si i = k
(ω ) = .
j=0
n si i = k

Ainsi, (∗) s'écrit [Fd (P )](ω −k ) = nak . Donc


n−1
 n−1

F d [Fd (P )] = [Fd (P )](ω −k )X k = nak X k = nP.
k=0 k=0

b) Commençons par eectuer la division euclidienne de P par X n − 1 : P = (X n − 1)Q + R,


deg(R) ≤ n − 1 et (Q, R) ∈ Z[X] (le quotient et le reste sont à coecients entiers car X n − 1 est
unitaire, voir la remarque 3 de la partie 1.3  page 58). Pour tout entier j , on a P (ω j ) = R(ω j )
dont R vérie également (i) et (ii). Or deg(R) ≤ n − 1, donc d'après a),
n−1
 [Fd (R)](ω −j )
1
R= F d [Fd (R)] = Xj. (∗∗)
n n
j=0
 n−1
Or Fd (R)(ω −j ) = n−1 i −ij , donc |F (R)(ω −j )| ≤
i=0 R(ω )ω d i=0 |R(ω i )|, et R vériant (i) et (ii),
cette dernière inégalité entraîne
 
 Fd (R)(ω −j )  n − 1
 ≤ < 1. (∗∗∗)
 n  n
88 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES

D'après (∗∗), comme R est à coecients entiers, on a n1 Fd (R)(ω −j ) ∈ Z, donc d'après (∗∗∗),
n Fd (R)(ω ) = 0, et ceci pour tout j , 0 ≤ j ≤ n − 1. De (∗∗) on en déduit R = 0 et donc X − 1
1 −j n

divise P .

Problème 2. 1/ Soit P ∈ C[X] tel que ∀n ∈ N, P (n) ∈ Z.


a) Montrer que P ∈ Q[X].
b) Plus précisément, si d = deg(P ), montrer que d!P ∈ Z[X].
2/ Soit F ∈ C(X) une fraction rationnelle telle que pour tout entier n ∈ N qui n'est pas
un pôle de F , F (n) ∈ Q. Montrer que F ∈ Q(X).
3/ Soit F ∈ C(X) une fraction rationnelle vériant : pour tout entier n ∈ N qui n'est pas
un pôle de F , F (n) ∈ Z. Montrer que F est un polynôme de Q[X].

Solution. 1/ a) Si P est constant, le résultat est évident.


 Sinon
 d = deg(P ) ≥ 1. Considérons
 X −i
les polynômes d'interpolation de Lagrange Lk = pour 0 ≤ k ≤ d, de sorte que si
0≤i≤d
k−i
i=k

j ∈ N, 0 ≤ j ≤ d, Lk (j) = 0 si j = k et Lk (k) = 1. Le polynôme Q = dk=0 P (k)Lk prend les
mêmes valeurs que P aux d + 1 points 0, 1, . . . , d. Autrement

dit, P − Q s'annule en d + 1 points.
Or deg(P − Q) ≤ d, donc P − Q = 0, et donc P = Q = dk=0 P (k)Lk ∈ Q[X] car P (k) ∈ Z et
Lk ∈ Q[X].
   
d! d
b) Il sut s'écrire d! Lk = (−1)d−k (X − i) = (−1)d−k (X − i) ∈ Z[X]
k!(d − k)! 0≤i≤d k 0≤i≤d
i=k i=k
d
donc d! P = k=0 P (k) · d! Lk ∈ Z[X].
Remarque : On ne peut pas faire mieux. Par exemple, P = X(X − 1) · · · (X − d + 1)/d! est de
degré d et vérie ∀n ∈ N, P (n) ∈ Z.
2/ Nous allons montrer le résultat plus fort suivant : si F ∈ C(X) est tel que F (n) ∈ Q pour
une innité d'entiers naturels n, alors F ∈ Q(X).
En notant F = P/Q la forme réduite de F , où P et Q ∈ C[X] sont premiers entre eux,
nous allons prouver le résultat par récurrence sur r = deg(P ) + deg(Q) (si F = 0, il n'y a rien à
montrer).
 Lorsque r = 0, P et Q sont constants et le résultat est évident.
 Supposons le résultat vrai jusqu'au rang r − 1 et montrons le au rang r. Quitte à considérer
1/F , on peut supposer deg(P ) ≥ deg(Q). Soit a ∈ N tel que P (a)/Q(a) ∈ Q. Notons

 
1 P (a) P∗ P (X)Q(a) − Q(X)P (a)
G= F (X) − = où P ∗ (X) = .
X −a Q(a) Q Q(a)(X − a)

On a P ∗ ∈ C[X] et deg(P ∗ ) < deg(P ). De plus G(n) ∈ Q pour une innité de n ∈ N. On


peut donc appliquer l'hypothèse de récurrence qui entraîne G ∈ Q(X). Donc F = (X − a)G +
P (a)/Q(a) ∈ Q(X).
3/ D'après 2/, F ∈ Q(X). Écrivons F = E + P/Q, où E , P et Q sont des polynômes de
Q[X] avec deg(P ) < deg(Q). Soit α ∈ N∗ tel que αE ∈ Z[X]. Comme deg(P ) < deg(Q) on a
limn→+∞ P (n)/Q(n) = 0 et donc il existe N > 0 tel que pour tout n > N , |αP (n)/Q(n)| < 1.
Or αE ∈ Z[X], donc pour tout n ∈ N, n > N , αP (n)/Q(n) = αF (n) − αE(n) ∈ Z. On en déduit
P (n) = 0 pour tout n ∈ N tel que n > N . Ceci implique P = 0 et donc F = E ∈ Q[X].
5. PROBLÈMES 89

Problème 3. Soit P = X n + a1 X n−1 + · · · + an−1 X + an ∈ C[X]. On note ρ ≥ 0 le plus


grand des modules des racines de P , et on suppose que les ai ne sont pas tous nuls, de
sorte que ρ = 0.

1/ a) Montrer que ρ ≤ sup{1, ni=1 |ai |}.
b) Montrer que ρ ≤ 1 + sup1≤i≤n |ai |.
 
2/ a) On pose f (x) = xn − |a1 | xn−1 + · · · + |an−1 | x + |an | . Montrer que f admet une
unique racine strictement positive α, que si 0 < x < α alors f (x) < 0, et que si x > α
alors f (x) > 0. Prouver ensuite (21/n − 1) α ≤ ρ ≤ α.
b) Si R = sup1≤k≤n |ak |1/k , montrer R/n ≤ ρ ≤ 2R.
Solution. 1/a) Si ρ ≤ 1, c'est terminé. Sinon, considérons α ∈ C une racine de P telle que
|α| = ρ. L'égalité P (α) = 0 s'écrit aussi αn = −a1 αn−1 − · · · − an−1 α − an , donc
a2 an−1 an
α = −a1 − − · · · − n−2 − n−1 ,
α α α
ce qui entraîne
|a2 | |an |
ρ = |α| ≤ |a1 | +
+ · · · + n−1 . (∗)
ρ ρ
Comme ρ ≥ 1, on en déduit ρ ≤ |a1 | + |a2 | + · · · + |an |.
b) Si ρ ≤ 1, c'est terminé. Sinon, en posant a = sup1≤i≤n |ai |, l'inégalité (∗) entraîne
 
+∞
a a 1 a
ρ ≤ a + + · · · + n−1 ≤ a  =
ρ ρ ρp 1 − 1/ρ
p=0

et donc ρ − 1 ≤ a d'où ρ ≤ 1 + a.
2/a) La fonction g(x) = f (x)/xn est croissante (somme de fonctions croissantes) strictement sur
]0, +∞[. De plus, limx→0+ g(x) = −∞ et limx→+∞ g(x) = 1. Ceci montre qu'il existe a > 0
et b > a tels que g(a) < 0 et g(b) > 0. D'après le théorème des valeurs intermédiaires, il existe
donc α > 0 (compris entre a et b) tel que g(α) = 0. Comme g est strictement croissante, on a
g(x) < 0 pour 0 < x < α et g(x) > 0 pour x > α. Comme f (x) = xn g(x), on en déduit
f (α) = 0, f (x) < 0 pour 0 < x < α, f (x) > 0 pour x > α. (∗∗)
Ceci étant, l'inégalité (∗) entraîne f (ρ) ≤ 0, d'où on tire ρ ≤ α d'après (∗∗).
Il reste à prouver l'inégalité (21/n − 1)α≤  ρ. L'expression des coecients d'un polynôme en
n k
fonction de ses racines montre que |ak | ≤ ρ pour 1 ≤ k ≤ n, donc
k
n
 n  
 n k n−k
∀x > 0, |ak |xn−k ≤ ρ x = (ρ + x)n − xn ,
k
k=1 k=1
ce qui entraîne
 
∀x > 0, f (x) ≥ xn − (ρ + x)n − xn = 2xn − (ρ + x)n .
ρ
Le terme 2xn − (ρ + x)n s'annule lorsque 21/n x = ρ + x, c'est-à-dire lorsque x = . Ainsi,
  21/n−1
ρ ρ
f ≥ 0 et on en déduit grâce à (∗∗) que ≥ α, ou encore ρ ≥ (21/n − 1) α.
21/n − 1 21/n − 1
b) Pour montrer ρ ≤ 2R il sut de montrer α ≤ 2R d'après la question précédente. En vertu de
l'assertion (∗∗), on se ramène donc à prouver que f (2R) ≥ 0. Par dénition de R, on a |ak | ≤ Rk
pour tout k, 1 ≤ k ≤ n. Si r = 2R, on a donc |ak | rn−k ≤ rn /2k , d'où
 
1 1
|a1 | rn−1 + · · · + |an−1 | r + |an | ≤ rn + ··· + n ≤ rn ,
2 2
d'où f (r) = f (2R) ≥ 0.
90 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES

   
n k n
 Montrons R/n ≤ ρ. On a vu plus haut que |ak | ≤ ρ pour 1 ≤ k ≤ n. Or =
k k
|ak |1/k
n · · · (n − k + 1)/k! ≤ nk , donc |ak | ≤ nk ρk , donc si 1 ≤ k ≤ n, ≤ ρ, d'où le résultat.
n

Problème 4 (Théorème fondamental de l'algèbre). Le but du problème est de


prouver que tout polynôme de C[X] de degré ≥ 1 admet au moins une racine dans C,
c'est-à-dire que le corps C est algébriquement clos.
1/ Première méthode. Soit P ∈ C[X], unitaire, deg(P ) ≥ 1.
a) Montrer qu'il existe z0 ∈ C tel que |P (z0 )| = inf z∈C |P (z)|.
b) Montrer que P (z0 ) = 0.
2/ Seconde méthode. Soit P ∈ R[X] unitaire, d = deg(P ) = 2n q avec q impair et d ≥ 1.
On veut montrer par récurrence sur n ∈ N que P admet au moins une racine dans C.
a) α) Montrer le résultat pour n = 0.
β ) Supposons le résultat vrai jusqu'au rang n − 1. On sait (voir le théorème 5 page 66)

qu'il existe une extension de corps K de C et x1 , . . . , xd ∈ K tels que P = di=1 (X − xi ).
Pour tout c ∈ R et pour 1 ≤ i < j ≤ d, on pose yi,j (c) = xi + xj + c xi xj . Montrer que
pour tout c ∈ R, il existe (ic , jc ) tels que yic ,jc (c) ∈ C.
γ ) Montrer qu'il existe c ∈ R tel que xic + yic et xic yic ∈ C. Conclure.
b) En déduire le théorème fondamental de l'algèbre.
Solution. 1/ a) Écrivons P = X n + a1 X n−1 + · · · + an1 X + an . Pour tout z ∈ C∗ , on a
P (z) = z n (1 + az1 + · · · + az nn ), donc lim|z|→+∞ |P (z)| = +∞, et donc il existe M > 0 tel que pour
tout nombre complexe z tel que |z| > M , on ait |P (z)| > |P (0)|. Ceci entraîne
inf |P (z)| = inf |P (z)|.
z∈C |z|≤M

Or K = {z ∈ C | |z| ≤ M }, fermé borné de C, est compact, et l'application z → |P (z)| étant


continue, il existe z0 ∈ K tel que |P (z0 )| = inf z∈K |P (z)|. On a donc |P (z0 )| = inf z∈C |P (z)|.
b) Raisonnons par l'absurde. Si P (z0 ) = 0, posons
n
P (z0 + X) 
Q(X) = = bi X i .
P (z0 )
i=0

Ici, b0 = Q(0) = 1 et bn = 0, donc k = inf{i ∈ N, 1 ≤ i ≤ n | bi = 0} existe bien. On peut


d'ailleurs écrire
Q(z) = 1 + bk z k (1 + ϕ(z)) avec lim ϕ(z) = 0.
z→0

Soit r > 0 tel que |ϕ(z)| ≤ 1/2 pour |z| ≤ r. Écrivons bk = |bk |eiθ , θ ∈ R. Soit z = re−i(θ+π)/k .
On a
Q(z) = 1 − |bk |rk (1 + ϕ(z)).
Quitte à diminuer r > 0 on peut supposer |bk |rk < 1, et donc
  1 1
|Q(z)| ≤ |1 − |bk |rk | + |bk rk ϕ(z)| ≤ 1 − |bk |rk + |bk |rk = 1 − |bk | rk < 1.
2 2
Ceci prouve que |P (z + z0 )|/|P (z0 )| < 1, donc que |P (z + z0 )| < |P (z0 )|, ce qui est absurde car
|P (z0 )| = inf z∈C |P (z)|. On a donc bien P (z0 ) = 0.
2/a)α) Si n = 0, alors deg(P ) = q est impair. Le polynôme P étant à coecient réels et unitaire,
P (x) est équivalent à xq lorsque x → +∞ où lorsque x → −∞, donc q étant impair,
lim P (x) = +∞ et lim P (x) = −∞.
x→+∞ x→−∞
5. PROBLÈMES 91

On en déduit qu'il existe a ∈ R+ tel que P (a) > 0 et P (−a) < 0. La fonction polynôme P
étant continue sur R, d'après le théorème des valeurs intermédiaires il existe c ∈ ] − a, a[ tel que
P (c) = 0. D'où α).

β ) Fixons c ∈ R. Soit Q = 1≤i<j≤d (X − yi,j (c)). Les coecients de Q sont des polynômes
symétriques à coecients réels en les xi , et donc (voir le théorème 1 page 84) ce sont des poly-
nômes à coecients réels en les fonctions symétriques élémentaires des xi , qui sont eux mêmes
les coecients de P donc réels ; ainsi, les coecients de Q sont réels, c'est-à-dire Q ∈ R[X].

On a deg(Q) = Card{(i, j), 1 ≤ i < j ≤ d} = dj=1 (j − 1) = d(d − 1)/2 = 2n−1 q(d − 1), où
q(d − 1) est impair (car q est impair et d est pair). On peut donc appliquer à Q l'hypothèse de
récurrence, ce qui entraîne l'existence de (ic , jc ) tel que yic ,jc (c) ∈ C.
γ ) Notons Γ = {(i, j) ∈ N2 , 1 ≤ i < j ≤ d}. D'après la question β ), on peut construire une
application R → Γ c → (ic , jc ) telle que pour tout c ∈ R, yic ,jc (c) ∈ C. Comme R est inni
et Γ ni, cette application n'est pas injective donc il existe (c, c ) ∈ R2 avec c = c , tels ques
(ic , jc ) = (ic , jc ). Posons (r, s) = (ic , jc ). Du fait que
(xr + xs ) + c(xr xs ) ∈ C et (xr + xs ) + c (xr xc ) ∈ C
avec c = c , on tire S = xr + xs ∈ C et P = xr xs ∈ C. Les éléments xr et xs sont donc les
racines de X 2 − SX + P ∈ C[X]+, ce qui permet facilement de conclure que xr ∈ C et xs ∈ C.
Le polynôme P a donc au moins une racine complexe (on en a même trouvé deux, xr et xs ).
b) Le raisonnement par récurrence de a) prouve que tout polynôme à coecients réels

a au moins
une racine dans C. On veut maintenant prouver le résultat dans C[X]. Soit F = di=0 ai X i ∈

C[X]. On pose F = di=0 ai X i , et on voit que P = F F ∈ R[X]. Le polynôme P admet donc au
moins une racine complexe α, donc F (α)F (α) = 0, et donc F (α) = 0 ou F (α) = 0. Si F (α) = 0,
c'est terminé, sinon F (α) = 0 donc F (α) = 0, d'où le résultat.
Remarque. La deuxième méthode, plus longue, présente l'avantage de n'utiliser qu'une
simple conséquence de la topologie : tout polynôme de R[X] de degré impair admet une
racine réelle, résultat connu au dix-huitième siècle.

Problème 5. Soit P ∈ R[X] un polynôme non constant tel que


∀n ∈ N, ∃m ∈ N, P (n) = m2 .
1/a) Pour toute suite réelle u = (un )n∈N , on note ∆u = (∆un )n∈N la suite dénie par
∆un = un+1 −un . Ainsi déni, ∆ est un endomorphisme sur l'e.v. des suites réelles. D'après
les hypothèses, il existe une suite (fn )n∈N d'entiers naturels tels que P (n) = fn2 pour tout
n ∈ N. En notant p = deg P > 0, montrer que pour tout k ∈ N, ∆k fn = O(np/2−k ).
b) Montrer que ∆p fn est nulle à partir d'un certain rang, et en déduire la forme de la
suite (fn ) à partir d'un certain rang.
2/ En déduire qu'il existe Q ∈ R[X] tel que P = Q2 .
Solution. 1/a) On écrit d'abord P sous la forme P = a0 X p + a1 X p−1 + · · · + ap avec a0 = 0.
Comme P est positif sur N on a forcément a0 > 0. On écrit ensuite
  a1 ap 1/2
∀n ∈ N∗ , fn = P (n) = np/2 a0 + + ··· + p = np/2 g(1/n),
n n
où g(u) = (a0 + a1 u + · · · + ap up )1/2 est dénie et de classe C ∞ sur un voisinage de 0, donc admet
un développement limité en 0 de la forme g(u) = b0 + b1 u + · · · + bk−1 uk−1 + O(uk ). Ainsi, lorsque
n est susamment grand, on peut écrire
k−1

fn = bj np/2−j + O(np/2−k ),
j=0
92 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES

donc
k−1

∆k f n = bj ∆k (np/2−j ) + O(np/2−k ).
j=0
Nous allons prouver que pour tout α ∈ R, ∆k nα = O(nα−k ) ce qui prouvera le résultat souhaité
compte tenu de l'estimation précédente. On procède par récurrence sur k. Pour k = 0 c'est
immédiat. Supposons le résultat vérié pour k et montrons le pour k + 1. On écrit d'abord
(n + 1)α − nα = nα hα (1/n) où hα (u) = (1 + u)α − 1 est de classe C ∞ sur un voisinage de 0, nulle
en 0, donc on peut écrire hα (u) = c1 u + · · · + ck uk + O(uk+1 ), donc
k

∆k+1 nα = ∆k ((n + 1)α − nα ) = cj ∆k (nα−j ) + O(nα−k−1 ).
j=1

L'hypothèse de récurrence entraîne = O(nα−j−k ), on en déduit que chaque terme de


∆k (nα−j )
la somme précédente est un O(n α−k−1 ), donc ∆k+1 nα = O(nα−k−1 ), ce qui achève la récurrence.
b) Comme (fn ) est une suite d'entiers, la suite (∆p fn ) également. Or ∆p fn = O(n−p/2 ) d'après la
question précédente, donc (∆p fn ) converge vers 0, et comme cette suite est entière, elle est nulle
à partir d'un certain rang N . Or une suite (un )n≥N veriant ∆p un = 0 est forcément une suite
polynomiale de degré < p. En eet, les suites (un )n≥N vériant ∆p u = 0 suivent une récurrence
linéaire d'ordre p, donc elles forment un R-espace vectoriel de dimension p. Par ailleurs toute
suite polynomiale (un ) de degré < p vérie ∆p un = 0 (immédiat par récurrence sur p, car si
vn = F (n) est polynomiale de degré d alors ∆vn = vn+1 − vn = F (n + 1) − F (n) est polynomiale
de degré d − 1), et comme les suites polynomiales de degré < p forment un e.v de dimension p on
a bien déterminé l'ensemble des suites possibles. Donc (fn )n≥N est polynomiale de degré < p.
2/ La question précédente assure l'existence de Q ∈ R[X] tel que fn = Q(n) pour n ≥ N . On a
ainsi P (n) = Q2 (n) pour tout entier n ≥ N , donc le polynôme P − Q2 s'annule une innité de
fois, donc est nul, donc P = Q2 est bien le carré d'un polynome.
Remarque. Le polynôme Q vérie également Q(n) ∈ Z pour tout n ∈ N donc d'après la
partie 1/ du problème 2 page 88, on a d!Q ∈ Z[X], où d = deg Q.

 Nous aurions pu résoudre 1/a) en prouvant que f (x) = P (x) vérie, pour x as-
sez grand, l'existence de θ ∈ [0, 1] tel que ∆k f (x) = f (k) (x + nθ) (en procèdant par
récurrence sur k à partir de l'égalité des accroissements nis), puis en montrant que
f (k) (x) = O(xp/2−k ) (par exemple par récurrence sur k en dérivant k fois l'égalité f 2 = P ).

Problème 6 (Existence de nombres transcendants, nombres de Liouville).


On rappelle qu'un nombre complexe α est algébrique sur Q si il existe un polynôme
P ∈ Z[X] non nul, tel que P (α) = 0. Dans le cas contraire, α est dit transcendant. On se
propose de prouver par deux méthodes diérentes l'existence de nombres transcendants.
1/ Méthode non constructiviste . Montrer que l'ensemble des nombres réels algébriques sur
Q est dénombrable. Conclure.
2/ Méthode constructiviste . a) Soit a ∈ R algébrique sur Q, racine de P ∈ Z[X], deg(P ) =
n > 0. Si a ∈ Q, montrer que
 
 p  α
∃α > 0, ∀(p, q) ∈ Z × N∗ , a − ≥ .
 q  qn
(Indication. On pourra remarquer que q n P (p/q) ∈ Z.)
b) (Nombres de Liouville). Soit a ∈ R, a ∈ Q, tel que
 
 p  1
∀k ∈ N , ∃(p, q) ∈ Z × N , q ≥ 2 tel que
∗ ∗ a −
  < k
q q
5. PROBLÈMES 93

(a est appelé nombrede Liouville). Montrer que a est transcendant.


c) Montrer que a = +∞ k=0 10
−k!
est un nombre de Liouville.
Solution. 1/ Pour tout n ∈ N∗ , notons Zn [X] = {P ∈ Z[X] | deg(P ) ≤ n}. L'application
Zn+1 → Zn [X] (a0 , . . . , an ) → a0 + · · · + an X n est bijective. Ainsi, Zn+1 étant dénombrable,
Zn [X] est dénombrable, et donc Z[X] = ∪n∈N Zn [X] est dénombrable (réunion dénombrable
d'ensembles dénombrables).
Pour tout P ∈ Z[X], deg(P ) ≥ 1, l'ensemble noté R(P ) des racines de P est ni. Si A désigne
l'ensemble des nombres réels algébriques sur Q, on a donc

A= R(P )
P ∈Z[X]
deg(P )≥1

et donc A est dénombrable (réunion dénombrable d'ensembles nis).


L'ensemble des nombres réels n'étant pas dénombrable, on en déduit qu'il existe dans R des
nombres transcendants.
2/ a) On a P (a) = 0 et P n'a qu'un nombre ni de racines, donc
(∃η > 0), ∀x ∈ [a − η, a + η], x = a, P (x) = 0.
 Si p/q ∈ [a − η, a + η], alors p/q = a (car a ∈ Q par hypothèse), donc P (p/q) = 0.
Or q n P (p/q) ∈ Z, et ce terme étant non nul, |q n P (p/q)| ≥ 1. D'après l'inégalité des
accroissements nis, si M = supx∈[a−η,a+η] |P  (x)|, on a
             
      p   
P p  = P p − P (a) ≤ M  p − a donc  − a ≥ 1 P p  ≥ 1 .
 q   q   q  q  M q  M qn
 Si p/q ∈ [a − η, a + η], alors |p/q − a| > η > η/q n .
On conclut de tout ceci que α = inf{1/M, η} convient.
b) Supposons a algébrique. D'après la question précédente,
 
 p  α
∃n ∈ N∗ , ∃α > 0, ∀(p, q) ∈ Z × N∗ , a − ≥ .
 q  qn
Fixons k ∈ N∗ , k ≥ n, tel que 2n−k < α. Par hypothèse, il existe (p, q) ∈ Z × N∗ , q ≥ 2, tel que
|a − p/q| < 1/q k . On a donc α/q n ≤ |a − p/q| < 1/q k , donc α < q n−k ≤ 2n−k < α, ce qui est
absurde. Le nombre réel a est donc transcendant.
c) Le développement décimal de a n'est
 pas périodique, donc a ∈ Q.
Soit n ∈ N∗ . Le nombre p = 10n! ( n
k=0 10
−k! ) est un entier ≥ 2, et avec q = 10n! , on a
   +∞  +∞ +∞
 p  n    1
a − q = 10nn!
10−k!
= 10nn!−k! ≤ 10n−k =
 q  9
k=n+1 k=n+1 k=n+1

(lorsque k ≥ n + 1 nous avons utilisé la majoration nn! − k! = n![n − (n + 1) · · · k] ≤ n − k).


Ainsi, on a    
   
a − p  q n < 1, c'est-à-dire a − p  < 1
 q  q nq
et ceci est possible pour tout n ∈ N . Finalement, le réel a un nombre de Liouville, donc trans-

cendant.
Remarque. Le résultat 2/ date de 1844 et est historiquement la première preuve d'exis-
tence de nombres transcendants. Il n'admet pas de réciproque. Par exemple, π est trans-
cendant, et on sait que |π − p/q| < 1/q 7.104 n'a qu'un nombre ni de solutions (Zeilberger,
Zudilin, 2020). Ainsi π n'est pas un nombre de Liouville.
 La preuve 1/ est plus récente. Les notions d'équipotence introduites par Cantor datent
en eet de la n du XIX-ième siècle.
94 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES

 S'il est relativement simple, avec 2/, de construire des nombres transcendants, il est
beaucoup plus dicile de dire si un nombre donné est transcendant ou non. Le sujet
d'étude 2 page 107 démontre que e et π sont transcendants.

Problème 7 (Nombres algébriques). Soient K et L deux corps commutatifs, K étant


un sous-corps de L. On dit que a ∈ L est algébrique sur K s'il existe P ∈ K[X], P = 0,
tel que P (a) = 0.
1/ Pour tout a ∈ L, on pose K[a] = {P (a) | P ∈ K[X]} et Ia = {P ∈ K[X] | P (a) = 0}.
a) Soit a ∈ L algébrique sur K. Montrer que K[a] est un corps, et que c'est un K-espace
vectoriel de dimension nie.
b) Montrer que si le K-espace vectoriel K[a] est de dimension nie, alors a est algébrique
sur K.
2/ Si K1 ⊂ K2 sont deux corps commutatifs, on note [K2 : K1 ] ∈ N∗ ∪ {+∞} la dimension
de K2 considéré comme un K1 -espace vectoriel.
a) Soient K1 ⊂ K2 ⊂ K3 trois corps commutatifs. Montrer l'équivalence
([K2 : K1 ] < +∞ et [K3 : K2 ] < +∞) ⇐⇒ ([K3 : K1 ] < +∞).
b) Soit a1 , . . . , an ∈ L. On rappelle que la notation K(a1 , . . . , an ) désigne le plus petit
sous-corps de L contenant K et a1 , . . . , an . Montrer que a1 , . . . , an sont algébriques sur K
si et seulement si [K(a1 , . . . , an ) : K] < +∞.
c) Montrer que A, l'ensemble des nombres algébriques sur K, est un corps.
3/ Si L est algébriquement clos, montrer que A est algébriquement clos.
Solution. 1/a) Comme Ia est un idéal non nul de l'anneau principal K[X], donc il existe un
unique polynôme P ∈ K[X] unitaire tel que Ia = (P ).
Le polynôme P est irréductible dans K[X]. En eet, si P = QR avec Q, R ∈ K[X], alors
0 = P (a) = Q(a)R(a) et donc Q(a) = 0 ou R(a) = 0, donc Q ou R appartient à Ia = (P )
donc deg(Q) ≥ deg(P ) ou deg(R) ≥ deg(P ), ce qui prouve l'irréductibilité de P . (P s'appelle le
polynôme minimal de a, deg(P ) le degré de a).
L'application ϕ : K[X] → L F → F (a) est un morphisme d'anneaux. Or Ker ϕ = Ia = (P ),
donc Im ϕ = K[a] est isomorphe à K[X]/(P ). Le polynôme P étant irréductible, c'est donc un
corps (voir proposition 4 page 65) de dimension deg(P ) en tant que K-espace vectoriel.
b) Soit n la dimension du K-espace vectoriel K[a]. La famille (1, a, . . . , an ) constitue un système
de n + 1 vecteurs de K[a], ces vecteurs sont donc liés. Autrement dit, il existe x0 , . . . , xn ∈ K
tels que x0 + x1 a + · · · + xn an = 0, avec les (xi )0≤i≤n non tous nuls. Donc si P = ni=0 xi X i ,
P (a) = 0 et P = 0. Donc a est algébrique sur K.
2/a) Condition nécessaire. [K2 : K1 ] < +∞ donc K2 est isomorphe comme K1 -espace vectoriel à
[K :K ] [K :K ]
K1 2 1 . De même K3 est isomorphe comme K2 -espace vectoriel à K2 3 2 , a fortiori isomorphe
[K3 :K2 ]
comme K1 -espace vectoriel à K2 (comme K1 ⊂ K2 , tout isomorphisme de K2 -espace vecto-
riel est un isomorphisme de K1 -espace vectoriel), donc isomorphe comme K1 -espace vectoriel à
[K :K ] [K :K ]·[K :K ]
(K1 2 1 )[K3 :K2 ] , donc à K1 2 1 3 2 . Donc [K3 : K1 ] = [K3 : K2 ] · [K2 : K1 ] < +∞.
Condition susante. K2 ⊂ K3 donc [K2 : K1 ] ≤ [K3 : K1 ] < +∞.
Montrons maintenant [K3 : K2 ] < +∞. Comme [K3 : K1 ] < +∞, il existe une base nie
e1 , . . . , en du K1 -espace vectoriel K3 . On remarque alors que e1 , . . . , en est une famille génératrice
nie de K3 vu comme un K2 espace vectoriel. Donc [K3 : K2 ] < +∞.
b) Condition nécessaire. Procédons par récurrence sur n ∈ N∗ . Pour n = 1, c'est une conséquence
de 1/. Supposons le résultat vrai au rang n, montrons le au rang n + 1. D'après l'hypothèse de
récurrence,
[K(a1 , . . . , an ) : K] < +∞. (∗)
5. PROBLÈMES 95

L'élément an+1 est algébrique sur K, a fortiori sur K(a1 , . . . , an ). Le résultat 1/ reste évidemment
vrai si on remplace K par K(a1 , . . . , an ) ⊂ L, donc
[K(a1 , . . . , an )(an+1 ) : K(a1 , . . . , an )] < +∞.
Or K(a1 , . . . , an )(an+1 ) = K(a1 , . . . , an+1 ), donc cette dernière assertion s'écrit
[K(a1 , . . . , an+1 ) : K(a1 , . . . , an )] < +∞. (∗∗)
De (∗) et (∗∗), on tire d'après 2/ a) [K(a1 , . . . , an+1 ) : K] < +∞, d'où la condition nécessaire.
Condition susante. Pour tout i, K[ai ] ⊂ K(ai ) ⊂ K(a1 , . . . , an ), donc K[ai ] est un K-espace
vectoriel de dimension nie, et donc ai est algébrique sur K d'après 1/b).
c) Soient (x, y) ∈ A2 . On a K(x − y) ⊂ K(x, y) donc comme [K(x, y) : K] < +∞, on a [K(x − y) :
K] < +∞, et donc x − y ∈ A d'après 2/b). De même si y = 0, comme K(xy −1 ) ⊂ K(x, y), on
tire xy −1 ∈ A. Finalement, A est un corps.
3/ Soit P = a0 + a1 X + · · · an X n ∈ A[X], P = 0. Le corps L étant algébriquement clos,
il existe a ∈ L tel que P (a) = 0, et donc d'après 1/a) appliqué au corps K(a0 , . . . , an ),
K(a0 , . . . , an )[a] est un corps (donc égal à K(a0 , . . . , an )(a) = K(a0 , . . . , an , a)) de dimension nie
comme K(a0 , . . . , an )-espace vectoriel. Autrement dit, [K(a0 , . . . , an , a) : K(a0 , . . . , an )] < +∞.
Or [K(a0 , . . . , an ) : K] < +∞ d'après 2/b), donc d'après 2/a), [K(a0 , . . . , an , a) : K] < +∞, et
donc a ∈ A d'après 2/b), d'où le résultat.
Remarque. En particulier, l'ensemble A des nombres complexes algébriques sur Q est
un corps algébriquement clos. On l'appelle la clôture algébrique de Q (c'est la plus petite
extension de Q algébriquement close).

Problème 8 (Théorème de Kronecker). Soit P ∈ Z[X] un polynôme unitaire de


degré n ≥ 1 et irréductible dans Q[X]. On suppose que toutes les racines de P sont de
module ≤ 1. Montrer qu'alors P = X ou bien il existe k ∈ N∗ tel que P | (X k − 1).
(Indication. On pourra utiliser le résultat suivant, conséquence d'un exercice du tome
d'Analyse : Si α ∈ R  Q, alors (∀ε > 0, ∃n ∈ N∗ ), |e2iπnα − 1| < ε.)
Solution. Soient α1 , . . . , αn les racines de P . Notons a ∈ Z le terme constant de P . Le polynôme
P étant unitaire, on a α1 · · · αn = (−1)n a. S'il existe i tel que |αi | < 1, par exemple |α1 | < 1,
alors |a| = |α1 | · |α2 · · · αn | ≤ |α1 | < 1, et comme a ∈ Z, a = 0. Donc X divise P , et P étant
irréductible et unitaire, P = X .
Dans le cas contraire, on a |αi | = 1 pour tout i. Considérons pour tout entier k ≥ 1
πk = (α1k − 1)(α2k − 1) · · · (αnk − 1).
Pour tout k, πk s'écrit comme un polynôme à coecients entiers symétrique en les αi , et donc
πk ∈ Z d'après la remarque 4 page 84. Nous allons montrer qu'il existe k tel que πk = 0. Comme
|α1 | = 1, il existe θ ∈ R tel que α1 = e2iπθ . Si θ ∈ Q, alors il existe k ∈ N∗ tel que kθ ∈ Z, donc
α1k = e2iπkθ = 1, donc πk = 0. Sinon, θ ∈ RQ. Compte tenu de la majoration |αik − 1| ≤ 2,
l'expression de πk entraîne |πk | ≤ |α1k − 1| · 2n−1 . Or θ ∈ RQ donc (on utilise l'indication) il
existe k ∈ N∗ tel que |α1k − 1| < 21−n , ce qui entraîne |πk | < 1 et comme πk est un entier, on a
forcément πk = 0.
Il existe donc k ∈ N∗ tel que πk = 0, ce qui entraîne l'existence de i tel que αik = 1, par
exemple α1k = 1. Soit X k − 1 = P1 · · · Pr la décomposition de X k − 1 en polynômes irréductibles
unitaires de Q[X]. Comme α1 est racine de X k − 1, il existe i tel que Pi (α1 ) = 0, par exemple
P1 (α1 ) = 0. Ainsi, P1 et P ont α1 comme racine commune et ne sont donc pas premiers entre
eux dans Q[X] (l'égalité de Bezout U P1 + V P = 1 appliquée à α1 mène à une contradiction).
Ces polynômes, étant de plus irréductibles et unitaires, sont donc égaux. En dénitive P = P1
divise X k − 1.
96 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES

Remarque. Dans le second cas, P est un polynôme irréductible dans Q[X] divisant X k −1.
C'est donc un polynôme cyclotomique (voir le problème 10).

Problème 9 (Théorème de l'élément primitif). 1/ Soit K un corps commutatif


de caractéristique nulle (donc K est inni) et L un surcorps commutatif de K. Le corps
L est un K-espace vectoriel. S'il est de dimension nie, on va montrer qu'il existe x ∈ L
tel que L = K[x] = {P (x), P ∈ K[X]}.
a) Pour tout x ∈ L, montrer qu'il existe un unique polynôme unitaire de degré minimal
Mx ∈ K[X] tel que Mx (x) = 0 (Mx s'appelle le polynôme minimal de x). Montrer que Mx
est irréductible dans K[X].
b) On rappelle que pour a1 , . . . , am ∈ L, K(a1 , . . . , am ) désigne le plus petit sous-corps
de L contenant K et a1 , . . . , am . Soient x, y ∈ L. On veut montrer qu'il existe z ∈ L tel
que K(x, y) = K(z). On sait (voir le théorème 5 page 66) qu'il existe un surcorps M de
L, commutatif, sur lequel Mx My soit scindé. Autrement dit, dans M[X], on peut écrire
p q
 
Mx = (X − xi ), My = (X − yj ) (avec x = x1 , y = y1 ).
i=1 j=1

α) Montrer qu'il existe t ∈ K∗ tel que les nombres xi + tyj (1 ≤ i ≤ p, 1 ≤ j ≤ q ) soient


deux à deux distincts.
β ) On pose z = x + ty . Montrer le pgcd de My (X) et Mx (z − tX) dans K(z)[X] est X − y .
γ ) Montrer que K(z) = K(x, y).
c) Montrer qu'il existe x ∈ L tel que L = K[x].
2/ Montrer que ce résultat reste vrai si K est ni.
Solution. 1/a) Si n désigne la dimension du K-espace vectoriel L, les n + 1 vecteurs 1, x, . . . , xn
de L sont linéairement dépendants sur K. Donc il existe P ∈ K[X], P = 0, tel que P (x) = 0.
Donc Ix = {P ∈ K[X] | P (x) = 0} est diérent de {0}. L'ensemble Ix étant un idéal de
l'anneau principal K[X], il existe Mx ∈ K[X], unitaire, tel que Ix = (Mx ). Tout polynôme P
unitaire s'annulant en x est donc un multiple de Mx . Ceci sut pour armer que Mx est l'unique
polynôme unitaire de plus bas degré s'annulant en x.
Supposons Mx = P Q avec P, Q ∈ K[X]. On a P (x)Q(x) = Mx (x) = 0 donc P (x) = 0 ou
Q(x) = 0, donc deg(P ) ≥ deg(Mx ) ou deg(Q) ≥ deg(Mx ), et donc Mx est irréductible dans
K[X].
b) α) Les xi sont distincts. En eet, Mx étant irréductible, Mx et Mx sont premiers entre eux
dans K[X] (car deg(Mx ) < deg(Mx ) et Mx = 0, K étant de caractéristique non nulle). Donc il
existe U, V ∈ K[X] tels que U Mx + V Mx = 1, égalité qui vaut aussi dans M[X]. Les polynômes
Mx et Mx sont donc premiers entre eux dans M[X] et n'ont donc aucune racine commune dans
M. On en déduit que Mx n'a que des racines simples et les xi sont donc distincts. De même, les
yj sont distincts.
Soit  
xi − xi 
Γ=  1 ≤ i, i ≤ p, 1 ≤ j = j  ≤ q .
yj  − yj
L'ensemble Γ est ni et K est inni, donc il existe t ∈ K∗ , t ∈ Γ. Ainsi choisi, t convient (l'égalité
xi + tyj = xi + tyj  entraîne en eet t ∈ Γ si j = j  et i = i si j = j  ).
β ) Plaçons nous pour commencer dans M[X]. Soit a ∈ M une racine commune de My (X) et
Mx (z − tX). Il existe j tel que a = yj et il existe i tel que z − ta = xi , et donc z = xi + tyj . Or
par dénition, z = x1 + ty1 donc d'après α) xi = x1 et yj = y1 , donc a = y1 = y . Par conséquent,
dans M, y est la seule racine commune à My (X) et Mx (z − tX). Ces polynômes étant scindés sur
M à racines toutes simples, on en déduit que le pgcd de ces polynômes dans M[X] est X −y (∗).
5. PROBLÈMES 97

Ceci étant, soit D(X) le pgcd de My (X) et Mx (z − tX) dans K(z)[X]. On peut écrire
My (X) = P1 (X)D(X) et Mx (z − tX) = P2 (X)D(X), avec P1 , P2 ∈ K(z)[X],
où P1 et P2 sont premiers entre eux dans K(z)[X]. Donc il existe U, V ∈ K(z)[X] tels que
U P1 + V P2 = 1, égalité qui vaut aussi dans M[X], donc P1 et P2 sont premiers entre eux dans
M[X]. Le pgcd de My (X) et Mx (z − tX) dans M[X] est donc D(X), d'où le résultat demandé
d'après (∗).
γ ) D'après β ), y ∈ K(z). La relation x = z − ty montre que x ∈ K(z). Donc K(x, y) ⊂ K(z). Or
z = x + ty donc K(z) ⊂ K(x, y). Finalement, on a prouvé que K(z) = K(x, y).
c) L'utilisation du résultat 1/b)γ ) permet de montrer par récurrence sur m que si a1 , . . . , am ∈ L,
alors il existe z ∈ L tel que K(a1 , . . . , am ) = K(z).
Ceci étant, soit a1 , . . . , an une base du K-espace vectoriel L. On a L = K(a1 , . . . , an ), et donc
il existe x ∈ L tel que L = K(a1 , . . . , an ) = K(x).
Il reste à montrer que K(x) = K[x]. Considérons le morphisme d'anneau ϕ : K[X] →
K[x] P → P (x). Avec les notations de 1/a), on voit que Ker ϕ = {P | P (x) = 0} = Ix = (Mx ).
Comme ϕ est surjective, K[x] est isomorphe à K[X]/ Ker ϕ = K[X]/(Mx ) qui est un corps car
Mx est irréductible (voir la proposition 4 page 65). L'anneau K[x] est donc un corps, et donc
K(x) ⊂ K[x]. L'inclusion réciproque étant évidente, on a montré K[x] = K(x) = L.
2/ Si K est ni, L est ni (c'est un K-espace vectoriel de dimension nie). On sait (voir la
remarque de l'exercice 10 page 10) que (L∗ , ·) est un groupe cyclique. Soit x l'engendrant. On
voit facilement que L = K[x].
Remarque. Cet exercice utilise le résultat suivant, qu'il est utile de garder en mémoire.
Si P, Q ∈ K[X] et si L est un surcorps de K alors les pgcd de P et Q
dans K[X] et dans L[X] coïncident.

Problème 10 (Polynômes cyclotomiques). Pour tout n ∈ N∗ , on note Un =


{e2ikπ/n
| k ∈ Z} ⊂ C. On dit qu'un élément x ∈ Un est une racine primitive n-ième
de l'unité si x engendre le groupe multiplicatif Un . On note Πn l'ensemble des racines
primitives n-ièmes de l'unité, et on dénit le polynôme cyclotomique d'indice n par

Φn = (X − ξ).
ξ∈Πn

1/ a) Calculer Φp lorsque 
p est un nombre premier.
b) Montrer que X n − 1 = d|n Φd . En déduire que pour tout n ∈ N∗ , Φn ∈ Z[X].
2/ On veut prouver que les Φn sont irréductibles dans Q[X].
a) Montrer que l'on peut écrire Φn = F1 F2 · · · Fr avec les Fi ∈ Z[X], unitaires et irréduc-
tibles dans Q[X] (on pourra utiliser le lemme de Gauss, voir l'exercice 4 page 62).
b) Soit ξ une racine de F1 dans C. Soit p un nombre premier tel que p  n. Montrer qu'il
≤ r tel que Fi (ξ p ) = 0.
existe i ∈ N, 1 ≤ i  m
c) Pour tout F = m k=0 ak X ∈ Z[X], on pose F =
k
k=0 ak X ∈ Z/pZ[X] (x désignant
k

la classe dans Z/pZ de x ∈ Z). Montrer que pour tout F ∈ Z[X], F (X p ) = [F (X)]p .
d) Montrer que dans Z/pZ[X], Φn n'est divisible par le carré d'aucun polynôme non
constant.
e) Montrer que i = 1, c'est-à-dire que F1 (ξ p ) = 0.
f) Montrer que pour tout entier k premier avec n, F1 (ξ k ) = 0. Conclure.
Solution. 1/ Posons ω = e2iπ/n , de sorte que Un = ω. D'après la proposition 5 page 22, on a
Πn = {ω k | 1 ≤ k ≤ n − 1, k ∧ n = 1}, et donc deg(Φn ) = ϕ(n) où ϕ désigne l'indicateur d'Euler.
98 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES

a) Le nombre p étant premier, on a ici Πp = {ωk | 1 ≤ k ≤ p − 1} (où ω = e2iπ/p ), et donc


1  −1 Xp
Φp = (X − ξ) = = 1 + X + · · · + X p−1 .
X −1 X −1
ξ∈Up

b) Soit ω = e2iπ/n . Soit k , 0 ≤ k ≤ n − 1. Soit d l'ordre de ω k dans Un . On a d | n. Par


ailleurs (ω k )d = 1, donc
 ω ∈ Ud , et ω étantk d'ordre d, on a même ω ∈ Πd . Ainsi, (X − ω )
k k k k

divise Φd donc divise d|n Φd . Les valeurs ω (0 ≤ k ≤ n − 1) étant distinctes, on en déduit


 
que X n − 1 = n−1 (X − ω k ) divise d|n Φd . Ces polynômes étant de plus unitaires et de même
 k=0 
degré (car d|n deg(Φd ) = d|n ϕ(d) = n), ils sont égaux.
Montrons maintenant par récurrence sur n ∈ N∗ que Φn ∈ Z[X]. Pour n = 1, c'est vrai car
Φ1 = X − 1. Supposons le résultat vrai jusqu'au rang n − 1 et montrons le au rang n. D'après
l'hypothèse de récurrence, le polynôme P = d|n Φd ∈ Z[X]. Par ailleurs, on a X n − 1 = Φn P .
d=n
Comme P est unitaire, on peut eectuer la division euclidienne de X n − 1 par P dans Z[X] (voir
la remarque 3 page 58) :
(∃ Q, R ∈ Z[X]), X n − 1 = P Q + R avec deg(R) < deg(P ).
Il y a unicité du couple (Q, R) dans C[X] donc dans Z[X], et comme X n − 1 = P Φn on en déduit
R = 0 et Φn = Q. Donc Φn ∈ Z[X], ce qui achève le raisonnement par récurrence.
2/a) Soit Φn = G1 · · · Gr la décomposition de Φn en facteurs irréductibles unitaires de Q[X].
Pour tout i, il existe αi ∈ N∗ tel que αi Gi ∈ Z[X]. On a α1 · · · αr Φn = (α1 G1 ) · · · (αr Gr ).
Utilisons le lemme de Gauss (voir l'exercice 4 page 62, dont on reprend les notations). Comme
c(Φn ) = 1 (car Φn est unitaire), on a
r

α1 · · · αr = c(α1 · · · αr Φn ) = c(αi Gi ). (∗)
i=1
Pour tout i, le polynôme Fi = αi Gi /c(αi Gi ) est dans Z[X] et d'après (∗), on a Φn = F1 · · · Fr .
Pour tout i, Fi ∈ Z[X] est irréductible dans Q[X] et est forcément unitaire puisque Φn est
unitaire.
b) L'élément ξ est racine de F1 donc de Φn , donc ξ ∈ Πn . Or p est premier et p  n, donc
p ∧ n = 1, et donc ξ p ∈ Πn , d'où ξ p est racine de Φn . Il existe donc i tel que Fi (ξ p ) = 0.
c) On montre cette relation par récurrence sur m ∈ N, où m = deg(F ). Pour m = 0, c'est
évident. Supposons le résultat vrai jusqu'au rang m − 1 et montrons au rang m. Écrivons F =

k=0 ak X = G + am X . D'après l'hypothèse de récurrence, on a G(X) = G(X ). Or
m k m p p

p−1  

p p p k
F = (G + am X m )p = G + am p X mp + G am n−k X (p−k)m ,
k
k=1
p
et comme am p = am et que pour 1 ≤ k ≤ p − 1, p | k , on en déduit
p p mp
F (X) = G(X) + am X = G(X ) + am (X p )m = F (X p ).
p

d) Supposons 2
Φn = Q P dans Z/pZ[X]. On peut écrire X n − 1 = Φn R d'après 1/b), avec
 2
R= d|n Φd ∈ Z[X], et donc X n − 1 = Φn R = Q S (avec S = P R), d'où par dérivation
d=n

 2   
nX n−1 = 2QQ S + Q S = Q(2Q S + QS ).
Donc Q | nX n . Or Q | (nX n − n) donc Q divise la diérence, c'est-à-dire Q | n. Or p  n donc
n = 0, et donc Q est constant.
e) Comme Fi (ξ p ) = 0, F1 (X) et Fi (X p ) admettent ξ comme racine commune donc ne sont
pas premiers entre eux dans Q[X] (l'égalité de Bezout U (X)F1 (X) + V (X)Fi (X p ) = 1 avec
U, V ∈ Q[X] appliquée à X = ξ mène à une contradiction). De plus F1 est irréductible dans
Q[X] donc F1 (X) | Fi (X p ) dans Q[X]. Comme F1 est unitaire, F1 (X) divise Fi (X p ) dans Z[X]
(voir la remarque 3 de la partie 1.3, page 58). On en déduit que F1 (X) | Fi (X p ) = Fi (X)p . Ceci
5. PROBLÈMES 99

étant, soit P ∈ Z/pZ[X] un facteur irréductible de F1 dans Z/pZ[X]. On a P | Fi (X)p donc


2
P | Fi (X). Par conséquent, si i = 1, on a forcément P | Φn = F1 · · · Fr , ce qui est impossible
d'après la question précédente. On a donc i = 1.
f) Soit k premier avec n. Écrivons k = p1 p2 · · · ps , les pi étant des nombres premiers. Nous
allons prouver par récurrence sur s que F1 (ξ k ) = 0. Pour s = 1, c'est le résultat de la question
précédente. Supposons la résultat vrai au rang s − 1 et montrons le au rang s. Comme k ∧ n = 1,
on a p1 · · · ps−1 ∧ n = 1, donc d'après l'hypothèse de récurrence F1 (ξ p1 ···ps−1 ) = 0. Or ps ∧ n = 1
donc F1 [(ξ p1 ···ps−1 )ps ] = F1 (ξ k ) = 0, ce qui achève le raisonnement par récurrence.
Pour tout nombre premier k premier avec n, on a donc F1 (ξ k ) = 0. Or ξ ∈ Πn donc Πn =
{ξ | k ∧n = 1}. Tous les éléments de Πn sont donc des racines de F1 , ce qui prouve que Φn = F1 ,
k

donc Φn est irréductible dans Q[X].


Remarque. Avec 1/a) et 2/, on retrouve le résultat 3/b) de l'exercice 4 page 62.

Problème 11 (Théorème de Dirichlet, version faible). Ce problème réutilise les


résultats sur les polynômes cyclotomiques de la question 1/ du problème précédent.
Soit entier naturel n ≥ 2. L'objectif du problème est de montrer qu'il y a une innité
de nombres premiers p vériant p ≡ 1 (mod n).
a) Soit p un nombre premier. Montrer que s'il existe a ∈ Z et h ∈ Z[X] tels que X n − 1 ≡
(X − a)2 h(X) (mod p) (i.e. si X n − 1̄ ∈ Z/pZ[X] admet une racine d'ordre ≥ 2 dans
Z/pZ), alors p divise n.
b) Soit a ∈ N. Montrer que si un nombre premier p divise Φn (a) (où Φn (X) désigne le
polynôme cyclotomique d'indice n), alors p ≡ 1 (mod n) ou p | n.
c) Montrer qu'il existe une innité de nombres premiers de la forme kn + 1, avec k ∈ N.
Solution. a) Si X n − 1 ≡ (X − a)2 h(X) (mod p), alors en substituant X par X + a on obtient
(X + a)n − 1 ≡ X 2 h(X + a) (mod p). Ainsi, les coecients des termes de degré  0 et 1 du
polynôme (X + a)n − 1 sont divisibles par p. Ceci s'écrit p | (an − 1) et p | n1 an−1 = nan−1 .
Comme p | (an − 1), p  a donc a est premier avec p. Comme p | nan−1 et que p est premier avec
an−1 (car premier avec a), on a donc p | n.

b) La propriété X n − 1 = d|n Φd des polynômes cyclotomiques (voir la question 1/b) du
problème précédent) entraîne l'existence d'un polynôme F ∈ Z[X] tel que X n − 1 = Φn F . On a
donc an − 1 = Φn (a)F (a), et comme F (a) ∈ Z, on a p | (an − 1), autrement dit an ≡ 1 (mod p).
Notons m l'ordre de ā dans le sous groupe multiplicatif (Z/pZ)∗ . Comme ān = 1̄ dans Z/pZ, on
a m | n. On traite maintenant deux cas selon la valeur de m.
 Si m = n, alors ā est d'ordre n, donc n divise le cardinal du sous groupe (Z/pZ)∗ . Autrement
dit n | (p − 1), c'est-à-dire p ≡ 1 (mod n).
 Sinon on a m < n. Comme m | n, on a
    
   
Xn − 1 = Φd = Φn  Φd   Φd  = Φn · (X m − 1)  Φd  . (∗)
d|n d|m d|n, dm, d=n d|n, dm, d=n

Par hypothèse, on a p | Φn (a) donc Φn (a) ≡ 0 (mod p), et par ailleurs am ≡ 1 (mod p).
Autrement dit, ā est racine de Φn et de X m − 1̄ dans Z/pZ[X]. D'après (∗), ceci entraîne le fait
que ā est racine au moins double de X n − 1̄, donc p | n d'après la question précédente.
c) Raisonnons par l'absurde et supposons qu'il n'y ait qu'un nombre ni de nombres premiers de
la forme 1+kn. Nous les notons p1 , . . . , pm . On considère l'entier N = Φn (α) avec α = np1· · · pm .
On a N ≡ a0 (mod α), où a0 est le coecient constant de Φn . L'identité X n − 1 = d|n Φd

entraîne −1 = d|n Φd (0) et comme les Φd (0) sont entiers, on a forcément a0 = Φn (0) = ±1.
Ainsi, N ≡ ±1 (mod α). Or |N | ≥ 2 (Πn désignant l'ensemble des racines primitives n-ièmes de
100 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES


l'unité, on a |N | = |Φn (α)| = ξ∈Πn |α − ξ|, et comme α ≥ n, on a |α − ξ| > 1 pour tout ξ ∈ Πn
donc |N | > 1). Il existe donc un nombre premier p divisant N . D'après la question précédente, on
doit avoir p | n ou p ≡ 1 (mod n). Mais ceci est impossible étant donnée la congruence N ≡ ±1
(mod np1 · · · pm ).
Remarque. La version forte du théorème de Dirichlet est discutée dans la remarque qui
suit l'exercice 7 page 14.

Problème 12 (Théorème de Wedderburn : tout corps fini est commutatif).


Pour faire ce problème, il est nécessaire de connaître la partie 1/ du problème 10 page 97
ainsi que l'équation aux classes (voir le corollaire 1 page 24).
Soit K un corps ni. On veut montrer que K est commutatif. Pour cela, on procède par
récurrence sur Card(K). Si Card(K) = 2, le résultat est évident. On suppose maintenant
que pour tout corps L tel que Card(L) < Card(K), L est commutatif (∗). Nous allons
montrer que K est lui aussi commutatif. Nous raisonnerons par l'absurde en supposant K
non commutatif.
a) Montrer que le centre de K déni par Z = {x ∈ K | ∀y ∈ K, xy = yx} est un sous-corps
de K. Prouver ensuite qu'il existe n ∈ N, n ≥ 2, tel que Card(K) = q n où q = CardZ .
b) Pour tout x ∈ K, on pose Kx = {y ∈ K | yx = xy}. Prouver qu'il existe un entier d
divisant n tel que Card(Kx ) = q d .
c) Montrer que l'on peut écrire
 qn − 1
Card(K∗ ) = q − 1 + λd , avec ∀d, λd ∈ Z.
d|n
qd − 1
d=n

d) En observant que le polynôme cyclotomique Φn divise (X n − 1)/(X d − 1) si d | n,


d = n, montrer que K est commutatif.
Solution. a) Nous aurons besoin du lemme suivant.
Lemme. Soient L1 ⊂ L2 deux corps nis, avec L1 commutatif. Alors il existe
k ∈ N∗ tel que Card(L2 ) = (Card(L1 ))k .
En eet, L1 étant un sous-corps commutatif de L2 , L2 est un L1 -espace vectoriel, de dimension
nie k car L2 est ni. Le corps L2 est donc isomorphe comme L1 -espace vectoriel à Lk1 , et on en
déduit que Card(L2 ) = Card(Lk1 ) = (Card(L1 ))k .
Ceci étant, on vérie facilement que Z est un sous corps commutatif de K. D'après le lemme,
il existe donc n ∈ N∗ tel que Card(K) = (Card(Z))n . Or K = Z (car K n'est pas commutatif
alors que Z l'est), donc n > 1, d'où le résultat.
b) On remarque ici aussi que pour tout x, Kx est un sous corps de K. Si Kx = K, alors on a
Card(Kx ) = Card(K) = q n . Sinon, Kx est strictement inclus dans K et donc d'après (∗), Kx
est commutatif. On peut donc appliquer le lemme qui entraîne l'existence de k ∈ N∗ tel que
Card(K) = (Card(Kx ))k (∗∗). Par ailleurs, Z est aussi un sous-corps commutatif de Kx , donc
d'après le lemme il existe d ∈ N∗ tel que Card(Kx ) = (CardZ)d = q d . Avec (∗∗), on trouve donc
q n = Card(K) = (Card(Kx ))k = (q d )k = q dk . Donc n = dk , ce qui entraîne que d | n, d'où le
résultat.
c) C'est l'équation aux classes appliquée au groupe multiplicatif (K∗ , ·). En eet, le centre de ce
groupe est Z ∗ . Avec les notations de la partie 2.4 du chapitre I, on a
 Card(K∗ )
Card(K∗ ) = CardZ ∗ +

Card(Sx )
x∈θ
où Sx désigne le stabilisateur de x, c'est-à-dire Sx = {y ∈ K∗ | xy = yx} = K∗x . D'après la
question précédente, il existe donc d ∈ N∗ divisant n tel que Card(Sx ) = q d − 1, et d = n (car
5. PROBLÈMES 101

x ∈ θ et θ ∩ Z ∗ = ∅). Si maintenant pour tout d | n, λd désigne le nombre de x ∈ θ tel que


Card(Sx ) = q d − 1, on peut réécrire l'équation aux classes sous la forme
  qn − 1 
q n − 1 = Card(K∗ ) = (q − 1) + λd . (∗∗∗)
d|n
qd − 1
d=n

d) Si d | n, d = n, on a
    
   
X n − 1 = Φn Φe = Φn  Φe   Φe  = Φn · (X d − 1)  Φe  ,
e|n, e=n e|d e|n, e=n, ed e|n, e=n, ed

donc Φn divise (X n − 1)/(X d − 1) dans Z[X]. Ceci étant vrai pour tout diviseur d de n distinct
 Xn − 1
de n, Φn divise λd dans Z[X]. Comme de plus Φn divise X n − 1 dans Z[X], il divise
d|n
Xd − 1
 d=n
  
 n  Xn − 1  n − 1  qn
(X − 1) − λd  dans Z[X]. Donc Φn (q) divise (q − 1) − d − 1
, et ceλd
d|n
Xd − 1 d|n
q
d=n d=n

dernier égale q − 1 d'après (∗∗∗). Donc |Φn (q)| ≤ q − 1. Or n ≥ 2 donc |Φn (q)| = ξ∈Πn |q − ξ| >
ϕ(n)
i=1 |q − 1| ≥ |q − 1|, ce qui est absurde. Le corps ni K est donc commutatif. Le raisonnement
par récurrence est ainsi achevé et montre que tout corps ni est commutatif.
Remarque. Si on veut trouver un corps non commutatif, il faut donc que celui ci soit
inni. Hamilton fut le premier en 1843 à exhiber un corps non commutatif : le corps H
des quaternions (H est un surcorps de C. Ses éléments sont des quadruplets a+bi+cj +dk ,
munis de la loi d'addition usuelle et d'une loi de multiplication associative et distributive
par rapport à l'addition, vériant ij = −ji = k , jk = −kj = i, ki = −ik = j et
i2 = j 2 = k 2 = −1. Le lecteur pourra bien sûr vérier que l'on a bien aaire à un corps).

Problème 13 (Polynômes de Tchébycheff et applications). Soit I = [−1, 1].


On muni C(I, C) (espace vectoriel des fonctions continues de I dans C) de la norme  . ∞
dénie pour tout f ∈ C(I, C) par f ∞ = supx∈I |f (x)|. De même, si f : R → C est
2π -périodique, on note f ∞ = supx∈R |f (x)|.
Pour tout n ∈ N∗ , on note Tn : I → R x → cos[n arccos(x)] et Un = Tn+1
/(n + 1).
1/ Montrer que Tn et Un sont des fonctions polynômes de degré n. Après avoir explicité
Un , calculer Tn ∞ et Un ∞ .
2/ Soit n ∈ N∗ . Pour 1 ≤ i ≤ n, on pose xi = cos (2i−1)π
2n
. Montrer
n 
1 Tn (X)
∀P ∈ C[X], deg(P ) ≤ n − 1, P (X) = (−1)i−1 1 − x2i P (xi ) .
n i=1 X − xi

3/
√ a) Soit P ∈ C(I, C) une fonction polynôme de degré n − 1 telle que pour tout x ∈ I ,
| 1 − x2 P (x)| ≤ 1. Montrer
 que P ∞ ≤ n.
b) Soit S : R → C θ → nk=1 µk sin(kθ) avec les µk ∈ C. Si S∞ = 1, montrer que
 
 S(θ) 

∀θ ∈ R  πZ,   ≤ n.
sin θ 

4/ Inégalité de Bernstein. Soit g : R → C θ → nk=−n λk eikθ , où les λk ∈ C. Montrer
que g  ∞ ≤ ng∞ .
102 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES

5/ Inégalité de Markov. Soit P ∈ C[X], deg(P ) = n ∈ N∗ . On regarde P comme un


élément de C(I, C). Montrer que P  ∞ ≤ n2 P ∞ .
Solution. 1/ Soit x ∈ I . Posons θ = arccos(x), de sorte que x = cos θ. On a
[n/2]  [n/2]  
n   n
Tn (x) =  [(cos θ + i sin θ)n ] = cosn−2k θ(− sin2 θ)k = xn−2k (x2 − 1)k .
2k 2k
k=0 k=0
 n
Ainsi, Tn est une fonction polynôme de degré n (son terme dominant est 0≤2k≤n 2k = 0).
Donc Un = Tn+1
 /(n + 1) également, et par ailleurs, lorsque x ∈ ] − 1, 1[ on a
 
T  (x) n+1 sin[(n + 1) arccos(x)] sin[(n + 1) arccos(x)]
Un (x) = n+1 = −√ · − = . (∗)
n+1 1 − x2 n+1 sin[arccos(x)]
Calculons maintenant Tn ∞ et Un ∞ . Lorsque x ∈ I , la forme Tn (x) = cos[n arccos(x)],
entraîne |Tn (x)| ≤ 1, et comme Tn (1) = 1, on a Tn ∞ = 1. Lorsque x ∈ ] − 1, 1[, A partir de
l'inégalité | sin(nθ)| ≤ n| sin(θ)| (que l'on obtient immédiatement par récurrence sur n), la forme
(∗) montre que pour x ∈ ]−1, 1[, |Un (x)| ≤ n+1. Or lim x→1 Un (x) = n+1. Donc Un ∞ = n+1.
x=1

2/ Si 1 ≤ i ≤ n, on a Tn (xi ) = cos[n arccos(xi )] = cos[(2i − 1)π/2] = 0. Les n valeurs distinctes


(xi )1≤i≤n sont donc des racines de Tn . Or deg(Tn ) = n, donc il existe λ = 0 tel que Tn (X) =
λ(X − x1 ) · · · (X − xn ).
L'interpolation de Lagrange assure l'existence d'un unique polynôme de degré ≤ n − 1 égal
à P (xi ) en xi (voir la page 65). Ce polynôme est donc P et on a
n
 P (xi )
P (X) = Tn (X) .
(X − xi )Tn (xi )
i=1

La forme (∗) donne Tn (xi ) = nUn−1 (xi ) = (−1)i−1 n/ 1 − x2i , d'où le résultat.

3/ a) L'hypothèse | 1 − x2 P (x)| ≤ 1 entraîne, compte tenu du résultat de la question précédente
et du fait que Tn (x) > 0 et x − xi > 0 pour x1 < x ≤ 1, l'inégalité
n   n
1   Tn (x)  1  Tn (x) 1
∀x ∈ ]x1 , 1], |P (x)| ≤   = = Tn (x) = Un−1 (x) ≤ n.
n x − xi n x − xi n
i=1 i=1

On montrerait de même l'inégalité |P (x)| ≤ n lorsque x ∈ [−1, xn [.


Si maintenant x ∈ [xn , x1 ], alors
  π 2 π 1
1 − x2 ≥ 1 − x21 = sin ≥ · =
2n π 2n n
(l'inégalité sin

θ ≥ π2 θ sur [0, π/2] est une conséquence de la concavité du sinus sur [0, π/2]), donc
|P (x)| ≤ 1/ 1 − x2 ≤ n, d'où le résultat.
b) L'expression (∗) donnant U n s'écrit aussi ∀θ ∈ R  πZ, Un−1 (cos θ) = sin(nθ)/ sin(θ).
Si P désigne le polynôme nk=1 µk Uk−1 , son degré est ≤ n − 1 et on a P (cos θ) = S(θ)/ sin θ
pour θ ∈ πZ. Or S √ ∞ = 1, donc pour tout θ, |P (cos θ)| · | sin θ| ≤ 1, ce qui entraîne que pour
tout x ∈ I , |P (x)| 1 − x2 ≤ 1. Donc d'après la question précédente, on a P ∞ ≤ n, ce qui
entraîne que pour tout θ ∈ πZ, |S(θ)/ sin θ| ≤ n.
4/ Fixons θ0 ∈ R. Quitte à diviser g par g∞ , on peut supposer g∞ = 1 (si g = 0, le résultat
est évident). Soit S l'application dénie sur R par S(θ) = 12 [g(θ0 + θ) − g(θ0 − θ)]. Comme
1 ik(θ0 +θ)
2 [e − eik(θ0 −θ) ] = i(sin kθ)eikθ0 , on voit que S a la forme de 3/b), et donc si θ ∈ πZ,
|S(θ)/ sin θ| ≤ n. On en déduit
   
 S(θ)   S(θ) 
 
|g (θ0 )| =  lim  =  lim  ≤ n.
 θ→0 θ   θ→0 sin θ 
θ=0 θ=0

Ceci est vrai pour tout θ0 ∈ R, d'où le résultat.


5. PROBLÈMES 103

5/ Là encore, quitte à diviser P par P ∞ , on peut supposer P ∞ = 1 (le cas P= 0 est évident).
Posons g(θ) = P (cos θ) = P [(eiθ + e−iθ )/2]. Cette application a la forme de l'application g de
4/, et donc on a
∀θ ∈ R, |g  (θ)| = | sin θ| · |P  (cos θ)| ≤ n.

Cette inégalité entraîne que sur [−1, 1], on a 1 − x2 |P  (x)| ≤ n, donc d'après 3/a), |P  (x)| ≤ n2
sur I . D'où le résultat.
Remarque. Les polynômes Tn (resp. Un ) s'appellent les polynômes de Tchébyche de
première espèce (resp. de deuxième espèce). Ce sont des polynômes orthogonaux , dont
l'étude générale fait l'objet du sujet d'étude 3 page 110.
 On retrouve les polynômes de Tchébyche de première espèce dans l'exercice 13 page 74,
ou il est démontré qu'ils vérient la propriété de mini-max suivante : le minimum de P ∞
lorsque P parcourt les polynômes unitaires de degré n est égal à 21−n Tn ∞ = 21−n .

Problème 14. Pour tout n ∈ N∗ , on note π(n) le nombre de nombres premiers p vé-
riant p ≤ n. Le but du problème est d'obtenir des minorations intéressantes de π(n),
en utilisant des intégrales de polynômes à coecients entiers. Pour tout n ∈ N, on note
Zn [X] l'ensemble des polynômes de degré ≤ n à coecients entiers.
1/a) Pour tout k ∈ N, on considère l'ensemble
Ek = {P ∈ Zk [X] | P (1 − X) = (−1)k P (X)}
et on note Zk [X(1 − X)] = {P (X(1 − X)) | P ∈ Zk [X]}. Montrer que pour tout k ∈ N,
on a E2k = Zk [X(1 − X)] et E2k+1 = (1 − 2X) Zk [X(1 − X)].
b) Pour tout P ∈ R[X], on note P ∞ = supt∈[0,1] |P (t)|. Montrer que pour tout k ∈ N,
il existe Pk ∈ Ek tel que
Pk ∞ = mk , où mk = inf P ∞ .
P ∈Zk [X],P =0

2/a) Pour tout n ∈ N∗ , on note dn = ppcm (1,


 1 2, . . . , n). Montrer que dn ≤ n .
π(n)

b) Soit P ∈ Z[X] de degré n tel que I(P ) = 0 P (t) dt = 0. Montrer que |I(P )| ≥ 1/dn+1 .
c) Soit P ∈ Z[X] non nul tel que P ∞ < 1. Montrer que
 
n 1 1
π(n) ≥ C(P ) +O avec C(P ) = − log P ∞ .
log n log n deg(P )
Cette borne inférieure motive la recherche de polynômes P ∈ Z[X] maximisant C(P ).
3/a) Pour tout k ∈ N∗ , on note Ck = −(log mk )/k. Calculer C2 et en déduire une première
borne inférieure sur π(n).
b) Calculer C5 puis une nouvelle borne inférieure sur π(n) (on pourra utiliser l'inégalité de
Markov P  ∞ ≤ 2(deg P )2 P ∞ , conséquence de la question 5/ du problème précédent).

Solution. 1/a) Montrons d'abord le résultat pour E2k . L'inclusion Zk [X(1 − X)] ⊂ E2k est
immédiate. Pour montrer l'inclusion réciproque, on procède par récurrence sur k. Pour k = 0
c'est immédiat. Supposons le résultat vrai au rang k − 1 et montrons le au rang k ∈ N∗ . Soit
P ∈ E2k . Le polynôme P (X) − P (0) s'annule en X = 0 ainsi qu'en X = 1 par symétrie.
On peut donc écrire P (X) − P (0) = X(1 − X)Q(X) où Q ∈ Q[X]. La division euclidienne d'un
polynôme à coecients entiers par un polynôme dont le terme dominant vaut ±1 est à coecients
entiers, donc Q ∈ Z[X] (voir la remarque 3 page 58). De plus Q ∈ E2k−2 , et il sut d'appliquer
l'hypothèse de récurrence à Q pour montrer que P = P (0) + X(1 − X)Q ∈ Zk [X(1 − X)].
Il s'agit maintenant de montrer E2k+1 ⊂ (1 − 2X)Zk [X(1 − X)]. Soit P ∈ E2k+1 . On a
P (1/2) = (−1)2k+1 P (1/2) = −P (1/2) donc P (1/2) = 0. Ainsi, P est divisible par (1 − 2X) donc
104 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES

il existe Q ∈ Q[X] tel que P = (1 − 2X)Q. Lorsque |x| < 1/2, l'égalité
P (x)
Q(x) = = P (x)(1 + 2x + 4x2 + · · · )
1 − 2x
montre que les coecients de Q(x) (vu comme une série entière) sont entiers, donc Q ∈ Z[X].
On conclut en remarquant que Q ∈ E2k .
b) On montre d'abord l'existence de Qk ∈ Zk [X] tel que Qk ∞ = mk . On remarque que
l'ensemble Γ = {P ∈ Zk [X]{0} | P  ≤ 1 + mk } est ni (les normes dans le s.e.v de dimension
 
nie Rk [X] sont équivalentes, donc si P = k=0 a X  ∈ Γ il existe A > 0 tel que k=0 |a | ≤
A P ∞ ≤ B = A(1 + mk )). Donc il existe Qk ∈ Γ tel que Qk ∞ = inf P ∈Γ P ∞ , et comme
inf P ∈Γ P ∞ = mk par dénition de Γ, on a bien le résultat voulu.
On considère maintenant les deux polynômes
R1 (X) = XQk (X) + (−1)k (1 − X)Qk (1 − X), R2 (X) = (1 − X)Qk (X) + (−1)k XQk (1 − X).
Ces polynômes sont de degré ≤ k (le terme éventuel de degré k + 1 s'annule) et on a Ri (X) =
(−1)k Ri (1−X) donc Ri ∈ Ek . Lorsque  t ∈ [0, 1] on a |R
 i (t)| ≤ tQk ∞ +(1−t)Qk ∞ = Qk ∞ ,
donc Ri ∞ ≤ mk . Le déterminant  (1−X)
X (−1)k (1−X) 
(−1)k X
 = (−1)k (2X − 1) est non nul, donc Qk (X)
et Qk (1 − X) s'expriment linéairement en fonction de R1 et R2 donc l'un des deux polynômes
R1 , R2 est non nul. Il sut alors de choisir Pk comme l'un non nul de ces deux polynômes.

2/a) Notons k = π(n) et p1 , . . . , pk les nombres premiers ≤ n. On a dn = ki=1 pαi i où pour
tout i, αi est la plus grande puissance de pi dans la décomposition en facteurs premiers des n
premiers entiers. Ainsi, pαi i ≤ n, donc dn ≤ nk = nπ(n) .
 
b) En écrivant P = nk=0 ak X k , on a I(P ) = nk=0 ak /(k + 1) donc en réduisant au même
dénominateur, on voit que I(P ) = m/dn+1 avec m ∈ Z. Comme m ∈ Z∗ , on en déduit le
résultat.
c) Notons k = deg(P ). Pour tout α ∈ N∗ , le polynôme P 2α ∈ Z[X] est positif non nul et de
degré 2kα, donc I(P 2α ) ≥ 1/d2kα+1 . Par ailleurs I(P 2α ) ≤ P 2α
∞ ce qui entraîne
1 1 2kα
(2kα + 1)π(2kα+1) ≥ d2kα+1 ≥ ≥ donc π(2kα + 1) ≥ C(P ).
I(P 2α ) P 2α
∞ log(2kα + 1)
On en déduit facilement le résultat demandé.
3/a) D'après 1/b), il existe P ∈ Z1 [X(1 − X)] tel que P ∞ = m2 . Le polynôme P a la
forme P = a + bX(1 − X) avec a, b ∈ Z. Comme m2 ≤ X(1 − X)∞ = 1/4, on doit avoir
|a| = |P (0)| ≤ m2 ≤ 1/4 donc a = 0. On en conclut que P = bX(1 − X) et forcément,
b = ±1. Ainsi, m2 = 1/4 donc C2 = log 2. On en conclut grâce à la question précédente que
π(n) ≥ (log 2)n/ log n + O(1/ log n).
b) La question 1/b) assure qu'il existe P de la forme P = (1 − 2X)[a + bX(1 − X) + cX 2 (1 − X)2 ]
avec a, b, c ∈ Z tel que P ∞ = m5 . Comme m5 ≤ m2 < 1, on a forcément a = P (0) = 0. Un
calcul facile montre que Q = (1 − 2X)X 2 (1 − X)2 vérie Q∞ = 5−5/2 . D'après l'inégalité de
Markov on a donc
1 2
|b| = |P  (0)| ≤ P  ∞ ≤ 2 · 52 P ∞ ≤ 2 · 52 = √ <1
55/2 5
donc b = 0. Ainsi, P est de la forme P = c(1 − 2X)X 2 (1 − X)2 , et on a forcément c = ±1
donc P = ±Q. Donc m5 = Q∞ = 5−5/2 , d'où C5 = log(5)/2. Ceci donne la minoration
2 n/ log n + O(1/ log n) pour n susamment grand.
π(n) ≥ log(5)
Remarque. Nous avons montré π(n) ≥ Ck n/ log n + O(1/ log n) dans 3/a) et 3/b), avec
C2  0, 6931 et C5  0, 8047. Le théorème des nombres premiers (dont une démonstration
est proposée en annexe du tome d'analyse  à partir de la deuxième édition) assure que
π(n) ∼ n/ log n. Cependant on ne peut pas, en utilisant la technique du problème, obtenir
des minorations du type π(n) ≥ C n/ log(n) + O(1/ log n) avec C arbitrairement proche
de 1 (en eet, on peut montrer que Ck ≤ 0, 866 pour tout k ).
6. SUJETS D'ÉTUDE 105

 Ce type de minoration de π(n) est à rapprocher du théorème de Tchébyche (voir le


sujet d'étude 1 page 47). En eet, les questions 1/ et 5/ de ce sujet d'étude entraînent
facilement la minoration π(2n) ≥ (log 2 + o(1)) log2n2n .

6. Sujets d'étude
Sujet d'étude 1. Soit p un nombre premier. On note Fp = Z/pZ.
1/ Soit K un corps commutatif contenant Fp . Montrer que pour

tout R ∈ Fp [X] et pour
pn
tout x ∈ K, on a pour tout n ∈ N la relation R(xp ) = R(x) .
n

2/a) Soit Q ∈ Fp [X], irréductible dans Fp [X], de degré d. Soit n ∈ N∗ . Montrer que
Q | (X − X) si et seulement si d | n.
pn

b) Pour tout n ∈ N∗ , on note Kpn l'ensemble des polynômes unitaires irréductibles de


Fp [X], de degré n. Montrer que
 
n
 
Xp − X =  Q .
d|n Q∈Kpd


3/a) Pour tout n ∈ N∗ , on note Ipn = Card(Kpn ). Montrer que pn = d|n dIpd .
b) Montrer que pour tout n ∈ N∗ , Ipn = 0.
4/ Une application aux corps nis (on rappelle que tout corps ni est commutatif, voir le
problème 11 page 100).
a) Soit K un corps ni. Montrer qu'il existe un nombre premier p et un entier n ∈ N∗ tels
que Card(K) = pn . Réciproquement, si p est un nombre premier et si n ∈ N∗ , montrer
qu'il existe un corps ni K de cardinal pn .
b) Soit K un surcorps de Fp tel que Card(K) = pn avec n ∈ N∗ . Soit P ∈ Kpn . Montrer
qu'il existe x ∈ K tel que P (x) = 0.
c) En déduire que deux corps nis de même cardinal sont isomorphes.
Solution. 1/ Le corps K contenant Fp , il est de caractéristique p. On peut donc écrire
p−1  
 p k p−k
∀x, y ∈ K, (x + y)p = xp + y p + x y = xp + y p
k
k=1
 
p
car si 1 ≤ k ≤ p − 1, p | .
k
En procédant par récurrence sur n, on en déduit que pour tout n ∈ N, (x + y)p = xp + y p ,
n n n

puis par récurrence sur k, on montre que pour tout (x1 , . . . , xk ) ∈ Kk , pour tout n ∈ N,
n n n
(x1 + · · · + xk )p = xp1 + · · · + xpk .
Par ailleurs, pour tout a ∈ Fp , ap = a donc (par récurrence), pour tout n ∈ N, ap = a.
n

Ceci étant, soit R = a0 + a1 X + · · · + ad X d ∈ Fp [X]. Pour tout x ∈ K,, on a


 d
pn d d
  n 
pn n n n
R(x) = ai xi = api (xi )p = ai (xp )i = R(xp ).
i=0 i=0 i=0

2/a) Le polynôme Q étant irréductible dans Fp [X], K = Fp [X]/(Q) est un corps ; K est d'ailleurs
un Fp -espace vectoriel de dimension d, donc isomorphe (comme Fp -espace vectoriel) à Fdp , d'où
Card(K) = Card(Fdp ) = pd . Le groupe multiplicatif K∗ est donc d'ordre pd − 1, et donc pour tout
106 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES

y ∈ K∗ , y p = 1, ce qui entraîne que pour tout y ∈ K, y p = y , et par récurrence sur k :


d −1 d

kd
∀y ∈ K, ∀k ∈ N, yp = y. (∗)

Ceci étant, montrons l'équivalence demandée.


Condition susante. Supposons d | n. En notant X la classe de X dans le corps Fp [X]/(Q) = K,
pkd pn
on a d'après (∗), X = X pour tout k ∈ N. Comme d | n, on en déduit X = X , c'est-à-dire
Q | (X p − X).
n

pn
Condition nécessaire. Supposons Q | (X p − X), c'est-à-dire X = X . Soit y ∈ K. Il existe
n

pn
R ∈ Fp [X] tel que y = R(X), donc y p = R(X)p = R(X ) = R(X) = y (∗∗). Eectuons
n n

maintenant la division euclidienne de n par d : n = qd + r, 0 ≤ r ≤ d − 1. La relation (∗∗)


s'écrit (y p )p = y , et d'après (∗), on a y p = y . On a donc y p −1 = 1 pour tout y ∈ K∗ .
qd r r r

Or K , sous groupe multiplicatif ni d'un corps commutatif, est cyclique (voir la remarque de

l'exercice 10 page 28). On peut donc choisir y ∈ K∗ d'ordre pd − 1. Or on a vu que y p −1 = 1.


r

comme 0 ≤ r < d, ceci entraîne r = 0, c'est-à-dire d | n.


b) Commençons par montrer que X p − X est sans facteur carré non constant dans Fp [X].
n

Supposons X p −X = Q2 P , avec P, Q ∈ Fp [X]. Par dérivation, on a pn X p −1 −1 = 2QQ P +Q2 P 


n n

donc Q | (pn X p −1 − 1) = −1 (pn = 0 dans Fp ), et donc Q est constant.


n

Le résultat précédententraîne que dans la décomposition de X p −X en facteurs irréductibles


n

de Fp [X] : X p − X = ki=1 Qαi i , on a αi = 1 pour tout i. Or d'après la question précédente,


n

  
pour tout i on a Qi ∈ Kpd avec d | n. On en tire (X p − X) | d|n .
n
Q∈Kpd Q
Pour tout entier d, d | n, et pour tout Q ∈ Kpd , on a Q | (X p −X). Ces facteurs Q étant
n

  
irréductibles, ils sont premiers entre eux deux à deux, et donc d|n − X).
p n
Q∈Kpd Q | (X
On conclut à l'égalité en remarquant que ces polynômes sont unitaires.
3/a) L'identité souhaitée se déduit de 2/b) en passant aux degrés.

b) Le résultat précédent entraîne que pour tout n ∈ N∗ , nIpn ≤ d
d|n dIp = pn . Si on xe
maintenant n ∈ N∗ , on en déduit
  n−1
 pn − p
nIpn = pn − dIpd ≥ pn − pd ≥ pn − pd = pn − > 0.
p−1
d|n d|n d=1
d=n d=n

4/a) Soit p la caractéristique de K. On a p = 0 car K est ni, et p est un nombre premier (voir la
proposition 1 page 57). Notons e l'élément unité de K. L'application ϕ : Z → K n → ne est un
morphisme d'anneaux et Ker ϕ = pZ. Si K = Im ϕ ⊂ K, K est isomorphe à Z/Ker ϕ = Z/pZ =
Fp et c'est donc un sous-corps de K isomorphe à Fp (K s'appelle le sous corps premier de K,
voir la dénition 4 page 58). Le corps K apparaît alors comme étant un K -espace vectoriel, de
dimension nie n car K est ni. Le corps K est donc isomorphe (comme K -espace vectoriel) à
K n , donc Card(K) = Card(K n ) = (Card(K ))n = (Card(Fp ))n = pn .
Réciproquement, soit p un nombre premier et n ∈ N∗ . D'après 3/b), Kpn = ∅. Soit P ∈ Kpn .
K = Fp [X]/(P ) est un corps (car P est irréductible), de cardinal pn car K est un Fp -espace
vectoriel de dimension n.
b) Le groupe multiplicatif K∗ étant de cardinal pn − 1, pour tout x ∈ K∗ , xp −1 = 1, donc pour
n

tout x ∈ K, xp = x. Autrement dit, les éléments de K sont tous racine du polynôme X p − X .


n n

Le degré de ce polynôme étant pn = Card(K), on en déduit que les racines de X p − X sont


n

exactement les éléments de K. Or d'après 2/b), P | (X p − X), donc il existe x ∈ K tel que
n

P (x) = 0.
c) Soit P0 ∈ Kpn , soit K un corps de cardinal pn . La caractéristique de K est p (en eet, c'est un
nombre premier qui de plus divise pn car (K, +) est un groupe d'ordre pn ), et on a vu au 4/a)
que Fp est isomorphe à un sous-corps de K. Autrement dit, à un isomorphisme près, K est un
surcorps de Fp , et donc d'après 4/b), il existe x0 ∈ K tel que P0 (x0 ) = 0.
6. SUJETS D'ÉTUDE 107

Soit Φ le morphisme Fp [X] → K Q → Q(x0 ). On a Ker Φ = {Q ∈ Fp [X] | Q(x0 ) = 0}.


C'est un idéal de Fp [X] donc principal. Soit P unitaire tel que Ker Φ = (P ). On a P0 ∈
Ker Φ = (P ) et P0 est irréductible, donc P = P0 , et donc Ker Φ = (P0 ). Donc Im Φ est
isomorphe à Fp [X]/ Ker Φ = Fp [X]/(P0 ). Ce dernier est un Fp -espace vectoriel de dimension n,
donc de cardinal pn , et donc Im Φ est de cardinal pn . Or Card(K) = pn , donc Im Φ = K.
En résumé, K est isomorphe au corps Fp [X]/(P0 ), et ceci pour tout corps K à pn éléments.
Deux corps de même cardinal sont donc isomorphes.

Sujet d'étude 2 (Transcendance de e et de π). 1/ Si F ∈ C[X], (deg(F ) = n),


on dénit (avec F (0) = F par convention) :
+∞
 n

D(F ) = F (k) = F (k) = F + F  + · · · + F (n) .
k=0 k=0

a) Si F ∈ C[X] et a ∈ C, montrer que


 1
a
e D(F )(0) = a ea(1−t) F (at) dt + D(F )(a).
0

b) Soit Q ∈ Z[X] et p ∈ N, p ≥ 2. Si F (X) = Q(X)X p−1 /(p − 1)!, montrer que D(F )(0)
est un entier vériant D(F )(0) ≡ Q(0) (mod p).
2/ (Transcendance de e). On rappelle qu'un nombre transcendant est un nombre non
algébrique sur Q. Supposons e algébrique. Alors il existe Q ∈ Z[X], Q =
 0, tel que
Q(e) = 0. Soit n = deg(Q). Pour tout nombre premier p, on note
X p−1
Fp (X) = [(X − 1) · · · (X − n)]p .
(p − 1)!
a) Si k ∈ N, 1 ≤ k ≤ n, montrer que D(Fp )(k)

est un entier divisible par p.
1
b) Si k ∈ N, 1 ≤ k ≤ n, montrer que p→+∞
lim ek(1−t) Fp (kt) dt = 0.
0
c) Conclure.
3/ (Transcendance de π). Supposons π algébrique sur Q.
a) Montrer qu'alors iπ est algébrique.
Il existe donc Q = dX n + d1 X n−1 + · · · + dn−1 X + dn ∈ Z[X], d = 0, tel que Q(iπ) = 0.
Soient ω1 , . . . , ωn les racines de Q, de sorte que Q = d(X − ω1 ) · · · (X − ωn ).
b) Si Φ ∈ Z[X1 , . . . , Xn ] est symétrique, montrer
 que Φ(dω1 , . . . , dωn ) est un entier.
Comme il existe k tel que ωk = iπ , on a nk=1 (1 + eωk ) = 0, ce qui en développant
s'écrit aussi
n −1
2
1+ eαj = 0,
j=1

α1 , . . . , α
2n −1 étant les nombres de la forme i∈I ωi , I étant une partie non vide de
{1, . . . , n}. Supposons que C de ces 2n − 1 nombres soient nuls. Si m = 2n − 1 − C , on
peut, quitte à renuméroter, supposer que les αj non nuls sont α1 , . . . , αm .
c) Montrer que si un polynôme Φ ∈ Z[X1 , . . . , Xm ] est symétrique dans Z[X1 , . . . , Xm ],
alors Φ(dα1 , . . . , dαm ) est entier.
Pour tout nombre premier p, on pose
dmp+p−1 X p−1
Fp (X) = [(X − α1 ) · · · (X − αm )]p .
(p − 1)!
108 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES


d) Montrer que m k=1 D(Fp )(αk ) est un entier divisible par p.
e) En procédant comme au 2/, conclure.
Solution. 1/a) On pose f (t) = e−at D(F )(at). Comme D(F ) = D(F ) − F , on a pour tout
t ∈ [0, 1] : f  (t) = −ae−at D(F )(at) + ae−at D(F ) (at) = −ae−at F (at), et donc par intégration
1
f (1) − f (0) = −a 0 e−at F (at) dt, d'où le résultat compte tenu de la valeur de f .
n
 n
 X k+p−1
b) Écrivons Q = ak X k , de sorte que F = ak . Alors
(p − 1)!
k=0 k=0
n
  n
(k + p − 1)!
D(F )(0) = ak = a0 + ak (k + p − 1) · · · p,
(p − 1)!
k=0 k=1

donc D(F )(0) est un entier qui vérie D(F )(0) ≡ a0 ≡ Q(0) (mod p).
2/a) Fixons k ∈ N, 1 ≤ k ≤ n. Si G(X) = Fp (X + k), on voit facilement que G a la forme
X p−1
G(X) = X · H(X) avec H ∈ Z[X], donc d'après 1/b), N = D(G)(0) = D(Fp )(k) est un
(p − 1)!
entier vériant N ≡ 0 (mod p).
b) Si t ∈ [0, 1], ek(1−t) |Fp (kt)| ≤ ek kp−1 (nn )p /(p − 1)!, donc
 
 1  (knn )p−1
 ek(1−t) Fp (kt) dt ≤ nn ek .
 (p − 1)!
0

Or limp→+∞ (knn )p−1 /(p − 1)! = 0, d'où 2/b).


c) Écrivons Q = a0 + a1 X + · · · + an X n , avec Q(e) = 0 et Q = 0. Quitte à diviser Q par X , on
peut supposer a0 = 0.
Pour tout nombre premier p, on a d'après 1/a)
 n
 n  n
  1 
ak e k
D(Fp )(0) = Sp + Tp avec Sp = ak k ek(1−t) Fp (kt) dt, Tp = ak D(Fp )(k).
k=0 k=0 0 k=0
n
Or = Q(e) = 0, donc 0 = Sp + Tp
k=0 ak e
k (∗). D'après 2/a), pour k ∈ N, 1 ≤ k ≤ n, on a
D(Fp )(k) ≡ 0 (mod p) donc d'après 1/b) :
n

Tp = ak D(Fp )(k) ≡ a0 D(Fp )(0) ≡ a0 (−1)pn (n!)p (mod p).
k=0

Or a0 = 0, et donc pour tout nombre premier p supérieur à max{|a0 |, n}, on a Tp ≡ 0 (mod p).
Tp est donc un entier non nul, et vérie donc |Tp | ≥ 1. Or d'après 2/b), limp→∞ Sp = 0, ce qui
est absurde d'après (∗). Le nombre réel e est donc transcendant.
3/a) Avec le résultat du problème 5, c'est immédiat. En eet, l'ensemble des nombres algébriques
étant un corps, si π est algébrique, comme i est algébrique (racine de X 2 + 1), iπ est algébrique.
Nous allons néanmoins montrer ce résultat directement. Si π est algébrique, il existe n ∈ N∗
et a0 , . . . , an ∈ Z, an = 0, tels que a0 + a1 π + · · · + an π n = 0. En notant θ = iπ , on a
(a0 − a2 θ2 + · · · ) − i(a1 θ − a3 θ3 + · · · ) = 0,
et en posant Q = (a0 − a2 X 2 + · · · )2 + (a1 X − a3 X 3 + · · · )2 ∈ Z[X], on a donc Q(θ) = Q(iπ) = 0
et Q = 0. D'où le résultat.
b) Les nombres complexes dω1 , . . . , dωn sont les racines du polynôme dn−1 Q(X/d) = X n +
d1 X n−1 + dd2 X n−2 + · · · + dn−2 dn−1 X + dn−1 dn = R(X). Ce polynôme est unitaire à coecients
entiers, donc toute expression polynomiale à coecients entiers et symétrique en les racines de
R(X), est un entier (voir la remarque 4 page 84), d'où le résultat.
c) Le polynôme Φ étant symétrique dans Z[X1 , . . . , Xm ], il existe P ∈ Z[X1 , . . . , Xm ] tel que
Φ = P (Σ∗1 , . . . , Σ∗m ), les Σ∗i désignant les fonctions symétriques élémentaires de Z[X1 , . . . , Xm ].
6. SUJETS D'ÉTUDE 109

Si on note Σi les fonctions symétriques élémentaires de Z[X1 , . . . , X2n −1 ], on a facilement


∀i, 1 ≤ i ≤ m, σi = Σ∗i (dα1 , . . . , dαm ) = Σi (dα1 , . . . , dαm , 0, . . . , 0) = Σi (dα1 , . . . , dα2n −1 ).
Nous allons montrer que les σi sont entiers, ce qui prouvera le résultat compte tenu du fait que
Φ(dα1 , . . . , dαm ) = P (σ1 , . . . , σm ) et que P ∈ Z[X1 , . . . , Xn ]. Notons P l'ensemble des parties
non vides
 de {1, . . . , n}, et désignons par I la bijection
 de J = {1, . . . , 2n − 1} vers P telle que
αj = i∈I(j) ωi . Pour tout j ∈ J on note Mj = i∈I(j) Xi . Le polynôme
Qi (X1 , . . . , Xn ) = Σi (M1 , . . . , M2n −1 ) ∈ Z[X1 , . . . , Xn ]
est symétrique dans Z[X1 , . . . , Xn ] (puisqu'une permutation des indéterminées (Xi )1≤i≤n donne
lieu à une permutation des (Mj )1≤j<2n et que Σi est symétrique dans Z[X1 , . . . , X2n −1 ]). Comme
dαj = Mj (dω1 , . . . , dωn ), on a
σi = Σi (dα1 , . . . , dα2n −1 ) = Qi (dω1 , . . . , dωn )
d'où on déduit σi ∈ Z d'après 3/b) puisque Qi est symétrique dans Z[X1 , . . . , Xn ].
d) On peut aussi écrire Fp (X) sous la forme
1
Fp (X) = (dX)p−1 [(dX − dα1 ) · · · (dX − dαm )]p . (∗∗)
(p − 1)!
m
Un peu d'attention montre alors que le polynôme G(X) = (p − 1)! k=1 Fp (X + αk ) a pour
coecients des polynômes symétriques à coecients entiers en les (dαk )1≤k≤m , et donc d'après
3/c), G(X) ∈ Z[X]. Or pour tout k, 1 ≤ k ≤ m, X p | Fp (X + αk ), donc X p | G(X), et
donc
m il existe H ∈ Z[X] tel que G(X) = X H(X)
p . Finalement, on a montré que F (X) =
Xp
F
k=1 p (X + α k ) s'écrit sous la forme F (X) = (p−1)! H(X), et donc d'après 1/b),
m

D(F )(0) = D(Fp )(αk ) ≡ 0 (mod p).
k=1
m
e) L'égalité de 3/b) s'écrit (C + 1) + j=1 e
αj = 0 avec C ∈ N et d'après 1/a), en posant
m
  1 m

Sp = αk eαk (1−t) Fp (αk t) dt, Tp = (C + 1)D(Fp )(0), Up = D(Fp )(αk ),
k=1 0 k=1
on a 0 = Sp + Tp + Up (∗∗∗). Or pour tout k, pour tout p, pour tout t ∈ [0, 1],
|d|mp+p−1 M p−1 K p−1
|Fp (αk t)| ≤ [(2M )m ]p = |d|m (2M )m
(p − 1)! (p − 1)!
où M = sup1≤k≤n |αk | et K = |d|m+1 M (2M )m sont des constantes. On en déduit que
 
 1  K p−1
 eαk (1−t) Fp (αk t) dt ≤ eM |d|m (2M )m ,
 (p − 1)!
0
1
et donc limp→+∞ 0 eαk (1−t) F p (αk t) dt = 0, et ceci pour tout k , donc
lim Sp = 0. (∗∗∗∗)
p→+∞

D'après (∗∗), on peut écrire


 mp 
X p−1 

Fp (X) = · a X ,
(p − 1)!
=0
où les a sont des polynômes à coecients entiers symétriques en dα1 , . . . , dαm , donc d'après
3/c) les a sont entiers. Par ailleurs, on vérie facilement que a0 = (−1)mp dp−1 (dα1 · · · dαm )p =
dp−1 Lp où L = (−1)m (dα1 · · · dαm ) est une constante, entière d'après 3/c). D'après 1/b), on
voit donc que D(Fp )(0) est un entier vériant D(Fp )(0) ≡ a0 (mod p). Finalement, on obtient
Tp ≡ (C + 1)a0 ≡ (C + 1)dp−1 Lp (mod p). Comme de plus Up ≡ 0 (mod p) d'après 3/d), on voit
que Tp + Up ≡ (C + 1)dp−1 Lp (mod p). Donc si p > sup{C + 1, d, L} est un nombre premier,
Tp + Up est un entier non nul, donc |Tp + Up | ≥ 1. De (∗∗∗), on tire alors |Sp | ≥ 1, ce qui est
absurde d'après (∗∗∗∗). Le nombre π est donc transcendant.
110 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES

Remarque. La transcendance de π a été démontrée pour la première fois par Lindemann


en 1882, qui a établit de manière plusgénérale que si αi et βi sont algébriques (avec les
αi non nuls et les βi distincts), alors αi eβi = 0.
 Un autre résultat célèbre de transcendance est le théorème de Gelfond-Schneider (1934),
qui ame que Si α et β sont algébriques, α ∈ {0, 1}, β ∈ Q, alors αβ est transcendant.
 On connaît peu de classes de nombres transcendants. On sait que e, π , log 2, log 3/ log 2,
eπ , Γ(1/4) sont transcendants, mais on ne sait même pas si 2e , 2π , π e , e + π , ζ(5) ou γ
(constante d'Euler) sont irrationnels (on sait que ζ(3) est irrationnel).
 On peut démontrer assez facilement que π 2 (donc π ) est irrationnel (voir le chapitre
intégration du tome analyse). Ceci est aussi une conséquence de la transcendance de π .
 En démontrant la transcendance de π , Lindemann résolvait le célèbre problème de la
quadrature du cercle. Ce problème consiste à tracer à l'aide d'une règle et d'un compas un
carré ayant même aire qu'un disque donné. Le transcendance de π montre que ce problème
est insoluble (on montre en eet que tout point construit avec une règle et un compas à
partir du cercle unité a des coordonnées algébriques).

Sujet d'étude 3 (Polynômes orthogonaux). Soit I un intervalle réel non réduit à


un singleton, et w : I → R une fonction continue strictement positive sur I . On suppose
que pour tout n ∈ N, la fonction x → xn w(x) est intégrable sur I . On note C l'ensemble
des fonctions continues f : I → R telles que x → f 2 (x)w(x) est intégrable sur I . Les
fonctions polynômes appartiennent à C d'après l'hypothèse sur w.
1/a) Montrer que C est un espace vectoriel, et que

f, g = f (x)g(x)w(x) dx
I

dénit un produit scalaire sur C . On munit C de ce produit scalaire et on note  ·  la


norme associée.
b) Montrer qu'il existe une unique base (Pn ) de l'e.v des polynômes R[X], orthonormale
pour ce produit scalaire, et vériant deg Pn = n pour tout n ∈ N et telle que le coecient
dominant γn de Pn est positif. Les Pn sont appelés polynômes orthogonaux associés à w.
c) Montrer que les polynômes Pn vérient une relation de récurrence de la forme
∀n ≥ 2, Pn (X) = (an X + bn )Pn−1 (X) + cn Pn−2 (X) (∗)

pour des suites réelles (an ), (bn ) et (cn ) que l'on explicitera. n
d) (Formule de Darboux). En déduire que le noyau Kn (x, y) = i=0 Pi (x)Pi (y) vérie
n
 γn Pn+1 (x)Pn (y) − Pn (x)Pn+1 (y)
∀n ∈ N, ∀(x, y) ∈ R2 , x = y, Pi (x)Pi (y) =
i=0
γn+1 x−y

et calculer également Kn (x, y) lorsque x = y .


2/ (Zéros des polynômes orthogonaux).
a) Montrer que pour tout n ∈ N∗ , Pn a n zéros réels distincts dans l'intervalle I .
b) Montrer qu'entre deux zéros consécutifs de Pn+1 , il y a un et un seul zéro de Pn .
c) Soit f ∈ C et n ∈ N. Soit fn le meilleur approximant de f , au sens de la norme  · ,
dans Vect(P0 , . . . , Pn ). Montrer que f − fn s'annule au moins en n + 1 points à l'intérieur
de I .
6. SUJETS D'ÉTUDE 111

3/ (Quadrature de Gauss). Soit n ∈ N∗ . On note x1 < . . . < xn les zéros de Pn .


a) Montrer qu'il existe des nombres réels uniques λ1 , . . . , λn tels que
 n

∀Q ∈ R[X], deg(Q) < 2n, Q(x)w(x) dx = λi Q(xi ). (∗∗)
I i=1

Montrer λi > 0 pour tout i.


b) Montrer que
γn+1 1
∀i, 1 ≤ i ≤ n, λi = − .
γn Pn+1 (xi )Pn (xi )

c) Montrer l'unicité des nombres réels (xi )1≤i≤n et (λi )1≤i≤n vériant l'identité (∗∗).
d) Si I est un segment de R, et f : I → R est de classe C 2n , montrer que
 
 n  1 supx∈I |f (2n) (x)|
 
 f (x)w(x) dx − λ i f (x i  ≤ 2
) .
 I  γn (2n)!
i=1

(Indication : utiliser le résultat de l'exercice 7 page 70).

Solution. 1/a) Si f∈ C il est immédiat que λf ∈ C pour tout λ ∈ R, et si f, g ∈ C alors (f +g)2 w


est intégrable puisque positive et majorée par [(f + g)2 + (f − g)2 ]w = 2(f 2 + g 2 )w. Ainsi, C est
bien un espace vectoriel.
L'application (f, g) → f, g est un produit scalaire : en eet, c'est une forme bilinéaire
symétrique, elle est positive car w > 0, et elle est bien dénie car si I f 2 w = 0, alors la fonction
f 2 w étant continue et positive, ceci entraîne f 2 w = 0 donc f = 0 car w ne s'annule pas.
b) Il est immédiat que le procédé d'orthogonalisation de Schmidt s'étend à une famille dénom-
brable de vecteurs. Ainsi, à partir de la base canonique (X n )n∈N de R[X], on peut former une
famille libre (Pn )n∈N orthogonale pour le produit scalaire ϕ telle que P0 = 1 et pour tout n,
Pn = X n + rn avec rn ∈ Vect(P0 , . . . , Pn−1 ). Une récurrence immédiate sur n montre alors que
deg(Pn ) = n pour tout n. Par construction du procédé d'orthonormalisation de Schmidt, on a
Vect(1, X, . . . , X n ) = Vect(P0 , . . . , Pn )
pour tout n, ce qui prouve que la famille libre orthogonale (Pn )n∈N est une base de R[X]. En
normant les polynômes Pn , on obtient alors une base orthonormale de R[X], et le coecient
dominant de Pn est bien positif.
Une telle base est bien unique. En eet, supposons qu'une autre base (Qn ) vériant les mêmes
propriétés dière de (Pn ). Soit k le plus petit indice tel que Qk = Pk . Comme deg Qk = k on peut

écrire Qk = ki=0 λi Pi avec les λi ∈ R. Lorsque 0 ≤ i < k, on a λi = Qk , Pi  = Qk , Qi  = 0,
donc Qk = λk Pk . On a 1 = Qk 2 = λ2k Pk 2 = λ2k , donc λk = 1 ou λk = −1. Comme
les coecients dominants de Pk et Qk sont strictement positifs, on a forcément λk = 1, donc
Pk = Qk ce qui est absurde.
c) Supposons la relation (∗) vériée. En la projetant sur les vecteurs Pn , Pn−1 et Pn−2 on obtient
1 = an XPn−1 , Pn , 0 = an XPn−1 , Pn−1  + bn 0 = an XPn−1 , Pn−2  + cn . (∗∗∗)
Montrons que XPn−1 , Pn  est non nul en explicitant sa valeur. Comme XPn−1 est de degré n,
il existe des réels λk tels que
n

XPn−1 = λ k Pk ,
k=0
ce qui entraîne XPn−1 , Pn  = λn , et l'égalité des coecients dominants donne γn−1 = λn γn
donc nalement XPn−1 , Pn  = γn−1 /γn . De même, on a

γn−2
XPn−1 , Pn−2  = Pn−1 (x)xPn−2 (x)w(x) dx = Pn−1 , XPn−2  = XPn−2 , Pn−1  = .
I γn−1
112 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES

Finalement, les trois égalités (∗∗∗) sont équivalentes à


γn γn XPn−1 , Pn−1  γn γn−2
an = , bn = − , cn = − 2 .
γn−1 γn−1 γn−1
Réciproquement, le choix de ces valeurs entraîne que la projection de (∗) le long des vecteurs
Pn , Pn−1 et Pn−2 est vériée. Les deux termes de (∗) sont également égaux le long des vecteurs
Pk pour k < n − 2 car XPn−1 , Pk  = Pn−1 , XPk  = 0 vu que deg(XPk ) < n − 1 donc
XPk ∈ Vect(P0 , . . . , Pn−2 ). Ainsi, nous avons démontré que le choix des valeurs an , bn et cn
entraîne que (∗) est vrai le long de chaque vecteur Pk pour k ≤ n, et comme les polynômes de
(∗) sont de degré ≤ n, cela montre que (∗) est bien vérié.
d) On procède par récurrence sur n. Pour n = 0 la relation est vraie car
γ0 P1 (x)P0 (y) − P1 (y)P0 (x) γ0 γ0 (P1 (x) − P1 (y)) γ0
· = · = γ0 γ1 = γ02 = P0 (x)P0 (y).
γ1 x−y γ1 x−y γ1
Supposons maintenant la formule de Darboux vraie au rang n − 1 et montrons la au rang n.
En remplaçant les expressions de Pn+1 (x) et Pn+1 (y) par la formule obtenue dans la question
précédente, on obtient
Pn+1 (x)Pn (y) − Pn (x)Pn+1 (y) Pn−1 (x)Pn (y) − Pn (x)Pn−1 (y)
= an+1 Pn (x)Pn (y) + cn+1 ,
x−y x−y
ce qui compte tenu des valeurs de an+1 et cn+1 obtenues précédemment entraîne
γn Pn+1 (x)Pn (y) − Pn (x)Pn+1 (y) γn−1 Pn (x)Pn−1 (y) − Pn−1 (x)Pn (y)
= Pn (x)Pn (y) + .
γn+1 x−y γn x−y
Compte tenu de l'hypothèse de récurrence, ceci démontre bien la formule de Darboux lorsque
x = y .
Pour calculer Kn (x, x) on calcule la limite de Kn (x, x + h) lorsque h = 0 tend vers 0. En
substituant Pn (x + h) et Pn+1 (x + h) par leur développement limité à l'ordre 1 dans la formule
précédente appliquée à y = x + h, on obtient
γn Pn+1 (x)(Pn (x) + hPn (x) + o(h)) − (Pn+1 (x) + hPn+1
 (x) + o(h))Pn (x)
Kn (x, x + h) =
γn+1 (−h)
ce qui en faisant tendre h vers 0 donne
γn
Kn (x, x) = (P  (x)Pn (x) − Pn (x)Pn+1 (x)).
γn+1 n+1

2/a) Fixons n ∈ N∗ et notons k ∈ N le nombre de zéros de Pn dans I d'ordre de multiplicité


impaire. Si on note α1 , · · · , αk ces zéros et Q = (X − α1 ) · · · (X − αk ) (avec Q = 1 si k = 0), le
polynôme Pn Q garde un signe constant sur I .
Supposons k ≤ n − 1. Alors Q ∈ Vect(1, X, . . . , X n−1 ) = Vect(P0 , . . . , Pn−1 ). De plus pour
tout k ≤ n − 1, Pn , Pk  = 0. On en conclut Pn , Q = 0 = I Pn (t)Q(t)w(t) dt. Or la fonction
t → Pn (t)Q(t)w(t) est continue et garde un signe constant sur I , donc Pn Q w = 0, et comme
w > 0, ceci entraîne Pn Q = 0 sur I , ce qui est impossible vu que Pn Q est un polynôme non nul.
Donc k ≥ n, et comme deg(Pn ) = n, Pn a n racines distinctes dans I .
b) La formule obtenue précédemment pour Kn (x, x) montre que pour tout zéro α de Pn+1 , on a
n
  γn+1  γn+1
Pn+1 (α)Pn (α) = Pn+1 (α)Pn (α) − Pn (α)Pn+1 (α) = Pi (α)2 ≥ P0 (α)2 > 0.
γn γn
i=0
Maintenant considérons deux zéros consécutifs α et β de Pn+1 . La fonction Pn+1 garde un signe
constant sur [α, β], par exemple positif. Comme Pn+1 (α) = 0 on en déduit Pn+1
 (α) ≥ 0, de même
on obtient Pn+1
 (β) ≤ 0. Compte tenu de l'inégalité Pn+1
 (α)Pn (α) > 0, on en déduit Pn (α) > 0.
De même, l'inégalité Pn+1
 (β)Pn (β) > 0 entraîne Pn (β) < 0. Ainsi Pn change de signe dans ]α, β[
donc contient au moins un zéro dans cet intervalle. Comme Pn+1 a n + 1 zéros dans I , Pn a un
zéro dans chacun des n intervalles délimités par deux zéros consécutifs de Pn . Or Pn a n zéros
donc il n'y en a qu'un seul entre deux zéros consécutifs de Pn+1 .
6. SUJETS D'ÉTUDE 113

c) La propriété de projection sur un s.e.v de dimension nie (voir la proposition 2 page 254) assure
que fn est la projection orthogonale de f sur Vect(P0 , . . . , Pn ) = Vect(1, . . . , X n ). Donc f − fn
est orthogonal à ce sous espace, c'est-à-dire f − fn , Q = 0 pour tout polynôme Q de degré ≤ n.
On procède ensuite de manière analogue à la solution de la question 2/a), (sauf qu'ici, on ne peut
pas utiliser la notion de zéro de multiplicité impaire). Raisonnons par l'absurde et supposons que
f − fn ne s'annule qu'en k points x1 < . . . < xk de l'intérieur de I , avec k ≤ n. Par commodité,
notons x0 et xk+1 les extrémités de l'intervalle I . Sur chaque intervalle ]xj , xj+1 [ la fonction
continue f − fn ne s'annule pas donc garde un signe constant. Notons 1 ≤ j1 < . . . < j ≤ k les
indices j pour lesquels f −fn change de signe entre ]xj−1 , xj [ et ]xj , xj+1 [. La fonction f −fn garde
un signe constant sur chacun des intervalles ]x0 , xj1 [, ]xj1 , xj2 [, . . ., ]xj , xk+1 [ et change de signe

à chaque xjm . Ainsi, le polynôme déni par Q = m=1 (X − xjm ) (ou Q = 1 si  = 0) est tel que
(f − fn )Q garde un signe constant sur I tout entier. Donc la fonction continue (f − fn )Qw garde
également un signe constant sur I , et comme deg(Q) ≤ n on a f − fn , Q = I (f − fn )Qw = 0
donc (f − fn )Qw = 0, donc (f − fn )Q = 0. Ceci entraîne que f − fn s'annule sauf éventuellement
aux zéros de Q, et par continuité f − fn = 0 sur I tout entier. Ceci est absurde car on a supposé
que f − fn ne s'annulait qu'en un nombre ni de points. Donc f − fn s'annule bien en au moins
n + 1 points de l'intérieur de I .
3/a) Montrons l'existence des (λi ). Notons Li le polynôme de Lagrange de degré < n qui vérie
Li (xi ) = 1 et Li (xj ) = 0 pour j = i.
Soit Q ∈ R[X], deg(Q) < 2n, et considérons le polynôme
d'interpolation de Lagrange L(X) = ni=1 Q(xi )Li (X) qui vérie Q(xi ) = L(xi ) pour tout i. Le
polynôme Q − L s'annule aux points xi , donc il existe un polynôme R tel que Q − L = Pn R. On
a deg(R) = deg Q − deg Pn < n, donc Pn , R = 0, donc I (Q − L)(x)w(x) dx = 0. On en déduit
   
n
 n

Q(x)w(x) dx = L(x)w(x) dx = Q(xi )Li (x) w(x) dx = λi Q(xi )
I I I i=1 i=1

avec λi = I Li (x)w(x) dx. Les λi sont bien uniques,
 car l'expression (∗∗) appliquée au polynôme
de Lagrange Li montre qu'on a forcément λi = I Li (x)w(x)
 dx. Enn, l'expression (∗∗) appliquée
à Q = L2i (dont le degré est ≤ 2n − 2) entraîne 0 < I Li (x)2 w(x) dx = λi .

b) L'idée est de calculer de deux manières diérentes l'expression I Kn (x, xi )Li (x)w(x) dx.
Comme deg(Kn (X, xi )Li (X)) < 2n, on peut appliquer l'expression (∗∗) ce qui donne
 n

Kn (x, xi )Li (x)w(x) dx = λj Kn (xj , xi )Li (xj ) = λi Kn (xi , xi ). (∗∗∗∗)
I j=1

En utilisant maintenant l'expression du noyau Kn , on obtient


 n
  n

Kn (x, xi )Li (x)w(x) dx = Pj (xi ) Pj (x)Li (x)w(x) dx = Pj (xi )Pj , Li .
I j=0 I j=0
n−1
Par ailleurs, deg(Li ) < n donc Li ∈ Vect(P0 , . . . , Pn−1 ) donc on peut écrire Li = k=0 µk Pk
avec les µk ∈ R, dont l'expression précédente entraîne
 n
 n
 n

Kn (x, xi )Li (x)w(x) dx = Pj (xi ) µk Pj , Pk  = Pj (xi )µj = Li (xi ) = 1.
I j=0 k=0 j=0

Avec (∗∗∗∗), on en déduit λi = 1/Kn (xi , xi ), d'où le résultat souhaité grâce à l'expression obtenue
dans 1/d) pour Kn (x, x).
c) Supposons l'identité
 (∗∗) vraie pour des nombres (xi ) et (λi ), avec x1 < . . . < xn . Alors le
polynôme Q = ni=1 (X − xi ) vérie
 n

∀P ∈ R[X], deg(P ) < n, Q(x)P (x)w(x) dx = λi Q(xi )P (xi ) = 0
I i=1
114 2. CORPS, POLYNÔMES ET FRACTIONS RATIONNELLES


autrement dit on a Q, P  = 0 pour tout polynôme P de degré < n. Donc Q = ni=0 Q, Pi Pi =
Q, Pn Pn , autrement dit Q et Pn sont proportionnels, ce qui entraîne que les (xi ) sont les racines
de Pn , et sont donc uniques. Nous avons déjà vu qu'alors les (λi ) étaient uniques, d'où le résultat.
d) Soit P le polynôme d'interpolation de Hermite, deg(P ) < 2n, tel que P (xi ) = f (xi ) et
P  (xi ) = f  (xi ) pour tout i. D'après l'exercice 7 page 70, on a
n
 supt∈I |f (2n) (t)|
∀x ∈ I, |f (x) − P (x)| ≤ M (x − xi )2 avec M = .
(2n)!
i=1
n
Comme Pn (x) = γn i=1 (x − xi ) on en déduit, par intégration
 
P 2 (x) M M
|f (x) − P (x)|w(x) dx ≤ M n 2 w(x) dx = 2 Pn , Pn  = 2
I I γn γn γn
 n
Par ailleurs, comme f (xi ) = P (xi ), on a I P (x)w(x) dx = i=1 λi f (xi ) donc
 n 
f (x)w(x) dx − λi f (xi ) = (f (x) − P (x))w(x) dx
I i=1 I

d'où le résultat souhaité à partir de la majoration I |f − P |w obtenue juste au dessus.
Remarque. Les polynômes orthogonaux classiques sont les suivants :
(i) Lorsque I = ] − 1, 1[ et w(x) = (1 − x2 )−1/2 , les Pn sont les polynômes de Tchébyche
de première espèce, et vérient Pn (x) = Tn (x) = cos(n arccos(x)) (déjà rencontrés
dans l'exercice 13 page 74 et le problème 13 page 101).
(ii) Lorsque I = ] − 1, 1[ et w(x) = (1 − x2 )1/2 , les Pn sont les polynômes de Tchébyche
de seconde espèce, et vérient Pn (x) = Un (x) = n+1 1 
Tn+1 (x).
(iii) Lorsque I = [−1, 1] et w(x) = 1, les Pn sont les polynômes de Legendre . Ils vérient
n (1 − x ) .
dn
Pn (x) = 2n1n! dx 2 n

(iv) Lorsque I = ] − ∞, +∞[ et w(x) = e−x , les Pn sont les polynômes d'Hermite .
2

(v) Lorsque I = [0, +∞[ et w(x) = e−x , les Pn sont les polynômes de Laguerre .
Chapitre 3

Algèbre linéaire : généralités

H istoriquement, l'algèbre linéaire naît de l'étude des systèmes linéaires. Abor-


dés dès 1678 par Leibnitz, Maclaurin en 1748 donne les formules de résolution
à deux ou trois inconnues, complétées dans le cas général par Cramer en 1754.
À partir de là, Vandermonde puis Laplace ont l'idée de dénir un déterminant
d'ordre n par récurrence sur n, en le développant par rapport une ligne ou une
colonne.
D'autre part, dans les Recherches Arithmétiques, Gauss avait adopté, pour
désigner une transformation linéaire, une notation sous forme de tableau : la
notation matricielle. Il y dénit même le produit de deux matrices. Ce passage
devait suggérer à Cauchy la règle du produit de deux déterminants, publiée
en 1815 dans un mémoire.
Jusqu'alors, les concepts de déterminant et de matrice sont encore très liés.
En 1826, Cauchy, cherchant à déterminer les axes principaux d'une surface
du second degré, introduit le polynôme caractéristique d'une matrice. Avec
Cayley et Sylvester, au milieu du dix-neuvième siècle, la théorie des matrices
se développe.
On en est encore au plan et à l'espace. La familiarisation des mathémati-
ciens aux déterminants et aux matrices s'accroissant, elle suggère à ceux ci la
conception d'un espace à n dimensions. Mais il fallait oser ! Vers 1843-1845,
Cayley et Grassmann franchissent le pas et parlent d'espaces à n dimensions.
Cayley se fonde sur la généralisation de la géométrie analytique des coordon-
nées et introduit les n-uplets (x1 , . . . , xn ). Grassmann a quant à lui l'idée de
développer une analyse géométrique, capable de calculer sur des grandeurs
orientées de façon intrinsèque (c'est-à-dire indépendante du choix des coor-
données). Il donne la dénition de l'indépendance linéaire d'un système de
vecteurs et celle de la dimension d'un sous-espace vectoriel. Enn c'est Peano
qui, en 1888, axiomatise l'algèbre linéaire. Jusqu'en 1930, c'est le point de vue
des matrices et des coordonnées qui prédominera, par rapport à un point de
vue plus intrinsèque des espaces vectoriels.
Remarques préliminaires. On abrégera souvent espace vectoriel par e.v, sous-espace
vectoriel par s.e.v.
Dans toute la suite, K désigne un corps commutatif.

1. Espaces vectoriels
1.1. Généralités
Définition 1. On appelle K-espace vectoriel (ou e.v sur K) un ensemble E muni d'une loi
interne (notée +) et d'une loi externe (notée ·) admettant K comme ensemble d'opérateurs
et vériant :
(i) (E, +) est un groupe abélien.
(ii) Pour tout (x, y) ∈ E 2 et (λ, µ) ∈ K2 ,
a) λ · (x + y) = λ · x + λ · y, b) (λ + µ) · x = λ · x + µ · x,
c) λ · (µ · x) = (λµ) · x, d) 1 · x = x.
116 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS

Remarque 1.  Cette dénition entraîne : (λ · x = 0) ⇐⇒ (λ = 0 ou x = 0).


 On dit que E est une K-algèbre s'il existe de plus une loi interne, notée ◦, vériant
(i) (E, +, ◦) est un anneau,
(ii) ∀(x, y) ∈ E 2 , ∀λ ∈ K, λ · (x ◦ y) = (λ · x) ◦ y = x ◦ (λ · y).
Exemple 1. Les ensembles suivant sont des K-espaces vectoriels : K, Kn (muni des lois
(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn ) et λ · (x1 , . . . , xn ) = (λx1 , . . . , λxn )),
toute extension de corps L de K, l'ensemble des fonctions d'un ensemble Ω dans K, K[X],
K[X1 , . . . , Xn ].
Définition 2. Les éléments d'un K-e.v s'appellent des vecteurs, ceux de K des scalaires.
Définition 3. Soit (E, +, ·) un K-e.v et F ⊂ E . On dit que F est un sous-espace vectoriel
de E si (F, +, ·) est un K-e.v.
Exemple 2. Les ensembles {0} et E sont des s.e.v de E ; Kn [X] = {P ∈ K[X], deg(P ) ≤ n}
est un s.e.v de K[X] ; C(R, R) (ensemble des fonctions continues de R dans R) est un s.e.v
du R-e.v des fonctions de R dans R ; si P ∈ K[X], l'idéal (P ) est un s.e.v de K[X].
Proposition 1. Soit (E, +, ·) un K-e.v et F ⊂ E . Alors (F, +, ·) est un s.e.v de E si et
seulement si
(i) F = ∅ (ii) ∀(x, y) ∈ F 2 , ∀(λ, µ) ∈ K2 , λx + µy ∈ F.
Remarque 2. On montre rarement directement qu'un ensemble est un e.v, mais souvent
que c'est un s.e.v d'un e.v connu (à l'aide de la proposition précédente).
Proposition 2. Soit E un K-e.v et (Ei )i∈I une famille de s.e.v de E . Alors ∩i∈I Ei est
un s.e.v de E .
Remarque 3. Attention, ce théorème est faux pour la réunion (voir l'exercice 1).
Somme de sous-espaces vectoriels.

Définition
 4. Soit E un K-e.v, (Ei )i∈I une famille de s.e.v de E . On note
 i∈I Ei =
{ i∈I xi | les xi ∈ Ei étant tous nuls sauf un nombre ni }. L'ensemble i∈I Ei est un
s.e.v de E appelé somme des s.e.v (Ei )i∈I .

Définition 5. Soient E1 , . . . , En n sous-espaces vectoriels d'un K-e.v E . On dit que E


est somme directe de E1 , . . . , En si tout vecteur x ∈ E s'écrit de manière unique sous la
forme x = x1 + · · · + xn où ∀i, xi ∈ Ei . On note alors E = E1 ⊕ · · · ⊕ En = ⊕ni=1 Ei .
n
Remarque 4. Si E = E1 ⊕ · · · ⊕ En , on a bien sûr E = i=1 E i = E 1 + · · · + En .
Proposition 3. Soient E1 et E2 deux s.e.v d'un K-e.v E . Alors E = E1 ⊕ E2 si et
seulement si E = E1 + E2 et E1 ∩ E2 = {0}.
Remarque 5.  Cette proposition est fausse s'il y a plus de deux s.e.v.
 On dit que n s.e.v E1 , . . . , En sont en somme directe si ni=1 Ei = ⊕ni=1 Ei . On a le
résultat pratique suivant : Les (Ei )1≤i≤n sont en somme directe si et seulement si
l'égalité x1 + · · · + xn = 0 avec ∀i, xi ∈ Ei , entraîne ∀i, xi = 0.
Familles génératrices, familles libres.
Définition 6. Soit (xi )i∈I une famille
 de vecteurs d'un K-e.v E . On appelle combinaison
linéaire des (xi )i∈I toute somme i∈I λi xi où pour tout i, λi ∈ K et où les λi sont tous
nuls sauf un nombre ni.
 L'ensemble F des combinaisons linéaires des (xi )i∈I est un s.e.v de E noté Vect(xi )i∈I .
C'est le plus petit s.e.v de E contenant tous les xi .
1. ESPACES VECTORIELS 117

Définition 7. Soit E un K-e.v et A ⊂ E . On note Vect A = Vect(a)a∈A . On dit que A


est une partie génératrice de E (ou (a)a∈A une famille génératrice de E ) si Vect A = E .
Définition 8. Soit (xi )i∈I une famille d'un K-e.v E . Alors (i) et (ii) sont équivalents :

(i) Toute combinaison linéaire vériant i∈I λi xi = 0 vérie ∀i, λi = 0.
(ii) Aucun vecteur de la famille n'est combinaison linéaire des autres.
Une famille de vecteurs vériant (i) ou (ii) est dite libre (on dit aussi que les vecteurs
(xi )i∈I sont linéairement indépendants ). Dans le cas contraire, la famille est dite liée.
Citons enn le théorème qui est à la base de la théorie sur la dimension des espaces
vectoriels.
Théorème 1. Dans un e.v E engendré par un nombre ni n de vecteurs (c'est-à-dire
∃(x1 , . . . , xn ) ∈ E n , E = Vect(x1 , . . . , xn )), toute famille libre a au plus n éléments.
1.2. Bases et dimension d'un espace vectoriel
Base d'un espace vectoriel.
Définition 9. Une famille libre et génératrice d'un e.v E est appelée une base de E .
Proposition 4. Soit E un K-e.v admettant une base (ei )i∈I . Alors tout 
vecteur x de E
s'écrit de manière unique comme combinaison linéaire des (ei )i∈I : x = i∈I λi xi (avec
les λi tous nuls sauf un nombre ni) . Les (λi )i∈I s'appellent les coordonnées de x dans
la base (ei )i∈I .
Exemple 3. La famille (ei )1≤i≤n (où ei = (0, . . . , 0, 1, 0, . . . , 0), le 1 se trouvant à la i-ième
coordonnée), est une base de Kn appelée base canonique de Kn .
 La famille (X n )n∈N est une base de K[X] appelée base canonique de K[X].
Définition 10. On dit qu'un K-e.v E est de dimension nie s'il existe une famille géné-
ratrice nie de E . Dans la cas contraire, on dit que E est de dimension innie.
L'existence de base en dimension nie est assurée par le théorème suivant.
Théorème 2. Soit E un K-e.v de dimension nie, G un système ni de générateurs de
E , L ⊂ G un système libre. Alors il existe une base B de E telle que L ⊂ B ⊂ G .
Conséquences en dimension nie.
 Tout K-e.v de dimension nie admet une base.
 De toute famille génératrice de E on peut extraire une base de E .
 Toute partie libre peut être complétée en une base (résultat connu sous le nom de
théorème de la base incomplète ).
Remarque 6. Le théorème 2 reste vrai en dimension innie, mais sa démonstration fait
appel à l'axiome du choix.
Théorie de la dimension.
Théorème 3. Soit E un K-e.v de dimension nie. Toutes les bases de E ont même
cardinal n. L'entier n s'appelle dimension de E , et est noté dimK E (avec par convention
dimK E = 0 si E = {0}).
Proposition 5. Soit E un K-e.v de dimension nie n ∈ N∗ . Alors
 Tout système libre de n vecteurs de E est une base de E .
 Tout système générateur de n vecteurs de E est une base de E .
Proposition 6. Soit E un K-e.v de dimension nie n ∈ N∗ . Soient E1 , . . . , Ek k s.e.v
de E . Alors E = E1 ⊕ · · · ⊕ Ek si et seulement si E = E1 + · · · + Ek et n = k=1 dim E .
118 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS

Proposition 7. Soit E un K-e.v et E1 , E2 deux s.e.v de E de dimension nie. Alors


E1 +E2 est un s.e.v de dimension nie et dim(E1 +E2 ) = dim E1 +dim E2 −dim(E1 ∩E2 ).
Corollaire 1. Soit E un K-e.v de dimension nie, E1 et E2 deux s.e.v de E . Alors (i),
(ii) et (iii) sont équivalents :
(i) E = E1 ⊕ E2 .
(ii) dim E = dim E1 + dim E2 et E1 ∩ E2 = {0}.
(iii) dim E = dim E1 + dim E2 et E = E1 + E2 .
Si (i), (ii) ou (iii) est vérié, on dit que E2 est un supplémentaire de E1 dans E .
Remarque 7. Si F est un s.e.v de E , il y a en général une innité de supplémentaires de
F dans E .
1.3. Exercices
Exercice 1. Soit K un corps commutatif et E un K-e.v.
a) Soient F et G deux s.e.v de E . Si F ∪ G est un s.e.v de E , montrer que F ⊂ G ou
G ⊂ F.
b) Soit k ≥ 2 et (Vi )1≤i≤k une famille nie de k s.e.v stricts de E (i. e. pour tout i,
Vi = {0} et Vi = E ). Si E = V1 ∪ · · · ∪ Vk , montrer que K est ni et que k ≥ Card(K) + 1.
Cette inégalité peut-elle être une égalité ?
Solution. a) Raisonnons par l'absurde et supposons que F ⊂ G et G ⊂ F , de sorte qu'il existe
x ∈ F , x ∈ G, et il existe y ∈ G, y ∈ F . Le vecteur x + y est dans le s.e.v F ∪ G, donc x + y ∈ F
ou x + y ∈ G. Supposons par exemple x + y ∈ F . Comme F est un s.e.v et que x ∈ F , on a
(x + y) − x ∈ F , c'est-à-dire y ∈ F , ce qui est absurde. D'où le résultat.
b) C'est plus délicat. Quitte à retirer V1 , on peut supposer V1 ⊂ (V2 ∪ · · · ∪ Vk ). Il existe donc
x ∈ V1 tel que x ∈ V2 ∪ · · · ∪ Vk . Or (V2 ∪ · · · ∪ Vk ) ⊂ V1 (sinon V1 = E ), donc il existe
y ∈ V2 ∪ · · · ∪ Vk tel que y ∈ V1 .
Si λ ∈ K, alors y + λx ∈ E . Or y + λx ∈ V1 (sinon y ∈ V1 car x ∈ V1 ), donc pour tout λ ∈ K,
il existe iλ ∈ {2, . . . , k} tel que y + λx ∈ Viλ . L'application K → {2, . . . , k} λ → iλ est injective
(en eet, si iλ = iµ , alors y + λx et y + µx ∈ Viλ donc (λ − µ)x ∈ Viλ , et comme x ∈ Viλ , on
doit avoir λ = µ). De cette injectivité, on déduit que Card(K) ≤ Card{2, . . . , k} = k − 1, d'où
l'inégalité souhaitée.
Cette inégalité peut être une égalité. Par exemple, si K = Z/2Z et E = K2 , si V1 =
{(0̇, 0̇), (0̇, 1̇)}, V2 = {(0̇, 0̇), (1̇, 0̇)} et V3 = {(0̇, 0̇), (1̇, 1̇)}, alors V1 , V2 et V3 sont des s.e.v stricts
de E et V1 ∪ V2 ∪ V3 = E .

Exercice 2. Montrer que dans le R-e.v des fonctions continues de R dans R, les familles
de fonctions suivantes sont des familles libres :
a) (fλ )λ∈R où fλ : R → R x → eλx .
b) (fλ )λ∈R+ où fλ : R → R x → cos(λx).
c) (fλ )λ∈R où fλ : R → R x → |x − λ|.
Solution.
n a) Supposons cette famille liée, de sorte qu'il existe (λi )1≤i≤n ∈ Rn et (µi ) ∈ Rn tels
que i=1 i fλi = 0 avec les µi non tous nuls. Quitte à retirer des termes, on peut supposer
µ
µi = 0 pour tout i. Quitte à réordonner des termes, on peut même supposer λ1 > λ2 > · · · > λn .
On a  n 
 n
−λ1 x
lim e µi e λi x
= lim µi e(λi −λ1 )x = µ1 ,
x→+∞ x→+∞
i=1 i=1
car pour i ≥ 2, λi − λ1 < 0. Or i µi fλi = 0, et cette limite est donc nulle, donc µ1 = 0, ce qui
est contradictoire.
2. APPLICATIONS LINÉAIRES 119

n
b) Montrons par récurrence sur n ∈ N∗ que si i=1 µi fλi = 0 (avec les λi distincts dans R ),
+

alors pour tout i, µi = 0. Pour n = 1 c'est évident.  Supposons maintenant le résultat vrai
jusqu'au rang n − 1 et montrons le au rang n. Si ni=1 µi fλi = 0 (∗), les (λi ) distincts dans
R+ , par double dérivation, on obtient ni=1 µi (−λ2i fλi ) = 0 (∗∗). En multipliant l'égalité (∗)

par λ2n et en l'ajoutant à (∗∗), on obtient n−1i=1 µi (λi − λn )fλi = 0, donc d'après l'hypothèse de
2 2

récurrence, pour tout 1 ≤ i ≤ n − 1, µi (λi − λn ) = 0. Les λi étant positifs et distincts. on en


2 2

déduit µi = 0 pour 1 ≤ i ≤ n − 1. Donc d'après (∗), µn fλn = 0, d'où µn = 0. Finalement on a


montré µi = 0 pour 1 ≤ i ≤ n.
c) Supposons la famille (fλ )λ∈R liée. Alors il existe λ0 ∈ R tel que fλ0 s'écrive comme une
combinaison linéaire des (fλ )λ=λ0 , autrement dit :
n

∃n ∈ N∗ , ∃λ1 , . . . , λn ∈ R  {λ0 }, ∃µ1 , . . . , µn ∈ R, f λ0 = µi fλi .
i=1
Or pour tout i ≥ 1, λi = λ0 donc fλi est dérivable
 au point λ0 (l'application x → |x − λ| est
dérivable partout sauf en λ), d'où on tire que ni=1 µi fλi est dérivable en λ0 , ce qui est absurde
car ceci égale fλ0 . D'où le résultat.
Remarque. On aurait pu résoudre le a) comme on l'a fait pour b). L'avantage de cette
dernière méthode est qu'elle aurait permit de conclure même si l'intervalle de dénition
des (fλ ) n'était pas R tout entier.

Exercice 3. Soit E un K-espace vectoriel de dimension nie, et A et B deux s.e.v de E


de même dimension r. Montrer que A et B admettent un supplémentaire commun ( i. e.
il existe un s.e.v S de E tel que A ⊕ S = B ⊕ S = E ).
Solution. Nous allons eectuer une récurrence descendante sur r ≤ dim E . Si r = dim E , c'est
évident car {0} est un supplémentaire commun à A et à B . Supposons le résultat vérié au rang
r + 1 ≤ dim E et démontrons le au rang r.
On a A ∪ B = E . En eet, supposons A ∪ B = E . Comme A ⊂ B (sinon E = A ∪ B = B ),
il existe x ∈ A tel que x ∈ B . De même, il existe y ∈ B , y ∈ A. Or x + y ∈ E = A ∪ B , donc
x + y ∈ A ou x + y ∈ B , par exemple x + y ∈ A. Alors y = (x + y) − x ∈ A, ce qui est absurde.
On a donc bien A ∪ B = E .
Donc il existe x ∈ E , x ∈ A ∪ B . Soit A = A + Vect(x), B  = B + Vect(x). On a dim A =
dim B  = r + 1, donc d'après l'hypothèse de récurrence, il existe un s.e.v S  de E tel que
A ⊕ S  = B  ⊕ S  = E . Si S = S  + Vect(x), on a donc E = A ⊕ S  = A ⊕ Vect(x) ⊕ S  = A ⊕ S
et E = B  ⊕ S  = B ⊕ Vect(x) ⊕ S  = B ⊕ S , d'où le résultat.

2. Applications linéaires
2.1. Généralités
Définition 1. Soient E et F deux K-e.v et f : E → F une application. On dit que f
est linéaire si
∀(x, y) ∈ E 2 , ∀(λ, µ) ∈ K2 , f (λx + µy) = λf (x) + µf (y).
L'ensemble des applications linéaires de E dans F est un K-e.v noté L(E, F ).

Exemple 1.  L'application ϕ : C([0, 1], R) → R f → 01 f (t) dt est linéaire.
 Si λ ∈ K, l'application ϕ : E → E x → λx est linéaire.
Remarque 1.  Une application linéaire de E dans K est appelée forme linéaire.
120 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS


Une application linéaire de E dans E est appelée endomorphisme.

Si f est linéaire, alors f (0) = 0.

La composée de deux applications linéaires est linéaire.

Si f : E → F est linéaire et bijective, on dit que f est un isomorphisme de K-e.v.
L'application f −1 : F → E est aussi linéaire.
 Si f ∈ L(E, F ), la linéarité de f entraîne que pour connaître (resp. pour dénir)
f , il sut de la connaître (resp. dénir) sur une base de E .
Proposition 1. L'image (ou l'image réciproque) d'un s.e.v par une application linéaire
est un s.e.v.
Définition 2. Soient E et F des K-e.v et f ∈ L(E, F ). On appelle noyau de f l'ensemble
noté Ker f = f −1 ({0}) = {x ∈ E | f (x) = 0}. On appelle image de f l'ensemble noté
Im f = f (E). Les ensembles Ker f et Im f sont des s.e.v. Par ailleurs, f est injective si et
seulement si Ker f = {0}.
Définition 3. Soient E et F des K-e.v et f ∈ L(E, F ). Si Im f est de dimension nie,
on dit que f est de rang ni, et l'entier dim(Im f ) est appelé rang de f , noté rg f .
2.2. Espaces vectoriels quotients
Définition 4. Soit E un K-e.v et F un s.e.v de E . La relation R dénie par (x R y ⇐⇒
x − y ∈ F ) est une relation d'équivalence sur E . L'espace quotient est noté E/F , et c'est
un K-e.v muni des lois x + y = x + y , λx = λx.
Définition 5. Soit E un K-e.v, F un s.e.v de E . Si E/F est de dimension nie, on dit
que F est de codimension nie dans E . On appelle alors codimension de F dans E l'entier
codimE F = dim(E/F ). Si codimE F = 1, on dit que F est un hyperplan de E .
Proposition 2. Soit E un K-e.v. Un s.e.v F de E est de codimension nie dans E si
et seulement si F admet un supplémentaire S dans E de dimension nie. On a alors
dim S = codimE F .
Démonstration. Condition nécessaire. Supposons E/F de dimension nie. Pour tout x ∈ E , on
note ẋ sa classe dans E/F . Soit(e˙1 , . . . , e˙n ) une base de E/F . Soit  S = Vect(ei )1≤i≤n . Alors
 F ∩ S = {0} car si x = ni=1 λi ei ∈ F ∩ S , alors ẋ = 0̇ = ni=1 λi e˙i et donc pour tout i,
λi = 0. 
 F + S = E . En eet, soit x ∈ E . Il existe λ1 , . . . , λn ∈ K tels que ẋ = ni=1 λi e˙i . Si
y = ni=1 λi ei , on a donc z = x − y ∈ F (car ż = ẋ − ẏ = 0̇) et x = z + y , y ∈ S .
Donc F ⊕ S = E , et dim S = n = dim(E/F ) = codimE F .
Condition susante. Supposons F ⊕ S = E , où S est de dimension nie n. Soit (e1 , . . . , en ) une
base de S . Nous montrons que (e˙1 , . . . , e˙n ) est une base de E/F .
 (e˙1 , . . . , e˙n ) est une famille génératrice de E/F . En eet, si x ∈ E , il existe y ∈ F et z ∈ S
tel que x = y + z et donc ẋ = ẏ + ż = ż ∈ Vect(  e˙1 , . . . , e˙n ). 
 (e˙1 , . . . , e˙n ) est une famille libre. En eet, si ni=1 λi e˙i = 0̇, alors ni=1 λi ei ∈ F donc est
nul car F ∩ S = {0}. Donc pour tout i, λi = 0.
Finalement, on a donc codimE F = dim(E/F ) = n = dim S . 
Corollaire 1. Si E est un K-e.v de dimension nie, si F est un s.e.v de E , alors F
est de codimension nie dans E et codimE F = dim E − dim F .
Factorisation d'une application linéaire.
Théorème 1. Soient E et F deux K-e.v et f ∈ L(E, F ). Alors Im f est isomorphe à
E/ Ker f .

 Théorème 2. Soit E un K-e.v de dimension nie, F un K-e.v et f ∈ L(E, F ). Alors f


est de rang ni et dim E = dim(Ker f ) + dim(Im f ) = dim(Ker f ) + rg f .
2. APPLICATIONS LINÉAIRES 121

Corollaire 2. Soit f ∈ L(E, F ) où E et F sont deux K-e.v de même dimension nie.


Alors :
(f est bijective) ⇐⇒ (f est injective) ⇐⇒ (f est surjective).
Remarque 2. Ce dernier résultat est très important. Il est faux en dimension innie ; par
exemple, f : R[X] → R[X] P → P  est linéaire surjective mais pas bijective.
2.3. Algèbre des endomorphismes
Les endomorphismes sont des applications linéaires très importantes. Ils vérient de
nombreuses propriétés et c'est pour cela qu'on les étudie plus particulièrement. Dans toute
la suite de cette section, E désigne un K-e.v.
On note L(E) = L(E, E). Muni de la loi ◦ de composition, L(E) est une K-algèbre
unitaire. On note G(E) l'ensemble des endomorphismes bijectifs (encore appelés auto-
morphismes) de E . Muni de la loi ◦ de composition, G(E) est un groupe appelé groupe
linéaire de E .
Définition 6. On dit que f ∈ L(E) est une homothétie de rapport λ ∈ K si f = λ IdE
(où IdE désigne l'application identité de E ).
Remarque 3. L'ensemble des homothéties de rapport non nul forme un sous-groupe de
G(E). On montre à l'exercice 6 page 124 que c'est le centre du groupe G(E).
Proposition 3. Soit f ∈ L(E). Alors f est une homothétie si et seulement si pour tout
x ∈ E , la famille (x, f (x)) est liée.
Démonstration. Condition nécessaire. C'est immédiat.
Condition susante. Par hypothèse, pour tout x ∈ E , il existe λx ∈ K tel que f (x) = λx · x.
Fixons x0 ∈ E , x0 = 0. Nous allons montrer que pour tout x ∈ E (x = 0), λx = λx0 .
 Si x ∈ Kx0 et x = 0, alors il existe µ ∈ K tel que x = µx0 . Donc λx x = f (x) = µf (x0 ) =
µλx0 x0 = λx0 (µx0 ) = λx0 x. On en conclut λx = λx0 .
 Sinon x et x0 forment une famille libre, et on a alors
λx+x0 (x + x0 ) = f (x + x0 ) = f (x) + f (x0 ) = λx x + λx0 x0 ,
donc comme (x, x0 ) est libre, λx0 +x = λx0 = λx , d'où le résultat.


Projecteurs et symétries.
Définition 7. Soient E1 et E2 deux s.e.v de E tels que E1 ⊕ E2 = E , de sorte que
∀x ∈ E, ∃!(x1 , x2 ) ∈ E1 × E2 tel que x = x1 + x2 .
L'application p : E → E x → x1 est linéaire et s'appelle projection sur E1 parallèlement
à E2 . On a Ker p = E2 , Im p = E1 et p ◦ p = p.

Définition 8. Un endomorphisme p ∈ L(E) est appelé projecteur si p ◦ p = p.


Proposition 4. Soit p ∈ L(E). Alors p est un projecteur si et seulement si p est la
projection sur Im p parallèlement à Ker p. On a alors E = Ker p ⊕ Im p.
Remarque 4. Si p est un projecteur, alors y ∈ Im p si et seulement si y = p(y).
Définition 9. Soient E1 et E2 deux s.e.v de E tels que E = E1 ⊕ E2 , de sorte que
∀x ∈ E, ∃!(x1 , x2 ) ∈ E1 × E2 tel que x = x1 + x2 .
L'application s : E → E x → x1 − x2 s'appelle symétrie par rapport à E1 parallèlement
à E2 . On a s ∈ L(E) et si p est la projection sur E1 parallèlement à E2 , s = 2p − IdE .
122 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS

Proposition 5. Supposons que la caractéristique du corps K soit diérente de 2. Alors


s ∈ L(E) est une symétrie si et seulement si s ◦ s = IdE . Si p = 12 (s + IdE ), p est un
projecteur et s est la symétrie par rapport à Im p parallèlement à Ker p.
Remarque 5. Si K est de caractéristique 2, on peut
  s = IdE sans que s soit une
avoir 2

1 1
symétrie (prendre par exemple s telle que [s] = ∈ M2 (Z/2Z)).
0 1
2.4. Exercices
Exercice 1. Soit E un K-e.v de dimension nie et F un K-e.v.
a) Soient f , g ∈ L(E, F ). Montrer les inégalités
| rg f − rg g| ≤ rg(f + g) ≤ rg f + rg g.
b) Soient deux endomorphismes f , g ∈ L(E) tels que f g = 0 et f + g est inversible.
Montrer que rg f + rg g = dim E .
Solution. a) Im(f + g) = (f + g)(E) ⊂ f (E) + g(E), donc
rg(f + g) = dim(Im(f + g)) ≤ dim[f (E) + g(E)] ≤ dim f (E) + dim g(E) = rg f + rg g.
Comme f = (f + g) + (−g) et que rg g = rg(−g), on a aussi rg f ≤ rg(f + g) + rg g . De
même, rg g ≤ rg(f + g) + rg f . On en déduit nalement que | rg f − rg g| ≤ rg(f + g).
b) Comme f + g est inversible, rg(f + g) = dim E , donc d'après a),
rg f + rg g ≥ rg(f + g) = dim E. (∗)
Comme f g = 0, on a Im g ⊂ Ker f , donc rg g ≤ dim(Ker f ) = dim E − rg f , c'est-à-dire
rg f + rg g ≤ dim E . Avec (∗), on en déduit le résultat.

Exercice 2. Soit E un K-e.v (où K est de caractéristique diérente de 2), et p, q ∈ L(E)


deux projecteurs.
a) Montrer que p + q est un projecteur si et seulement si p ◦ q = q ◦ p = 0.
b) Montrer que si p + q est un projecteur,
Im(p + q) = Im p ⊕ Im q et Ker(p + q) = Ker p ∩ Ker q.

Solution. a) Condition nécessaire. Comme p + q est un projecteur, on a (p + q)2 = p + q , c'est-à-


dire p2 + p ◦ q + q ◦ p + q 2 = p + q . Or p2 = p et q 2 = q , donc p ◦ q + q ◦ p = 0 (∗). En composant
(∗) par p à droite, on obtient p ◦ q ◦ p + q ◦ p2 = 0 = p ◦ q ◦ p + q ◦ p. En composant (∗) par p à
gauche, on obtient p2 ◦ q + p ◦ q ◦ p = 0 = p ◦ q + p ◦ q ◦ p. On en déduit p ◦ q = q ◦ p, et d'après
(∗), K étant de caractéristique diérente de 2, p ◦ q = q ◦ p = 0.
Condition susante. C'est immédiat car (p + q)2 = p2 + p ◦ q + q ◦ p + q 2 = p2 + q 2 = p + q .
b) Montrons que Im(p + q) = Im p ⊕ Im q.
- On a déjà Im p ∩ Im q = {0}. En eet. Soit y ∈ Im p ∩ Im q . Il existe x et x ∈ E tels
que y = p(x) = q(x ). Donc p(y) = p2 (x) = p ◦ q(x ) = 0 d'après la question précédente. Or
p2 (x) = p(x) = y , donc y = 0.
- Il nous reste à montrer que Im(p + q) = Im p + Im q . L'inclusion Im(p + q) ⊂ Im p + Im q est
immédiate. Montrons l'inclusion réciproque. Soit y ∈ Im p + Im q , de sorte qu'il existe x et x ∈ E
tels que y = p(x)+q(x ). On a alors (p+q)(y) = p2 (x)+qp(x)+q 2 (x )+pq(x ) = p(x)+q(x ) = y ,
donc y = (p + q)(y) ∈ Im(p + q), d'où le résultat.
Montrons maintenant que Ker(p + q) = Ker p ∩ Ker q . L'inclusion Ker p ∩ Ker q ⊂ Ker(p + q)
est immédiate. Montrons l'inclusion réciproque. Soit x ∈ Ker(p + q). Comme p(x) + q(x) = 0, on
a, en composant par p à droite p2 (x) + q ◦ p(x) = 0 d'où p(x) = 0. De même, en composant par
q à droite, on obtient p ◦ q(x) + q 2 (x) = 0 = q(x). Donc x ∈ Ker p ∩ Ker q .
2. APPLICATIONS LINÉAIRES 123

Exercice 3. Soit E un K-e.v de dimension nie, soit f ∈ L(E). Montrer l'équivalence


(E = Im f ⊕ Ker f ) ⇐⇒ (Im f = Im f 2 ).
Cette équivalence reste-t-elle vraie en dimension innie ?
Solution. Condition nécessaire. On a f (E) ⊂ E donc f 2 (E) = f [f (E)] ⊂ f (E), c'est-à-dire
Im f 2 ⊂ Im f . Montrons maintenant Im f ⊂ Im f 2 . Soit y = f (x) ∈ Im f . Il existe (x1 , x2 ) ∈
Im f × Ker f tel que x = x1 + x2 , donc y = f (x) = f (x1 ) ∈ Im f 2 .
Condition susante. Soit x ∈ E . On a f (x) ∈ Im f = Im f 2 donc il existe x ∈ E tel que
f (x) = f 2 (x ). Donc f [x − f (x )] = 0, d'où y = x − f (x ) ∈ Ker f . Si z = f (x ) ∈ Im f , on a donc
x = y + z avec y ∈ Ker f et z ∈ Im f . Autrement dit, on vient de montrer E = Im f + Ker f .
Comme de plus dim(Im f ) + dim(Ker f ) = dim E , on en déduit E = Im f ⊕ Ker f (voir le
corollaire 1 page 118).
En dimension innie, ce résultat est faux. Par exemple, si f ∈ L(R[X]) est dénie par
f (P ) = P  , on a Im f 2 = R[X] = Im f et pourtant Im f et Ker f ne sont pas en somme directe
(Im f = R[X] et Ker f = {0}).

Exercice 4. Soit E un K-e.v (de dimension quelconque), F et G deux s.e.v de E tels que
(i) G ⊂ F et (ii) F et G sont de même codimension nie dans E . Montrer que F = G.
Solution. Pour tout x ∈ E , on note x sa classe dans E/G, ẋ sa classe dans E/F . Si x = y , alors
ẋ = ẏ (car x − y = 0 donc x − y ∈ G donc x − y ∈ F , c'est-à-dire ẋ = ẏ ).
Considérons l'application f : E/G → E/F x → ẋ. Elle est linéaire et surjective donc bijec-
tive car E/G et E/F sont des K-e.v de même dimension nie (voir le corollaire 2). L'application
f est donc injective, de sorte que si x ∈ F , ẋ = 0̇ alors x = 0, i. e. x ∈ G. En d'autres termes,
F ⊂ G. Comme G ⊂ F par hypothèse, on a F = G.

Exercice 5 (Suites exactes). a) Soient E0 , E1 , . . . , En des K-e.v de dimension nie ;


on note αk = dim Ek . On suppose qu'il existe n applications linéaires f0 , f1 , . . . , fn−1 telles
que pour tout k , fk ∈ L(Ek , Ek+1 ), et vériant
(i) f0 est injective,
(ii) ∀k , 1 ≤ k ≤ n − 1, Im fk−1 = Ker fk ,
(iii) fn−1 est surjective.

(On dit que (f0 , . . . , fn−1 ) constitue une suite exacte.) Montrer que nk=0 (−1)k αk = 0.
b) (Application). Soit E un K-e.v, F et G deux s.e.v de E de codimension nie dans E .
Montrer que F + G et F ∩ G sont de codimension nie dans E et que
codimE (F + G) = codimE F + codimE G − codimE (F ∩ G).

Solution. a) L'assertion (ii) entraîne dim(Ker fk ) = rg fk−1 pour 1 ≤ k ≤ n − 1, donc


∀k, 1 ≤ k ≤ n − 1, αk = dim(Ker fk ) + rg fk = rg fk−1 + rg fk .
Or α0 = rg f0 car f0 est injective, et αn = rg fn−1 car fn−1 est surjective. On en déduit
n

(−1)k αk = (rg f0 ) − (rg f0 + rg f1 ) + · · · + (−1)n−1 (rg fn−2 + rg fn−1 ) + (−1)n rg fn−1 = 0.
k=0

b) Pour tout x ∈ E , on note ẋ sa classe dans E/(F ∩ G), x dans E/F , x dans E/G et x̃ dans
E/(F + G). Dénissons
f : E/(F ∩ G) → E/F × E/G ẋ → (x, x
)
124 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS

et
g : E/F × E/G → E/(F + G) (x, y) → (x
− y).
Nous allons montrer que (f, g) constitue une suite exacte.
 f est bien une application, car si ẋ = ẏ , alors x − y ∈ F ∩ G donc x = y (car x − y ∈ F )
et x = y (car x − y ∈ G).
 g est aussi une application, car si (x, y) = (x , y ), on a x − x ∈ F et y − y  ∈ G, donc
− y = x
(x − x ) − (y − y  ) = (x − y) − (x − y  ) ∈ F + G, c'est-à-dire x  − y.

 Il est clair que f et g sont linéaires.


 f est injective, car si (x, x) = (0, 0), x ∈ F et x ∈ G donc x ∈ F ∩ G, c'est-à-dire ẋ = 0̇.
Comme E/F × E/G est de dimension nie (car E/F et E/G le sont), l'injectivité de
f permet d'armer que F ∩ G est de codimension nie (en eet, si E/(F ∩ G) était de
dimension innie, on pourrait trouver dans E/(F ∩ G) une famille libre contenant plus
d'éléments que la dimension de E/F × E/G, absurde car l'image de cette famille libre
par f injective est aussi une famille libre).
 g est surjective car si z̃ ∈ E/(F + G), z̃ = g(z, 0). Donc E/F × E/G étant de dimension
nie, E/(F + G) = g(E/F × E/G) est de dimension nie.
 Im f = Ker g . En eet, on a déjà Im f ⊂ Ker g car g(f (ẋ)) = g(x, x) = x −x =  0. On
a également Ker g ⊂ Im f car si (x, y) ∈ Ker g , x − y ∈ F + G donc il existe x1 ∈ F et
y1 ∈ G tels que x − y = x1 − y1 . Donc x − x1 = y − y1 = u, d'où x = u et y = u , donc
(x, y) = f (u̇) ∈ Im f .
On est donc dans les conditions d'application de a), ce qui nous donne
dim(E/(F ∩ G)) − dim(E/F × E/G) + dim(E/(F + G)) = 0,
d'où le résultat car dim(E/F × E/G) = dim(E/F ) + dim(E/G).

Exercice 6 (Centre du groupe linéaire). Soit E un K-e.v de dimension nie. Quel


est le centre du groupe linéaire G(E) (i. e. l'ensemble des f ∈ G(E) tels que ∀g ∈ G(E),
f g = gf ) ?

Solution. Nous allons montrer le résultat suivant. Si f ∈ L(E) commute avec tous les éléments
de G(E), alors f est une homothétie. En particulier, le centre de G(E) est {λ IdE | λ ∈ K∗ }.
Soit f ∈ L(E) tel que ∀g ∈ G(E), gf = f g . Supposons que f ne soit pas une homothétie.
D'après la proposition 3 page 121, il existe u ∈ E , u = 0, tel que la famille (u, f (u)) forme une
famille libre. Complétons là en une base (u, f (u), e3 , . . . , en ) de E . Dénissons g ∈ L(E) sur cette
base comme suit
g(u) = u, g(f (u)) = u + f (u), ∀i ≥ 3, g(ei ) = ei .
On a g ∈ G(E) car g transforme une base de E en une base de E . Or g ◦ f (u) = u + f (u) et
f ◦ g(u) = f (u), donc f ◦ g = g ◦ f car u = 0. Finalement, f est une homothétie.

Exercice 7. Soit E un K-e.v de dimension nie n. Soit f ∈ L(E). On suppose qu'il


existe x0 ∈ E tel que B = (f (x0 ), f 2 (x0 ), . . . , f n (x0 )) forme une base de E .
a) Montrer que f est bijective.
b) Montrer qu'il existe (a0 , . . . , an−1 ) ∈ Kn tel que f n + an−1 f n−1 + · · · + a1 f + a0 IdE = 0
(sans utiliser, bien sûr, le théorème de Cayley-Hamilton).
Solution. a) Soit y ∈ E . Comme (f (x0 ), . . . , f n (x0 )) est une base de E , il existe (λi )1≤i≤n ∈ Kn
tels que y = λ1 f (x0 )+· · ·+λn f n (x0 ), donc y = f [λ1 x0 +λ2 f (x0 )+· · ·+λn f n−1 (x0 )] ∈ Im f , et ceci
pour tout y ∈ E . L'application f est donc surjective, donc bijective car c'est un endomorphisme
en dimension nie.
3. MATRICES 125

b) Comme B forme une base de E , il existe λ1 , . . . , λn ∈ K tels que f n+1 (x0 ) = λn f n (x0 ) + · · · +
λ1 f (x0 ). Posons g = f n+1 − λn f n − · · · − λ1 f . On a g(x0 ) = 0. Or
∀i, 1 ≤ i ≤ n, g[f i (x0 )] = f n+i+1 (x0 ) − λn f n+i (x0 ) − · · · − λ1 f i+1 (x0 ) = f i [g(x0 )] = 0,
autrement dit g s'annule sur la base B , donc g = 0. En composant g à gauche par f −1 , on obtient
f n − λn f n−1 − · · · − λ1 IdE = 0.

3. Matrices
3.1. Généralités
Définition 1. Soient p et q ∈ N∗ . On appelle matrice de type (p, q) ou matrice à p lignes
et q colonnes à coecients dans K, toute famille (ai,j ) 1≤i≤p avec pour tout (i, j), ai,j ∈ K.
1≤j≤q
On note cette matrice de la manière suivante
q colonnes
   
 a1,1 a1,2 · · · a1,q

 a2,1 a2,2 · · · a2,q 
p lignes  . .. . . . .


 .. . . .. 

ap,1 ap,2 · · · ap,q
Définition 2. L'ensemble des matrices de type (p, q) à coecients dans K est noté
Mp,q (K).
 (Cas q = 1). Un élément de Mp,1 (K) s'appelle une matrice colonne.
 (Cas p = 1). Un élément de M1,q (K) s'appelle une matrice ligne.
 (Cas p = q ). Les éléments de Mp,p (K) s'appellent des matrices carrées. On note
Mp (K) = Mp,p (K), appelé ensemble des matrices carrées d' ordre (ou de taille) p.
Définition 3. Soit A = (ai,j ) 1≤j≤q
1≤i≤p ∈ Mp,q (K). On appelle matrice transposée de A et on

note A la matrice B = (bi,j ) 1≤i≤q ∈ Mq,p (K) avec bi,j = aj,i .


t
1≤j≤p

Remarque 1.  La représentation sous forme de tableau de la matrice tA est le sy-


métrique de celle de A par rapport à la diagonale constituée des coecients ai,i .
 Pour toute matrice A, t( tA) = A.
Définition 4 (Définitions relatives aux matrices carrées). Soit n ∈ N∗ et une
matrice A = (ai,j ) 1≤i≤n ∈ Mn (K).
1≤j≤n
 Les (ai,i )1≤i≤n s'appellent les éléments diagonaux de A.
 La diagonale principale de A est l'ensemble de ses éléments diagonaux. 
... ...
 Si ai,j = 0 pour i > j , A est dite triangulaire (ou trigonale) supérieure ... .
 0 
...
 Si ai,j = 0 pour i < j , A est dite triangulaire (ou trigonale) inférieure . . 0 .
.. ..
 Si ai,j = 0 pour i = j , A est dite diagonale.
 S'il existe λ ∈ K tel que pour tout i, ai,i = λ et pour tout i = j , ai,j = 0, on dit
que A est une matrice scalaire.
 Si pour tout (i, j), ai,j = aj,i (de manière équivalente si tA = A), A est dite
symétrique.
 Si pour tout (i, j), ai,j = −aj,i (de manière équivalente si tA = −A), A est dite
antisymétrique. Dans ce cas, si K est de caractéristique diérente de 2, les éléments
diagonaux de A sont nuls.
126 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS

3.2. Matrices et applications linéaires


Soient E et F deux K-e.v de dimension nie, dim E = q ∈ N∗ , dim F = p ∈ N∗ .
Soit B = (e1 , . . . , eq ) une base de E , B  = (e1 , . . .
, ep ) une base de F . Soit f ∈ L(E, F ).
Pour tout j , 1 ≤ j ≤ q , on peut écrire f (ej ) = pi=1 ai,j ei où les ai,j ∈ K. La matrice
A = (ai,j ) 1≤i≤p est appelée matrice de f dans les bases B et B  et notée [f ]B B . Il revient


1≤j≤q

au même de dire que les vecteurs colonnes de la matrice [f ]BB sont les coordonnées dans


la base B  des images par f des vecteurs composant la base B .


On munit Mp,q (K) des opérations suivantes :
 Si A = (ai,j ) 1≤i≤p et B = (bi,j ) 1≤i≤p , on dénit A + B = (ai,j + bi,j ) 1≤i≤p .
1≤j≤q 1≤j≤q 1≤j≤q
 Si A = (ai,j ) 1≤i≤p et λ ∈ K, on dénit λA = (λai,j ) 1≤i≤p .
1≤j≤q 1≤j≤q
Muni de ces opérations, Mp,q (K) est un K-e.v. Si pour tout (i, j), 1 ≤ i ≤ p, 1 ≤ j ≤ q ,
Ei,j désigne la matrice dont tous les éléments sont nuls sauf celui d'indice (i, j) qui vaut 1,
les Ei,j (1 ≤ i ≤ p, 1 ≤ j ≤ q ) forment une base de Mp,q (K) appelée base canonique de
Mp,q (K). Ceci entraîne en particulier le résultat suivant.
Proposition 1. Le K-e.v Mp,q (K) est de dimension nie pq .
Fixons deux bases B de E et B  de F . L'application

Φ : L(E, F ) → Mp,q (K) f → [f ]B
B
est un isomorphisme de K-e.v. En particulier, dim(L(E, F )) = dim(Mp,q (K)) = pq =
(dim E) · (dim F ).
Multiplication de matrices.
Définition 5. Soient p, q, r ∈ N∗ et A = (ai,j ) 1≤i≤p ∈ Mp,q (K), B = (bi,j ) 1≤i≤q ∈
1≤j≤q  1≤j≤r
Mq,r (K). On dénit la matrice C = (ci,j ) 1≤i≤p ∈ Mp,r (K) par ci,j = qk=1 ai,k bk,j . La
1≤j≤r
matrice C est appelée produit des matrices A et B et on note C = AB .
Remarque 2.  Attention, le produit de A par B ne peut être réalisé que si le nombre
de lignes de B est égal au nombre de colonnes de A.
 Le produit de matrices est associatif (mais pas commutatif) et distributif par rap-
port à l'addition.
 Soit f ∈ L(E, F ), B une base de E , B  une base de F . Soit x ∈ E et y = f (x).
On note X la matrice colonne dont les éléments sont les coordonnées de x dans la
base B , Y la matrice colonne dont les éléments sont les coordonnées de y = f (x)
dans la base B  . On a alors Y = [f ]BB X , au sens du produit de matrices déni plus


haut.
Proposition 2. Soient E , F et G des K-e.v de dimensions nies. Soit B une base
de E , B une base de F et B  une base de G. Si f ∈ L(F, G) et g ∈ L(E, F ), on a

 B  B
B = [f ]B  [g]B .
[f g]B
Remarque 3. (Produit par blocs). Si M ∈ Mp,q (K) et M  ∈ Mq,r (K),
r q−r
     
A B A B  }r lignes
M= , M =
C D C  D }q−r lignes
alors  
AA + BC  AB  + BD

MM = .
CA + DC  CB  + DD
Tout se passe comme si on multipliait deux matrices 2 × 2, en prenant garde à l'ordre
dans les produits (il n'y a pas commutativité).
3. MATRICES 127

3.3. Matrices carrées


Soit n ∈ N∗ . Le K-e.v Mn (K) = Mn,n (K), muni de la loi produit sur les matrices, est
un anneau (c'est même une K-algèbre) unitaire (l'élément unité est la matrice identité,
notée In , qui est une matrice scalaire dont les coecients diagonaux sont égaux à 1). Cet
anneau est non commutatif et non intègre dès que n ≥ 2.
L'ensemble des éléments inversibles de l'anneau Mn (K) est un groupe appelé groupe
linéaire d'indice n et noté Gn (K).
Soit E un K-e.v de dimension nie n ∈ N∗ , B une base de E . Si f ∈ L(E), on note
B et on l'appelle matrice de f dans la base B . L'application Φ : L(E) →
[f ]B = [f ]B
Mn (K) f → [f ]B est un isomorphisme d'algèbre. Ceci entraîne que A ∈ Mn (K) est
inversible si et seulement s'il existe f ∈ L(E), inversible, tel que [f ]B = A. D'où le
corollaire suivant :
(A ∈ Mn (K) est inversible) ⇐⇒ (∃B ∈ Mn (K), AB = In )
⇐⇒ (∃B ∈ Mn (K), BA = In ) et B = A−1 .
3.4. Changement de base
Soit E un K-e.v de dimension nie n ∈ N∗ , B = (e1 , . .. , en ) et B  = (e1 , . . . , en ) deux
bases de E . Pour tout j , 1 ≤ j ≤ n, on peut écrire ej = ni=1 pi,j ei avec les pi,j ∈ K. La
matrice P = (pi,j ) 1≤i≤n (dont les colonnes sont les coordonnées des vecteurs de B  dans la
1≤j≤n
base B ) s'appelle matrice de passage de B à B  . La matrice P est inversible. Si x ∈ E , si
X (resp. X  ) désigne le vecteur colonne dont les éléments sont les coordonnées de x dans
la base B (resp. dans la base B  ), alors on a X = P X  .
Remarque 4. Attention à l'erreur courante qui consisterait à écrire X  = P X .
Proposition 3. Soient E et F deux K-e.v de dimensions nies respectivement égales à
p et q . Soient B0 et B0 deux bases de E , P la matrice de passage de B0 à B0 , B1 et B1
deux bases de F , Q la matrice de passage de B1 à B1 . Soit f ∈ L(E, F ). Si A = [f ]B B0 ,
1

B
A = [f ]B1 , on a A = Q−1 AP .
0

Définition 6. Soient A, B ∈ Mp,q (K). On dit que A et B sont équivalentes s'il existe
P ∈ Gq (K) et Q ∈ Gp (K) telles que B = QAP . La relation est équivalente à est une
relation d'équivalence.
Remarque 5. On a vu un peu plus haut que les matrices d'une même application f ∈
L(E, F ) dans des bases diérentes sont équivalentes.
Proposition 4. Soit E un K-e.v de dimension nie n ∈ N∗ , B et B  deux bases de E ,
P la matrice de passage de B à B  . Soit f ∈ L(E). Si A = [f ]B et A = [f ]B  , alors
A = P −1 AP .
Définition 7. Deux matrices A et B ∈ Mn (K) sont dites semblables s'il existe P ∈
Gn (K) tel que B = P −1
AP . La relation de similitude est une relation d'équivalence.
3.5. Propriétés des transposées
Proposition 5.  Si A, B ∈ Mp,q (K), t(A + B) = tA + tB .
 Si A ∈ Mp,q (K) et λ ∈ K, t(λA) = λ tA.
 Si A ∈ Mp,q (K) et B ∈ Mq,r (K), t(AB) = tB tA.
 Soit A ∈ Mn (K). On a A ∈ Gn (K) si et seulement si tA ∈ Gn (K) et dans ce cas,
t
( tA)−1 = (A−1 ).
Remarque 6. La transposition inverse l'ordre dans les produits de matrices. Cette re-
marque peut parfois être utile dans les exercices.
128 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS

3.6. Rang d'une matrice


Définition 8. Soit A ∈ Mp,q (K). On appelle rang de A le rang de ses vecteurs colonnes
dans Kp , et on le note rg A. Si A est la matrice d'une application linéaire f , on a rg A =
rg f .
Remarque 7.  Si A ∈ Mp,q (K), alors rg A ≤ inf{p, q}.
 Si A ∈ Mn (K), alors A est inversible si et seulement si rg A = n.
 Théorème 1. Soit A ∈ Mp,q (K). Si r = rg A ≥ 1, A est équivalente à la matrice

Ir 0
Jr = .
0 0
Corollaire 1. Deux matrices A et B ∈ Mp,q (K) sont équivalentes si et seulement si
rg A = rg B .
Définition 9. Soit A = (ai,j ) 1≤i≤p
1≤j≤q
∈ Mp,q (K), et soient deux sous-ensembles non vides
I ⊂ {1, . . . , p} et J ⊂ {1, . . . , q}. La matrice B = (ai,j ) i∈I s'appelle matrice extraite de
j∈J
A, A s'appelle une matrice bordante de B .
Théorème 2. Soit A ∈ Mp,q (K). Le rang de A est le plus grand des ordres des matrices
carrées inversibles extraites de A.
Corollaire 2. Le rang de toute matrice est égal au rang de sa transposée.
Remarque 8. En d'autres termes, le corollaire précédent dit que le rang des vecteurs
colonnes d'une matrice est égal au rang de ses vecteurs ligne.
 Dans la pratique, pour trouver le rang d'une matrice, on utilise le résultat suivant : on
ne change pas le rang d'une matrice en multipliant une colonne par un scalaire non nul,
ou en ajoutant a une colonne une combinaison linéaire des autres colonnes (même chose
sur les lignes). Par exemple, en opérant sur les lignes,
   
2 1 3 −3 2 1 3 −3
rg  −1 2 1 4  = rg  0 3 3 3 
1 1 2 −1 1 1 2 −1
   
2 1 3 −3 2 1 3 −3
= rg  0 1 1 1  = rg  0 1 1 1  = 2.
2 2 4 −2 0 1 1 1
3.7. Trace d'un endomorphisme
Définition 10. Soit A = (ai,j )1≤i,j≤n ∈ Mn (K). On appelle trace de A le scalaire tr A =
 n
i=1 ai,i . L'application A → tr A est une forme linéaire.
Proposition 6.  Si A et B ∈ Mn (K), tr(AB) = tr(BA).
 Si A ∈ Mn (K), tr A = tr( tA).
 Si A et B ∈ Mn (K) sont semblables, alors tr A = tr B .
Remarque 9. La trace d'un produit de deux matrices ne dépend pas de l'ordre dans lequel
on les multiplie, mais ceci n'est pas vrai lorsque le produit a trois termes ou plus. On peut
écrire tr(ABC) = tr(CAB) = tr(BCA), mais en général on a tr(ABC) = tr(ACB).
La dernière assertion de la proposition précédente permet la dénition suivante.
Définition 11. Soit E un K-e.v de dimension nie, B une base de E et f ∈ L(E). Alors
la trace de la matrice [f ]B ne dépend pas de la base B choisie. Cette valeur s'appelle la
trace de f et est notée tr f .
3. MATRICES 129

Proposition 7. Soit E un K-e.v de dimension nie, p ∈ L(E) un projecteur. Alors


tr p = (rg p)1K (où 1K désigne l'élément unité de K). En particulier, si K = R ou K = C
alors tr p = rg p.
Démonstration. Comme p est un projecteur, Im p ⊕ Ker p = E . Soit r = rg p, (e1 , . . . , er ) une
base de Im p et (er+1 , . . . , en ) une base de  p. Alors B = (e1 , . . . , en ) est une base de E et la
 Ker
matrice de p dans cette base est [p]B = I0r 00 , donc tr p = (rg p)1K . 

3.8. Exercices
Exercice 1 (Matrices diagonalement dominantes). On considère une matrice
A = (ai,j )1≤i,j≤n ∈ Mn (C) vériant

∀i, 1 ≤ i ≤ n, |ai,j | < |ai,i |.
1≤j≤n
j=i

Montrer que A est inversible.


Solution. Il s'agit de montrer que rg A = n, c'est-à-dire que les n vecteurs colonnes de A forment
une famille libre. Pour cela, raisonnons par l'absurde en supposant ces n vecteurs liés, ce qui
s'écrit
n

∃λ1 , . . . , λn ∈ C tels que ∀i ∈ {1, . . . , n}, λj ai,j = 0,
j=1

les λi étant non tous nuls. Soit k tel que |λk | = sup1≤j≤n |λj |. Alors λk = 0 et
n
  λj  |λj | 
λj ak,j = 0 donc ak,k = − ak,j , d'où |ak,k | ≤ |ak,j | ≤ |ak,j |,
λk |λk |
j=1 1≤j≤n 1≤j≤n 1≤j≤n
j=k j=k j=k

ce qui est contraire aux hypothèses.

Exercice 2. Soit n ∈ N∗ et soit la matrice


 
1 1 1 ··· 1
 0 C11 C21 · · · Cn1 
 . 
.
M =  .. . . C22 · · · Cn2
 
 ∈ Mn+1 (R).
 . . . . . . . .. 
 .. . 
0 · · · · · · 0 Cnn

Montrer que M est inversible et calculer M −1 .


Solution. On note Rn [X] = {P ∈ R[X] | deg(P ) ≤ n}. Soit l'endomorphisme f : Rn [X] →
Rn [X] P (X) → P (X + 1). La famille B = (1, X, . . . , X n ) est une base de Rn [X], et on voit
facilement que M est la matrice de f dans la base B . Or f est inversible, son inverse étant
g : P (X) → P (X − 1). Donc M est inversible, et
 
1 −1 1 ··· (−1)n
 0 C11 −C21 · · · (−1)n−1 Cn1 
 . . 
M −1 = [f −1 ]B = [g]B =  .. . . C 2 · · · (−1)n−2 C 2 

2 n .
 . ... ... .. 
 .. . 
0 ··· ··· 0 Cnn
130 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS

Exercice 3. Soient A et B ∈ Mn (K) telles que AB = A + B . Montrer que A et B


commutent (i. e. montrer que AB = BA).
Solution. Comme AB = A + B , on a In − A − B + AB = In donc (In − A)(In − B) = In . Donc
In − A est inversible, son inverse est (In − B), donc (In − B)(In − A) = In , ce qui en développant
donne BA = B + A = A + B .

Exercice 4. a) On considère la matrice


 
0 m1,2 · · · m1,n
 .. ... .. 
 . 0 . 
M = .. ...  ∈ Mn (R).
 . mn−1,n 
0 ··· ··· 0
Montrer (sansutiliser le théorème
 de Cayley-Hamilton) que M est nilpotente.
3 1 0
b) Soit M =  0 3 2  ∈ M3 (R). Pour tout entier p ≥ 1, calculer M p .
0 0 3

Solution. a) Soit (e1 , . . . , en ) la base canonique de Rn (ei est le vecteur colonne dont tous les
éléments sont nuls sauf le i-ième qui vaut 1). La forme de la matrice M montre que
i−1

M e1 = 0 et ∀i ≥ 2, M ei = mk,i ek ∈ Vect(e1 , . . . , ei−1 ).
k=1
Montrons par récurrence sur p ∈ {1, . . . , n} que pour tout i, 1 ≤ i ≤ p, on a M p ei = 0. Pour
p = 1 c'est vrai car M e1 = 0. Supposons le résultat vrai au rang p − 1, montrons le au rang p.
Si 1 ≤ i ≤ p − 1, l'égalité M p−1 ei = 0 entraîne M p ei = 0, et si i = p :
 p−1  p−1
 
p p−1 p−1
M ep = M (M ep ) = M mk,p ek = mk,p (M p−1 ek ) = 0.
k=1 k=1
- En particulier, le résultat est vrai pour p = n ce qui entraîne que M n s'annule sur tous les
vecteurs de la base canonique de Rn , donc est nul.
 
0 1 0
b) On écrit M = 3I3 + N où N =  0 0 2 . D'après la question précédente, N 3 = 0.
0 0 0
Comme I3 et N commutent, on peut écrire
p  
p p(p − 1) p−2 2
∀p ∈ N∗ , M p = N k (3I3 )p−k = 3p I3 + p3p−1 N + 3 N .
k 2
k=0
     
0 1 0 0 0 2 9 3p p(p − 1)
Comme N =  0 0 2  et N 2 =  0 0 0 , ceci donne M p = 3p−2  0 9 6p .
0 0 0 0 0 0 0 0 9
Remarque. Au a), une étude plus poussée aurait permis de montrer que la matrice M p a
tout ses coecients nuls en dehors de la partie triangulaire supérieure des n − p premières
lignes et n − p dernières colonnes. Autrement dit,
 
× ··· × 
 . . . ..  n−p lignes
∀p, 1 ≤ p ≤ n − 1, on a M p =  .  .
 (0) × 
} p lignes
3. MATRICES 131

Exercice 5. Quelles sont les matrices A ∈ Mn (K) telles que A2 = 0 ?

Solution. Soit f l'endomorphisme de Kn dont A est la matrice dans la base canonique de Kn . On


a f 2 = 0, donc Im f ⊂ Ker f . Soit r = rg f . Si r = 0, on a f = 0. Sinon r ≥ 1. Soit (e1 , . . . , er )
une base de Im f . Comme Im f ⊂ Ker f , on peut compléter cette base en une base (e1 , . . . , en−r )
de Ker f (au passage, on remarque que r ≤ n − r donc r ≤ n/2). Pour 1 ≤ i ≤ r, ei ∈ Im f donc
il existe ui ∈ Kn tel que f (ui ) = ei .
Montrons que B = (e1 , . . . , en−r , u1 , . . . , ur ) est une base de Kn . Il sut de montrer que c'est
une famille libre (il y a n éléments). Supposons (λ1 e1 + · · · + λn−r en−r ) + (µ1 u1 + · · · + µr ur ) = 0
où les λi , µj ∈ K. En composant par f , on trouve µ1 e1 + · · · + µr er = 0, donc ∀i, µi = 0. Donc
λ1 e1 + · · · + λn−r en−r =0, et donc ∀i, λi = 0. B est donc bien une base de K . Dans cette base,
n

0 Ir
f a pour matrice Mr = , avec r ≤ n/2, et A est donc semblable à M .
0 0
Réciproquement, si Au0 ou si A est semblable à Mr avec r ≤ n/2, alors A2 = 0. Les matrices
recherchées sont donc celles semblables à Mr avec r ≤ n/2 et la matrice nulle.

Exercice 6. Soit M ∈ Mn (R) une matrice de trace nulle.


a) Montrer que M est semblable à une matrice n'ayant que des 0 sur la diagonale princi-
pale.
b) Montrer qu'il existe X et Y ∈ Mn (R) tels que M = XY − Y X .

Solution. a) On va montrer ce résultat par récurrence sur n ∈ N∗ . Pour n = 1 c'est évident car
M = (tr M ) = (0). Supposons le résultat vérié au rang n − 1 et montrons le au rang n. Soit
f l'endomorphisme de Rn dont M est la matrice dans la base canonique de Rn . Si ∀x ∈ Rn ,
la famille (x, f (x)) est liée, alors f est une homothétie (voir la proposition 3 de la partie 2.3),
c'est-à-dire qu'il existe λ ∈ R tel que f = λ IdE . Or nλ = tr f = tr M = 0 donc λ = 0 et donc
f = 0, ce qui entraîne que la matrice M est nulle.
Sinon, il existe x ∈ Rn tel que la famille (x, f (x)) soit libre. Complétons cette famille en une
base B = (x, f (x), e3 , . . . , en ) de Rn . Dans cette base, on a
 
0 × ··· ×
 1 
 
N = [f ]B =  0 N .
 
..
.

Or 0 = tr f = tr N = tr N  donc d'après l'hypothèse de récurrence, ilexiste Q ∈ G n−1 (R) telle


1 0 ··· 0
 0 
que Q−1 N  Q n'ait que des zéros sur la diagonale principale. Si P = 
 ..

 ∈ G n (R),
 . Q 
0
on a donc
       
1 0 ··· 0 1 0 ··· 0 0 × ··· × 0 × ··· ×
 0   0   ×   ... .. 
       × 0 . 
P −1 N P =  .  N  .. = . = .. ... ... .
 .. Q−1   . Q   .. Q−1 N  Q   . × 
0 0 × × ··· × 0

La matrice M , semblable à N , est donc semblable à cette dernière matrice, d'où le résultat.
132 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS

b) D'après a), il existe P ∈ Gn (R) telle que M = P −1 N P où N est une matrice n'ayant que
des zéros sur la diagonale principale. Notons bi,j les coecients de la matrice N . Fixons
 
α1 0 ··· 0
 ... .. 
 0 α2 . 
X= .. ... ...  ∈ Mn (R), avec αi = αj si i = j.
 . 0 
0 ··· 0 αn
Si Y = (ai,j )1≤i,j≤n ∈ Mn (R), un calcul rapide montre que XY − Y X = (αi ai,j − αj ai,j )1≤i,j≤n .
En choisissant ai,i = 0 pour tout i, et ai,j = bi,j /(αi − αj ) si i = j , on voit que XY − Y X = N ,
donc M = (P −1 XP )(P −1 Y P ) − (P −1 Y P )(P −1 XP ).

Exercice 7. Soit E un R-e.v de dimension nie n ∈ N∗ . Soient p1 , . . . , pk ∈ L(E) des


projecteurs. Montrer que p = p1 + · · · + pk est un projecteur si et seulement si pi ◦ pj = 0
pour tout (i, j) tel que i = j .
Solution. Condition susante. Il sut de remarquer que

p2 = p21 + · · · + p2k + pi ◦ pj = p21 + · · · + p2k = p1 + · · · + pk = p.
i=j

Condition nécessaire. D'après la proposition 7, le rang d'un projecteur égale sa trace, donc
k
 k

rg p = tr p = tr pi = rg pi .
i=1 i=1

On a aussi
Im p = (p1 + · · · + pk )(E) ⊂ p1 (E) + · · · + pk (E) = Im p1 + · · · + Im pk .
Ces deux dernières assertions permettent de conclure que
Im p = Im p1 ⊕ · · · ⊕ Im pk . (∗)
Ceci étant, xons i, 1 ≤ i ≤ k. D'après (∗), si x ∈ E , pi (x) ∈ Im p donc
pi (x) = p(pi (x)) = p1 ◦ pi (x) + · · · + pi ◦ pi (x) + · · · + pk ◦ pi (x).

Comme pi ◦ pi (x) = pi (x),  on en déduit j=i pj ◦ pi (x) = 0. Or pour tout j , pj ◦ pi (x) ∈ Im pj
donc d'après (∗), l'écriture j=i pj ◦ pi (x) = 0 entraîne ∀j = i, pj ◦ pi (x) = 0. Ceci est vrai pour
tout x ∈ E , donc si j = i, pj ◦ pi = 0, d'où le résultat.

4. Dualité
Dans toute cette partie, E désigne un K-espace vectoriel.
4.1. Généralités
Définition 1. On appelle forme linéaire sur E toute application linéaire de E dans K.
L'ensemble L(E, K) des formes linéaires sur E est aussi noté E ∗ . C'est un K-e.v appelé
espace dual de E .
Notation. Si x ∈ E et ϕ ∈ E ∗ , on note parfois ϕ(x) = ϕ, x.

Définition 2. On appelle bidual de E l'espace dual de E ∗ , noté E ∗∗ .


4. DUALITÉ 133

4.2. Étude du dual en dimension nie


Dans cette sous-partie, sauf mention contraire, E est de dimension nie n ∈ N∗ .
Définition 3. Soit B = (e1 , . . . , en ) une base de E . Pour tout i, 1 ≤ i ≤ n, la forme
linéaire e∗i dénie sur B par e∗i (ej ) = 0 si j = i, e∗i (ei ) = 1, s'appelle forme linéaire
coordonnée d'indice i.
Remarque 1. Si E est de dimension innie et (ei )i∈I une base de E , on dénit de même
les formes linéaires coordonnées e∗i pour i ∈ I .
Théorème 1. Soit B = (e1 , . . . , en ) une base de E . Alors B ∗ = (e∗1 , . . . , e∗n ) est une
de E appelée base duale de B , et donc dim E ∗ = dim E . Pour tout ϕ ∈ E ∗ , on a
base  ∗

ϕ = ni=1 ϕ(ei ) e∗i .


Démonstration. La famille B ∗ est libre, car l'égalité λ1 e∗1 + · · · + λn e∗n = 0 appliquée aux vecteurs
e1 , . . . , en de E donne λ1 = · · · = λn = 0.
La famille B ∗ est génératrice. En eet, si ϕ ∈ E ∗ , alors pour tout x ∈ E , x = λ1 e1 +· · ·+λn en ,
on a
n
 n

ϕ(x) = λi ϕ(ei ) = e∗i (x) ϕ(ei ),
i=1 i=1
n
et ceci étant vrai pour tout x ∈ E , on a ϕ = i=1 ϕ(ei ) ei .
∗ 

Remarque 2. Si E est de dimension innie et (ei )i∈I une base de E , (e∗i )i∈I est une famille
libre de E ∗ mais non génératrice.
Bidual en dimension nie.
Théorème 2. Si x ∈ E , on note x̃ : E ∗ → K ϕ → ϕ(x). On a x̃ ∈ E ∗∗ et l'application
f : E→E ∗∗
x → x̃ est un isomorphisme.
Démonstration. On vérie facilement que x̃ est linéaire (i. e. que x̃ ∈ E ∗∗ ), ainsi que f .
Prouvons que f est injective. Soit x ∈ Ker f . Si x = 0, on peut compléter x en une base
(x, e2 , . . . , en ) de E . On a alors x∗ (x) = 1, autrement dit x̃(x∗ ) = 0, donc x̃ = 0. Donc Ker f =
{0}.
D'après le théorème 1, dim E ∗∗ = dim E ∗ = dim E . Ainsi f est bijective, et c'est donc un
isomorphisme. 

Remarque 3.  Cet isomorphisme est canonique ( i. e. il ne dépend pas du choix d'une


base). On convient alors d'identier E et E ∗∗ en identiant x à x̃ pour x ∈ E .
 En dimension innie, f : x → x̃ est injective mais pas surjective.
Base antéduale.
Proposition 1. Soit (f1 , . . . , fn ) une base de E ∗ . Il existe une unique base (e1 , . . . , en )
de E telle que pour tout i, e∗i = fi . Cette base s'appelle base antéduale de (f1 , . . . , fn ).
Démonstration. Existence. D'après le théorème 2, pour tout i, il existe ei ∈ E tel que fi∗ = e˜i .
Donc pour tout j = i, fi∗ (fj ) = 0 = e˜i (fj ) = fj (ei ) et fi∗ (fi ) = 1 = fi (ei ). En résumé, fi (ej ) = 0
si j = i et fi (ei ) = 1. On voit donc que pour tout i, fi = e∗i .
Unicité. Soit (e1 , . . . , en ) une base de E telle que pour tout i, e∗i = fi . Si j = i, e∗i (ej ) = fi (ej ) =
0 = e˜j (fi ) et pour tout i, e∗i (ei ) = fi (ei ) = 1 = e˜i (fi ). En résumé, on a montré que e˜i (fj ) = 0 si
j = i, = 1 si j = i. Autrement dit, e˜i = fi∗ . D'après le théorème 2, il existe un unique vecteur ei
de E vériant e˜i = fi∗ ; les ei sont donc uniques, d'où le théorème. 

Remarque 4. Nous verrons dans la partie 4.5 (page 136) des moyens de calcul de la base
antéduale.
134 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS

4.3. Orthogonalité
Définition 4. Des éléments x ∈ E et ϕ ∈ E ∗ sont dit orthogonaux si ϕ(x) = ϕ, x = 0.
 Si A ⊂ E , on note A⊥ = {ϕ ∈ E ∗ | ∀x ∈ A, ϕ(x) = 0}. L'ensemble A⊥ est un s.e.v
de E ∗ appelé orthogonal de A.
 Si B ⊂ E ∗ , on note B ◦ = {x ∈ E | ∀ϕ ∈ B, ϕ(x) = 0}. L'ensemble B ◦ est un s.e.v
de E appelé orthogonal de B .
Remarque 5. Si ϕ ∈ E ∗ , alors {ϕ}◦ est le noyau de ϕ.
La proposition qui suit se prouve facilement.
Proposition 2.  Si A1 ⊂ A2 ⊂ E , alors A⊥
2 ⊂ A1 .

 Si B1 ⊂ B2 ⊂ E , alors B2 ⊂ B1 .
∗ ◦ ◦

 Si A ⊂ E , alors A⊥ = (Vect A)⊥ .


 Si B ⊂ E ∗ , alors B ◦ = (Vect B)◦ .
Orthogonalité en dimension nie.
Théorème 3. Soit E un K-e.v de dimension nie. Alors :
(i) Si F est un s.e.v de E , dim F + dim F ⊥ = dim E et F ⊥◦ = F .
(ii) Si G est un s.e.v de E ∗ , dim G + dim G◦ = dim E et G◦⊥ = G.
Démonstration. (i) Soit r = dim F et (e1 , . . . , er ) une base de F , que nous complétons en une
base (e1 , . . . , en ) de E . On a F =Vect(e1 , . . . , er ) donc d'après la proposition précédente, F ⊥ =
{e1 , . . . , er }⊥ . Soit ϕ ∈ E ∗ , ϕ = ni=1 λi e∗i . Alors
(ϕ ∈ {e1 , . . . , er }⊥ ) ⇐⇒ (∀i ∈ {1, . . . , r}, 0 = ϕ(ei ) = λi ).
Ainsi, ϕ ∈ si et seulement si ϕ ∈
F⊥ d'où la première égalité de (i).
Vect(e∗r+1 , . . . , e∗n )
Maintenant, toujours d'après la proposition précédente, on a F ⊥◦ = {e∗r+1 , . . . , e∗n }◦ . Donc
n

(x = αi ei ∈ F ⊥◦ ) ⇐⇒ (∀i ∈ {r + 1, . . . , n}, 0 = e∗i (x) = αi ),
i=1

ce qui prouve F ⊥◦ = Vect(e1 , . . . , er ) = F .


(ii) Soit r = dim G, (f1 , . . . , fr ) une base de G, complétée en une base (f1 , . . . , fn ) de E ∗ .
Soit (e1 , . . . , en ) une base antéduale de cette dernière, de sorte que ∀i, fi = e∗i . On a G =
Vect(e∗1 , . . . , e∗r ) et en procédant comme plus haut, on trouve G◦ = Vect(er+1 , . . . , en ) et G◦⊥ =
Vect(e∗1 , . . . , e∗r ) = G. 
Consequence. En dimension nie, un sous-espace est égal à l'espace tout entier si et seule-
ment si son orthogonal est nul.
Remarque 6. L'égalité F ⊥◦ = F reste vraie en dimension innie. Par contre l'égalité
B = B ◦⊥ est fausse en dimension innie. Prenons par exemple E = R[X] et B le s.e.v de
E ∗ engendré par les formes linéaires ϕn : P → P (n) (0) (n ∈ N). Si P ∈ B ◦ , alors pour tout
n ∈ N, P (n) (0) = 0 donc d'après la formule de Taylor, P = 0. Autrement dit, B ◦ = {0},
donc B ◦⊥ = {0}⊥ = E ∗ . On a donc B = B ◦⊥ = E ∗ (par exemple, ϕ : P → P (1) est
dans E ∗ et on vérie facilement que ϕ ∈ B ). Cependant l'inclusion B ⊂ B ◦⊥ est vraie en
dimension innie.
En traduisant le théorème précédent en termes d'équations, on obtient le corollaire
suivant.
Corollaire 1 (Équations d'un s.e.v en dimension finie). Soit E un K.e.v de
dimension nie n.
 Soient p formes linéaires ϕ1 , . . . , ϕp de E ∗ telles que rg(ϕ1 , . . . , ϕp ) = r. Le s.e.v
F = {x ∈ E | ∀i, ϕi (x) = 0} est de dimension n − r.
4. DUALITÉ 135

 Réciproquement, si F est un s.e.v de E de dimension q , il existe n − q formes


linéaires linéairement indépendantes ϕ1 , . . . , ϕn−q telles que F = {x ∈ E | ∀i, 1 ≤
i ≤ n − q, ϕi (x) = 0}.
Proposition 3. Soit E un K-e.v de dimension nie et A1 et A2 deux s.e.v de E . Alors
(i) (A1 + A2 )⊥ = A⊥ ⊥
1 ∩ A2 (ii) (A1 ∩ A2 )⊥ = A⊥ ⊥
1 + A2 .
Soient B1 et B2 deux s.e.v de E ∗ . Alors
(iii) (B1 + B2 )◦ = B1◦ ∩ B2◦ (iv) (B1 ∩ B2 )◦ = B1◦ + B2◦ .
La preuve est simple. Pour montrer chaque assertion, on montre une inclusion triviale
puis l'égalité des dimensions grâce au théorème 3.
Orthogonalité et hyperplans.
Proposition 4. Soit ϕ ∈ E ∗ une forme linéaire non nulle. Alors Ker ϕ est un hyperplan
de E . Réciproquement, tout hyperplan de E est le noyau d'une forme linéaire non nulle.
Démonstration. Soit ϕ ∈ E ∗ , ϕ = 0. On sait que E/ Ker ϕ est isomorphe à Im ϕ = K, donc de
dimension 1, ce qui n'est autre que de dire que Ker ϕ est un hyperplan de E .
Réciproquement, soit H un hyperplan de E . D'après la proposition 2 page 120, il existe un
s.e.v S = Kx0 de E de dimension 1 tel que H ⊕ S = E . Si maintenant on dénit ϕ ∈ E ∗ par
ϕ(x) = 0 si x ∈ H et ϕ(λx0 ) = λ sur S , on voit que Ker ϕ = H . 
Proposition 5. Soit H un hyperplan de E . L'ensemble H ⊥ des formes linéaires sur E
qui s'annulent sur H est une droite de E ∗ .
Démonstration. D'après la proposition précédente, il existe ϕ0 ∈ E ∗ tel que Ker ϕ0 = H . Mainte-
nant, soit ϕ ∈ E ∗ une forme linéaire qui s'annule sur H . Soit x0 ∈ E tel que H ⊕ Kx0 = E . On a
ϕ0 (x0 ) = 0 (sinon ϕ0 s'annule sur H et sur Kx0 donc sur E , ce qui est absurde car Ker ϕ0 = H ).
Posons λ = ϕ(x0 )/ϕ0 (x0 ) et ψ = ϕ − λϕ0 . Comme ϕ et ϕ0 s'annulent sur H , ψ s'annule sur
H . Or par construction de λ, ψ(x0 ) = 0. L'application ψ s'annule donc aussi sur Kx0 , donc
sur E tout entier, et donc ϕ = λϕ0 ∈ Vect(ϕ0 ). Réciproquement, on vérie facilement que si
ϕ ∈ Vect(ϕ0 ), alors ϕ s'annule sur H . 
Remarque 7. On peut montrer de manière plus générale que si F est un s.e.v de E de
codimension nie, alors F ⊥ est un s.e.v de E ∗ de dimension codimE F .
4.4. Applications transposées
Définition 5. Soient E et F deux K-e.v de dimension quelconque. Soit u ∈ L(E, F ).
Pour tout f ∈ F ∗ , on a f ◦ u ∈ E ∗ . L'application linéaire F ∗ → E ∗ f → f ◦ u est appelée
application transposée de u et notée tu.
Proposition 6. Soient E et F deux K-e.v. Si E et F sont de dimension nie, on a
(i) rg u = rg( tu) (ii) Im( tu) = (Ker u)⊥ ,
et en dimension quelconque
(iii) Ker( tu) = (Im u)⊥ .
Démonstration. (i) est démontré dans l'étude des problèmes matriciels (voir partie 4.5 page 136).
(ii) Soit g ∈ Im( tu). Il existe f ∈ F ∗ tel que g = f ◦ u, donc pour tout x ∈ Ker u, g(x) = 0, et
donc g ∈ (Ker u)⊥ . On vient donc de montrer que Im( tu) ⊂ (Ker u)⊥ . Or dim(Im tu) = rg tu =
rg u = dim E − dim(Ker u) = dim(Ker u)⊥ , d'où (ii).
(iii) Il sut de remarquer que
ϕ ∈ Ker tu ⇐⇒ ϕ ◦ u = 0 ⇐⇒ Im u ⊂ Ker ϕ ⇐⇒ ϕ ∈ (Im u)⊥ .

136 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS

Proposition 7. Soient E, F, G trois K-e.v, u ∈ L(E, F ) et v ∈ L(F, G). Alors t(v ◦ u) =


t
u ◦ tv .
Démonstration. Il sut d'écrire que si g ∈ G∗ , g ◦ (v ◦ u) = (g ◦ v) ◦ u = tu(g ◦ v) = tu ◦ [ tv(g)]. 

Proposition 8. Supposons E de dimension nie. Soit u ∈ L(E). Un s.e.v F de E est


stable par u si et seulement si F ⊥ est stable par t u.
Démonstration. Condition nécessaire. On a u(F ) ⊂ F donc pour tout ϕ ∈ F ⊥ , comme ϕ(F ) =
{0} on a ϕ ◦ u(F ) = {0}. Autrement dit, si ϕ ∈ F ⊥ on a t u(ϕ) ∈ F ⊥ . Finalement, F ⊥ est stable
par t u.
Condition susante. D'après le corollaire 1, il existe r formes linéaires ϕ1 , . . . , ϕr telles que F =
∩ri=1 Ker ϕi . En particulier, pour tout i, F ⊂ Ker ϕi c'est-à-dire que ϕi ∈ F ⊥ . Maintenant, comme
F ⊥ est stable par t u, on a t u(ϕi ) = ϕi ◦ u ∈ F ⊥ pour tout i, donc ϕi ◦ u(F ) = ϕi [u(F )] = {0}.
Autrement dit, pour tout i, u(F ) ⊂ Ker ϕi et donc u(F ) ⊂ ∩ri=1 Ker ϕi = F , d'où la condition
susante. 

 Remarque 8.
 Ce résultat reste vrai en dimension innie mais sa démonstration fait appel à
l'axiome du choix.
 Cette proposition peut être très utile dans certains raisonnements par récurrence
en dimension nie n relatifs aux réductions d'endomorphismes. En eet, si x ∈ E ∗
est un vecteur propre de t u, alors Kx est stable par t u et donc (Kx)◦ , hyperplan
de E , est stable par u (appliquer la proposition à F = (Kx)◦ ). Le tour est joué,
on est ramené en dimension n − 1 (on trouve des raisonnements de ce type dans la
démonstration du théorème de trigonalisation par exemple).

4.5. Problèmes matriciels


Applications transposées. Soient E et F deux K-e.v de dimension nie, soit p = dim E
et q = dim F . Soit u ∈ L(E, F ), B une base de E et B  une base de F . Soit f ∈ F ∗ ,
B  sa matrice dans la base B . Si g = f ◦ u et (β1 , . . . , βp ) = [g]B , on a
(α1 , . . . , αq ) = [f ]K  K


(β1 , . . . , βp ) = (α1 , . . . , αq )[u]B
B

donc en transposant ces matrices,


   
β1 α1
 ...  = [u]B  ...  .
t B

βp αq
De la dénition d'une application transposée, on vérie facilement que ceci équivaut à
∗
dire [ tu]BB ∗ = t[u]BB , où B ∗ et B  ∗ sont les bases duales de B et B  . En d'autres termes, la


matrice dans les bases duales de B et B  de t u est la transposée de la matrice de u dans


les bases B et B  .
On déduit de ce résultat que rg tu = rg u, résultat annoncé dans la proposition 6.
Changement de base dans le dual. Soit E un K-e.v de dimension nie n. Soit B =
(e1 , . . . , en ) une base de E , B ∗ = (e∗1 , . . . , e∗n ) sa base duale. On se pose le problème
suivant : quelle est dans la base B ∗ les coordonnées de la base duale B  ∗ d'une nouvelle
base B  = (ε1 , . . . , εn ) de E ?
Soit C la matrice de passage de la base B à la base B  . Soit f ∈ E ∗ , (α1 , . . . , αn )
sa matrice dans la base B ∗ , (β1 , . . . , βn ) sa matrice dans la base B  ∗ . Soit x ∈ E , X sa
matrice (colonne) dans la base B , Y sa matrice dans la base B  . On a X = CY , et
f (x) = (α1 , . . . , αn )X = (β1 , . . . , βn )Y donc (α1 , . . . , αn )CY = (β1 , . . . , βn )Y,
4. DUALITÉ 137

et ceci pour tout Y donc (β1 , . . . , βn ) = (α1 , . . . , αn )C . En d'autres termes,


       
β1 α1 α1 β1
 ...  = tC  ...  ou encore  ...  = ( tC)−1  ...  .
βn αn αn βn
La matrice de passage de B ∗ à B  ∗ est donc t C −1 où C est la matrice de passage de B à
B.
4.6. Exercices
Exercice 1. Soit E un K-e.v, ϕ1 , . . . , ϕp ∈ E ∗ et ϕ : E → Kp dénie par ϕ =
(ϕ1 , . . . , ϕp ). Montrer que ϕ est surjective si et seulement si ϕ1 , . . . , ϕp sont linéairement
indépendantes.
Solution. Condition nécessaire. Supposons λ1 ϕ1 + · · · + λp ϕp = 0 (∗) avec les λi ∈ K. Comme
ϕ est surjective, si on xe i, 1 ≤ i ≤ p, il existe x ∈ E tel que ϕi (x) = 1 et pour tout j = i,
ϕj (x) = 0. Appliqué à (∗), ceci entraîne λi = 0, et ceci pour tout i, d'où la condition nécessaire.
Condition susante. Soit (e1 , . . . , ep ) la base canonique de Kp , (e∗1 , . . . , e∗p ) sa base duale. Soit ψ ∈
(Im ϕ)⊥ . Écrivons ψ = λ1 e∗1 +· · ·+λp e∗p . Pour tout x ∈ E , ψ(ϕ(x)) = 0 = λ1 ϕ1 (x)+· · ·+λp ϕp (x),
donc λ1 ϕ1 + · · · + λp ϕp = 0, ce qui entraîne λ1 = · · · = λp = 0, donc ψ = 0. Autrement dit, on a
montré (Im ϕ)⊥ = {0}, donc Im ϕ = Kp , c'est-à-dire que ϕ est surjective.

Exercice 2. Soit E un R-e.v de dimension 3, (e1 , e2 , e3 ) une base de E . Soit f1∗ , f2∗ , f3∗ ∈
E ∗ dénis par
f1∗ = 2e∗1 + e∗2 + e∗3 , f2∗ = −e∗1 + 2e∗3 , f3∗ = e∗1 + 3e∗2 .
Montrer que (f1∗ , f2∗ , f3∗ ) est une base de E ∗ et calculer la base (f1 , f2 , f3 ) (en l'exprimant
dans la base (e1 , e2 , e3 )) de E dont elle est la duale.
Solution. Les colonnes de la matrice
 
2 −1 1
M = 1 0 3 
1 2 0
sont les coordonnées des fi∗ dans la base (e∗1 , e∗2 , e∗3 ). Pour montrer que (f1∗ , f2∗ , f3∗ ) est une base
de E ∗ , il faut montrer que le rang de la matrice M est égal à 3. Des opérations élémentaires sur
les colonnes donnent
   
2 −5 1 2 −5 − 13
2
rg M = rg  1 −2 3  = rg  1 −2 0 =3
1 0 0 1 0 0
(on vérie en eet facilement que cette dernière matrice est inversible), (f1∗ , f2∗ , f3∗ ) est donc bien
une base de E ∗ .
On a vu (voir la partie 4.5) que la matrice M de passage de (e∗1 , e∗2 , e∗3 ) à (f1∗ , f2∗ , f3∗ ) est
t C −1 , C étant la matrice de passage de (e , e , e ) à (f , f , f ). Donc M = tC −1 , ce qui entraîne
1 2 3 1 2 3
C = tM −1 = ( tM )−1 . On calcule facilement ( tM −1 ) (inverser le système Y = tM X en un
système donnant X en fonction de Y ). On trouve
 
6 −3 −2
1 
C = tM −1 = −2 1 5 .
13 3 5 −1
Les coordonnées de f1 , f2 , f3 dans la base (e1 , e2 , e3 ) sont les vecteurs colonnes de C = tM −1 .
138 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS

Exercice 3 (Formes linéaires de Mn (K)). a) Soit f ∈ Mn (K)∗ une forme linéaire


sur Mn (K). Montrer qu'il existe A ∈ Mn (K) telle que pour tout X ∈ Mn (K), f (X) =
tr(AX).
b) Déterminer les éléments f ∈ Mn (K)∗ tels que pour tout X, Y ∈ Mn (K), f (XY ) =
f (Y X).

Solution. a) Si A ∈ Mn (K), on note fA la forme linéaire sur Mn (K) dénie par fA (X) = tr(AX).
Soit ϕ : Mn (K) → Mn (K)∗ A → fA . C'est une application linéaire. Nous allons montrer que
ϕ est bijective, ce qui prouvera le résultat. Soit A = (ai,j )1≤i,j≤n ∈ Ker ϕ. Alors pour tout (i, j),
tr(AEi,j ) = aj,i = 0 (Ei,j désignant la matrice de Mn (K) dont tous les coecients sont nuls
sauf celui d'indice (i, j) qui vaut 1), et donc A = 0. Donc Ker ϕ = {0}, et ϕ est donc injective.
Comme de plus dim(Mn (K)∗ ) = dim(Mn (K)), ϕ est bijective, d'où le résultat.
b) Soit f une telle forme linéaire. D'après la question précédente, il existe A = (ai,j )1≤i,j≤n ∈
Mn (K) telle que f = fA , et on a pour tout X, Y ∈ Mn (K), f (XY ) = tr(AXY ) = f (Y X) =
tr(AY X).
En particulier, pour tout (i, j, k) avec i = k on a tr(AEi,j Ej,k ) = tr(AEj,k Ei,j ) (∗). Or
Ei,j Ej,k = Ei,k et Ej,k Ei,j = 0 car k = i, donc (∗) s'écrit aussi tr(AEi,k ) = 0, c'est-à-dire
ak,i = 0. Ceci étant vrai dès que i = k , on en déduit que A est une matrice diagonale.
Maintenant pour tout (i, j) on a tr(AEi,j Ej,i ) = tr(AEj,i Ei,j ), c'est-à-dire tr(AEi,i ) =
tr(AEj,j ), donc ai,i = aj,j et ceci pour tout (i, j). Ainsi, A est une matrice scalaire, donc il
existe λ ∈ K tel que f = λ tr. Réciproquement toute forme linéaire de cette forme répond au
problème posé.

Exercice 4. On note Rn [X] l'espace vectoriel {P ∈ R[X] | deg(P ) ≤ n}. Soit


 1
P (t) dt
ϕ : Rn [X] → R P → 2
.
−1 1 + t

a) Soient x0 , . . . , xn n + 1 nombres réels distincts deux


 à deux. Démontrer qu'il existe
λ0 , . . . , λn ∈ R tels que pour tout P ∈ Rn [X], ϕ(P ) = ni=0 λi P (xi ). Donner une méthode
pratique de calcul des λi .
b) On suppose n impair. Démontrer qu'il existe n réels x1 , . . . , xn et λ1 , . . . , λn ∈ R tels
que
n

∀P ∈ Rn [X], ϕ(P ) = λi P (xi ).
i=1

Solution. a) L'application ϕ est une forme linéaire sur Rn [X]. Par ailleurs, on a dim(Rn [X]∗ ) =
dim(Rn [X]) = n + 1 (une base de Rn [X] est (1, X, . . . , X n )).
Ceci étant, pour tout i, 0 ≤ i ≤ n, on dénit la forme linéaire ϕi sur Rn [X]par ϕi (P ) = P (xi ).
Nous allons montrer que les (ϕi )0≤i≤n forment une famille libre. Supposons ni=0 µi ϕi = 0 (∗).
Pour tout k dénissons Pk = 0≤i≤n (X − xi ) ∈ Rn [X]. On a ϕi (Pk ) = 0 si k = i, et donc
i=k 
en appliquant la relation (∗) à Pk , on trouve µk i=k (xk − xi ) = 0. Les xi étant distincts, ceci
entraîne µk = 0, et ceci pour tout k.
Les (ϕi )0≤i≤n forment donc une famille libre de n + 1 éléments de Rn [X]∗ . Comme Rn [X]∗
est de dimension n + 1, on  en déduit que c'est une base de Rn [X]∗ . En particulier, il existe
λ0 , . . . , λn ∈ R tels que ϕ = ni=0 λi ϕi , et donc
n
 n

∀P ∈ Rn [X], ϕ(P ) = λi ϕi (P ) = λi P (xi ).
i=0 i=0
4. DUALITÉ 139

Donnons maintenant une méthode pratique de calcul de λk . Comme pour tout i = k, Pi (xk ) =
0, on trouve en appliquant la relation précédente à Pk que
ϕ(Pk )
λk Pk (xk ) = ϕ(Pk ), donc λk =  . (∗∗)
i=k (xk − xi )

b) Il s'agit en fait de choisir les (xi )0≤i≤n de sorte que le coecient λ0 de P (x0 ) soit nul. D'après
(∗∗), ceci sera vérié si
 1
P0 (t)
ϕ(P0 ) = dt = 0,
−1 1 + t2
ce qui sera le cas si l'intégrande est une fonction impaire. Pour cela, notons k l'entier tel que
n = 2k + 1 et xons des nombres réels 0 < a1 < . . . < ak . Si 1 ≤ i ≤ k , on pose x2i−1 = ai et
x2i = −ai , et x2k+1 = 0, de sorte que
2k+1
 k

P0 (X) = (X − xi ) = X (X 2 − a2k ).
i=1 i=1

On s'aperçoit que t → P0 (t)



est une application impaire ; il en est donc de même de l'application
1
P0 (t) P0 (t)
t → , et donc λ0 = dt = 0, d'où le résultat. (Remarquons que l'on peut choisir
1 + t2 −1 + t
1 2
x0 comme l'on veut pourvu qu'il soit diérent des xi déjà choisis pour 1 ≤ i ≤ n).
Remarque. Dans cadre de l'étude des polynômes orthogonaux(voir le sujet d'étude 3
page 110), on montre qu'il existe une identité du type ϕ(P ) = ni=1 λi P (xi ) (avec les xi
et λi bien choisis) valable pour tout polynôme de degré < 2n.

Exercice 5. Soit E un R-e.v de dimension nie n ∈ N∗ .


1/ Soit (e1 , . . . , en ) une famille de vecteurs
 de E , (ϕ1 , . . . , ϕn ) une famille de formes
linéaires sur E . Soit f : E → E x → ϕi (x)ei . On a f ∈ L(E). Montrer que
n
i=1
rg f + n ≥ rg{e1 , . . . , en } + rg{ϕ1 , . . . , ϕn }. Peut-on remplacer n par une constante plus
petite ?
2/ a) Soit ϕ1 , . . . , ϕr r formes linéaires sur E indépendantes
 et e1 , . . . , er r vecteurs de E
indépendants. Soit f ∈ L(E) déni par f (x) = ri=1 ϕi (x)ei . Quel est le rang de f ?
b) Soit u ∈ L(E), rg u = q ≥ 1 et (e1 , . . . , eq ) une base de Imu. Montrer qu'il existe q
formes linéaires ϕ1 , . . . , ϕq telles que pour tout x ∈ E , u(x) = qi=1 ϕi (x)ei . Que dire de
la famille (ϕ1 , . . . , ϕq ) ?
c) Montrer que tout endomorphisme est la somme de deux automorphismes.
Solution. 1/ Soit p = rg{e1 , . . . , en } et q = rg{ϕ1 , . . . , ϕn }. Soit u ∈ L(E,  R ) dénie par
n

u(x) = (ϕ1 (x), . . . , ϕn (x)) et soit v ∈ L(Rn , E) dénie par v(x1 , . . . , xn ) = ni=1 xi ei , de sorte
que f = v ◦ u.
D'après le théorème 3 page 134, Ker u = {x ∈ E | ∀i, ϕi (x) = 0} est de dimension n − q ,
donc rg u = n − dim(Ker u) = q . On a Im v = Vect{e1 , . . . , en } donc rg v = p.
Ceci étant, on a Im(v ◦ u) = v(Im u). Soit F = Im u ∩ Ker v et S un supplémentaire de F
dans Im u de sorte que Im u = F ⊕ S . Comme S ∩ Ker v = {0}, la restriction de v à S est injective
donc v(Im u) = v(F ) + v(S) = v(S) est de dimension dim S . On en déduit rg(v ◦ u) = dim S . Or
F ⊂ Ker v donc dim F ≤ dim(Ker v) = n − rg v , donc
rg f = rg(v ◦ u) = dim S = rg u − dim F ≥ rg u + rg v − n = p + q − n,
d'où le résultat. On ne peut pas remplacer n par une constante plus petite (prendre tous les ϕi
nuls et (e1 , . . . , en ) une base de E ).
Remarque : On a montré le résultat général suivant : pour tout (u, v), rg(v ◦ u) ≥ rg u + rg v − n.
140 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS

r
2/ a) On a x ∈ Ker f ⇐⇒ i=1 ϕi (x)ei = 0, et comme les ei sont indépendants, ceci entraîne
Ker f = {x ∈ E | ∀i, ϕi (x) = 0} = (Vect{ϕ1 , . . . , ϕr })◦ . Les ϕi étant linéairement indépendants,
on a donc dim(Ker f ) = n − dim(Vect{ϕ1 , . . . , ϕr }) = n − r, d'où rg f = n − dim(Ker f ) = r.
b)Pour tout i, 1 ≤ i ≤ q, 
il existe εi E tel que u(εi ) = ei . La famille (εi )1≤i≤q est libre car

si i λi εi = 0, alors 0 = u( i λi εi ) = i λi ei donc pour tout i, λi = 0. Soit (εq+1 , . . . , εn ) une
base de Ker u. Si 1 ≤ i ≤ q , εi ∈
 Ker u, on en déduit que (ε1 , . . . , εn ) est une base de E . On
remarque maintenant que
n
 n
 q

∀x = x i εi , u(x) = xi u(εi ) = ε∗i (x)ei .
i=1 i=1 i=1
On obtient donc le résultat en prenant ϕi = ε∗i pour 1 ≤ i ≤ q . Il est clair que (ϕ1 , . . . , ϕq ) forme
une famille libre.
c) Soit u ∈ L(E). D'après la question précédente, si (e1 ,  . . . , eq ) est une base de Im u, il existe q
formes linéaires indépendantes ϕ1 , . . . , ϕq telles que u = qi=1 ϕi · ei . Complétons (e1 , . . . , eq ) en
une base (e1 , . . . , en ) de E , et (ϕ1 , . . . , ϕq ) en une base (ϕ1 , . . . , ϕn ) de E ∗ . On pose
q n q n
1  1 
u1 = ϕi · e i + ϕi · e i et u2 = ϕi · e i − ϕi · e i .
2 2
i=1 i=q+1 i=1 i=q+1

D'après 2/a), rg u1 = rg u2 = n. Or u = u1 + u2 . On peut donc écrire u comme somme de deux


automorphismes.

5. Formes multilinéaires, déterminants


Dans toute cette partie, E désigne un K-e.v.
5.1. Formes multilinéaires
Définition 1. Soient des K-e.v E1 , . . . , Ep et F . Une application
f : E1 × · · · × Ep → F (x1 , . . . , xp ) → f (x1 , . . . , xp )
est dite p-linéaire si en tout point les p applications partielles sont linéaires. Si p = 2,
f est dite bilinéaire. L'ensemble de ces applications est noté L(E1 , . . . , Ep , F ). C'est un
K-e.v. Si E1 = · · · = Ep = E et F = K, on parle de forme p-linéaire sur E , et l'ensemble
des formes p-linéaires sur E est noté Lp (E, K).
Exemple 1.  L'application E ∗ × E → K (ϕ, x) → ϕ(x) = ϕ, x est une forme
bilinéaire.
 Si ϕ1 , . . . , ϕp ∈ E ∗ , l'application E p → K (x1 , . . . , xp ) → ϕ1 (x1 ) · · · ϕp (xp ) est une
forme p-linéaire sur E .
Proposition 1. dim Lp (E, K) = (dim E)p .
Définition 2. Soit f ∈ Lp (E, K).
 f est dite alternée si f (x1 , . . . , xp ) = 0 dès que deux vecteurs parmi les xi sont
égaux.
 f est dite antisymétrique si l'échange de deux vecteurs dans la suite (x1 , . . . , xp )
donne à f des valeurs opposées.
Remarque 1. On montre facilement que f est antisymétrique si et seulement si pour tout
σ ∈ Sp (groupe des permutations de {1, . . . , p}) et pour tout (x1 , . . . , xp ) ∈ E p , on a
f (xσ(1) , . . . , xσ(p) ) = ε(σ)f (x1 , . . . , xp ),
ε(σ) étant la signature de σ .
5. FORMES MULTILINÉAIRES, DÉTERMINANTS 141

Théorème 1. Soient K un corps commutatif de caractéristique diérente de 2, E un


K-e.v et f ∈ Lp (E, K). Alors f est antisymétrique si et seulement si f est alternée.
Proposition 2. Soit E un K-e.v, f ∈ Lp (E, K) alternée. Si (x1 , . . . , xp ) est un système
lié, alors f (x1 , . . . , xp ) = 0.
Corollaire 1. Soit f une forme p-linéaire alternée sur E . On ne change pas la valeur
de f (x1 , . . . , xp ) en ajoutant à un des vecteurs xi une combinaison linéaire des autres
vecteurs.

Définition 3 (Antisymétrisation d'une forme p-linéaire). Pour toute forme


p-linéaire f ∈ Lp (E, K), on note

f  : E p → K (x1 , . . . , xp ) → ε(σ)f (xσ(1) , . . . , xσ(p) ).
σ∈Sp

Ainsi construite, f  est une forme p-linéaire alternée.

5.2. Déterminants
Dorénavant, E est de dimension nie n ∈ N∗ .
Théorème 2. L'ensemble des formes n-linéaires alternées sur un K-e.v E de dimension
n est un K-e.v de dimension 1. De plus, il existe une et une seule forme n-linéaire alternée
prenant la valeur 1 sur une base donnée de E .
Démonstration. Soit B = (e1 , . . . , en ) une base de E .  On dénit d ∈ Ln (E, K) par d(x1 , . . . , xn ) =
e∗1 (x1 ) · · · e∗n (xn ), de sorte que si pour tout i, xi = nj=1 xi,j ej , d(x1 , . . . , xn ) = x1,1 · · · xn,n , et

d (x1 , . . . , xn ) = σ∈Sn ε(σ)xσ(1),1 · · · xσ(n),n . On a en particulier d (e1 , . . . , en ) = 1, donc d = 0.
Soit f ∈ Ln (E, K) une forme n-linéaire alternée. La n-linéarité de f entraîne que

f (x1 , . . . , xn ) = x1,i1 · · · xn,in f (ei1 , . . . , ein ).
i1 ,...,in

Or si ik = il pour k = l, f (ei1 , . . . , ein ) = 0, et on a donc



f (x1 , . . . , xn ) = x1,σ(1) · · · xn,σ(n) f (eσ(1) , . . . , eσ(n) ) = f (e1 , . . . , en )d (x1 , . . . , xn ). (∗)
σ∈Sn

Donc f ∈ Vect(d ), et comme d = 0, ceci prouve que l'ensemble des formes n-linéaires alternées
sur E est de dimension 1.
Si f (e1 , . . . , en ) = 1, (∗) prouve que f = d , d'où l'existence et l'unicité de la forme n-linéaire
alternée valant 1 sur la base B . 

Définition 4. Soit B = (e1 , . . . , en ) une base de E . Le théorème précédent arme


qu'il existe une et une seule forme n-linéaire alternée sur E prenant la valeur 1 sur la
base B . On l'appelle déterminant dans la base B et on la note detB . Si x1 , . . . , xn ∈ E
(xi = nj=1 xi,j ej ), le déterminant de (x1 , . . . , xn ) dans la base B est

detB (x1 , . . . , xn ) = ε(σ)x1,σ(1) · · · xn,σ(n) .
σ∈Sn

Remarque 2.  En utilisant le théorème 2, on montre facilement que pour toute forme


n-linéaire alternée f , on a f (x1 , . . . , xn ) = f (e1 , . . . , en ) detB (x1 , . . . , xn ).
 (Changement de base). En particulier, si B et B  sont deux bases de E , alors
detB  (x1 , . . . , xn ) = detB  B · detB (x1 , . . . , xn ). On en déduit detB  B · detB B  = 1.
Théorème 3. Soient x1 , . . . , xn ∈ E . Les propositions suivantes sont équivalentes.
(i) Les vecteurs x1 , . . . , xn forment une famille liée.
142 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS

(ii) Pour toute base B de E , detB (x1 , . . . , xn ) = 0.


(iii) Il existe une base B de E telle que detB (x1 , . . . , xn ) = 0.
Déterminant d'un endomorphisme.
Définition 5. Soit un endomorphisme f ∈ L(E) et B = (e1 , . . . , en ) une base de E . Le
scalaire detB (f (e1 ), . . . , f (en )) ne dépend pas de la base B choisie. On l'appelle détermi-
nant de f et on le note det f .
Proposition 3. (i) Si f, g ∈ L(E), det(f ◦ g) = det f × det g .
(ii) det IdE = 1.
(iii) Soit f ∈ L(E). Alors (f ∈ G(E) ⇐⇒ det f = 0) et on a det(f −1 ) = (det f )−1 .
Déterminant d'une matrice carrée.
Définition 6. Soit A = (ai,j )1≤i,j≤n ∈ Mn (K). On appelle déterminant de A, et on noté
det A, le déterminant de ses vecteurs colonnes dans la base canonique de Kn . On a
 
det A = ε(σ) aσ(1),1 · · · aσ(n),n = ε(σ) a1,σ(1) · · · an,σ(n) .
σ∈Sn σ∈Sn

Remarque 3. Si A = (ai,j )1≤i,j≤n ∈ Mn (K), on note aussi le déterminant de A en l'écrivant


sous la forme  
 a1,1 · · · a1,n 
 . ..  .
 .. . 

 a 
n,1 · · · a n,n

Propriétés. Soit A ∈ Mn (K). Alors :


 det A = det( tA).
 det A dépend linéairement des colonnes (resp. des lignes) de A.
 Pour tout λ ∈ K, det(λA) = λn det A.
 On a (det A = 0 ⇐⇒ A ∈ Gn (K)).
 Si on eectue une permutation σ ∈ Sn sur les colonnes (ou les lignes) de A, le
déterminant de A est multiplié par ε(σ) (signature de σ ).
 Si A est triangulaire, det A est le produit des éléments diagonaux de A.
 On ne change pas la valeur d'un déterminant en ajoutant à une colonne une com-
binaison linéaire des autres colonnes. Même chose sur les lignes.
 Si A est la matrice de f ∈ L(E) dans une base de E , alors det f = det A.
 Si A, B ∈ Mn (K), det(AB) = det A · det B .
 Deux matrices semblables ont même déterminant.
 (Déterminant par blocs). Si
 
A C
M= ∈ Mn (K)
0 B
avec A ∈ Mp (K) et B ∈ Mn−p (K), alors det M = det A · det B .
Mineurs et cofacteurs.
Définition 7. Soit A = (ai,j )1≤i,j≤n ∈ Mn (K).
Pour tout (i, j), on appelle mineur de l'élément ai,j le déterminant ∆i,j de la matrice
obtenue en supprimant la i-ième ligne et la j -ième colonne de la matrice A. Le scalaire
Ai,j = (−1)i+j ∆i,j s'appelle le cofacteur de ai,j .
On appelle mineurs principaux de A les déterminants ∆k = det(ai,j )1≤i,j≤k pour
1 ≤ k ≤ n.
5. FORMES MULTILINÉAIRES, DÉTERMINANTS 143

Proposition 4 (Développement selon une ligne ou une colonne). Soit une


matrice A = (ai,j )1≤i,j≤n ∈ Mn (K), Ai,j les cofacteurs des
néléments de A . Alors :
 (Développement par rapport à la j -ième colonne)  i=1 ai,j A i,j = det A .
 (Développement par rapport à la i-ième ligne) nj=1 ai,j Ai,j = det A.

Définition 8. Soit A ∈ Mn (K). La matrice (Ai,j )1≤i,j≤n des cofacteurs des éléments de
A, est appelée comatrice de A et on la note com(A) ou encore A
.
t
Proposition 5. Soit A ∈ Mn (K). Alors A A = tAA
 = (det A) · In .

Exemple 2. La proposition précédente entraîne que si une matrice A est inversible, alors
t
A−1 = (1/ det A) · A . Ce résultat appliqué aux matrices 2 × 2 entraîne que si A = ( a b ) ∈
 d −b c d
M2 (K) est inversible, alors son inverse s'obtient par la formule A−1 = ad−bc
1
−c a .

Déterminant de Vandermonde. Beaucoup de déterminants sont classiques (voir les


exercices). Nous allons étudier ici l'un des plus classiques appelé déterminant de Vander-
monde. Pour n ≥ 2 et pour tous a1 , . . . , an ∈ K, on note
 
 1 a1 a21 · · · an−1
1 
 n−1 
 1 a2 a22 · · · a2 
V (a1 , . . . , an ) =  .. .. 
 . . 
 1 an a2n · · · an−1 
n

(déterminant de Vandermonde de a1 , . . . , an ). Nous allons montrer que



V (a1 , . . . , an ) = (aj − ai ).
1≤i<j≤n

Démonstration. On procède par récurrence sur n. Pour n = 2, c'est évident. Supposons le résultat
vrai pour n − 1 et montrons le pour n. Dans V (a1 , . . . , an ), on retranche à chaque colonne a1 fois
la précédente (en commençant par la dernière colonne). On obtient
 
 1 0 0 ··· 0   
   a2 − a1 a2 − a1 a2 · · · an−1 − a1 an−2 
 1 a2 − a1 a22 − a1 a2 · · · an−1 − a1 an−2   2 2 2 
 2 2   .. .. .. 
 .. .. .. .. = . . . 

 . . . .  
  an − a1 a2n − a1 an · · · an−1


  − a1 an−2
1 an − a1 a2n − a1 an · · · an−1
n − a1 an−2
n
n n

(après développement par rapport à la première ligne). On factorise ensuite chaque ligne par
(ai − a1 ), ce qui donne
 
 1 a2 ··· an−2   
  n
..  = (a − a ) V (a , . . . , a )
2

V (a1 , . . . , an ) = (a2 − a1 ) · · · (an − a1 ) ·  .. ..
 . . .  i 1 2 n
 1 an · · · an−2
n
 i=2


d'où le résultat car d'après l'hypothèse de récurrence, V (a2 , . . . , an ) = 2≤i<j≤n (aj − ai ) . 

5.3. Systèmes linéaires


On considère le système de p équations à q inconnues suivant :


 a x + a1,2 x2 + · · · + a1,q xq = b1
 1,1 1
a2,1 x1 + a2,2 x2 + · · · + a2,q xq = b2
. (S)
 ···
 ··· ···
 a x + a x + ··· + ap,q xq = bp
p,1 1 p,2 2
144 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS

Systèmes de Cramer. Supposons que dans le système (S), p = q = n. Posons A =


(ai,j )1≤i,j≤n ∈ Mn (K), B la matrice colonne dont les composantes sont les (bi )1≤i≤n et X
la matrice colonne dont les composantes sont les (xi )1≤i≤n . Le système (S) s'écrit aussi
AX = B , et on voit donc que (S) admet une unique solution X pour tout B si et seulement
si det A = 0. Dans ce cas, comme B = x1 A1 + · · · + xn An (les Ai désignant les vecteurs
colonnes de la matrice A), on a, B0 désignant la base canonique de Kn ,
detB0 (A1 , . . . , Ai−1 , B, Ai+1 , . . . , An ) = xi detB0 (A1 , . . . , An ) = xi det A.
On en déduit que les composantes xi de X sont données par
detB0 (A1 , . . . , Ai−1 , B, Ai+1 , . . . , An )
xi =
det A
(formules connues sous le nom de formules de Cramer).
Cas général. On note A = (ai,j ) 1≤j≤q
1≤i≤p ∈ Mp,q (K). Soit r = rg A. Il existe un déterminant

∆ d'ordre r non nul extrait de A (d'après le théorème 2 page 128). Ainsi choisi, ∆ s'appelle
le déterminant principal du système (S) (il n'est en général pas unique).
 Les équations dont les indices sont ceux des lignes de ∆ s'appellent les équations
principales.
 Les inconnues dont les indices sont ceux des colonnes de ∆ s'appellent les inconnues
principales.
Notons I (resp. J ) les indices des lignes (resp. des colonnes) de ∆, de sorte ∆ = det(ai,j ) i∈I .
j∈J
On appelle déterminants caractéristiques les déterminants d'ordre r + 1 de la forme
 
 (ai,j ) i∈I (bi )i∈I 

 j∈J  avec k ∈ J.
 (ak,j )j∈J bk 
Les déterminants caractéristiques n'existent que si r < p, et il y en a alors p − r.
Avec les notations que nous venons d'introduire, on a le

Théorème 4 (Rouché - Fontené). Le système (S) admet des solutions si et seulement


si p = r ou les p−r déterminants caractéristiques sont nuls. Le système est alors équivalent
au système des équations principales, les inconnues principales étant déterminées par un
système de Cramer à l'aide des inconnues non principales.

Exemple 3. Soit le système (S) :



 x1 + 2x2 − x3 + x4 = 1
x1 − x 3 − x4 = 1 , m ∈ R.
 −x + x + x + 2x = m
1 2 3 4

Ici on a  
1 2 −1 1
A =  1 0 −1 −1  .
−1 1 1 2
Un calcul rapide montre que rg A = 2. Nous choisissons le déterminant principal | 11 20 |, issu
de la matrice A en considérant ses deux premières lignes et ses deux premières colonnes.
Il n'y a ici qu'un seul déterminant caractéristique, qui est
 
 1 2 1 
 
 1 0 1  = −2(m + 1).
 
 −1 1 m 
5. FORMES MULTILINÉAIRES, DÉTERMINANTS 145

D'après le théorème de Rouché-Fontené, (S) admet des solutions si et seulement si m =


−1, et dans ce cas, le système (S) est équivalent au système
 
x1 + 2x2 = 1 + x3 − x4 x1 = 1 + x 3 + x 4
⇐⇒ .
x1 = 1 + x3 + x4 x2 = −x4
5.4. Exercices
Il existe plusieurs déterminants classiques qu'il faut savoir calculer. Les méthodes de
calcul sont parfois astucieuses ; faites donc les exercices pour les connaître.
Exercice 1. Soit n ≥ 2 un entier. Pour tout k, 1 ≤ k ≤ n − 1, on considère un polynôme
Pk = X k + ak,1 X k−1 + · · · + ak,k ∈ R[X]. Si x1 , . . . , xn ∈ R, calculer le déterminant
 
 1 P1 (x1 ) · · · Pn−1 (x1 ) 
 
 1 P1 (x2 ) · · · Pn−1 (x2 ) 
∆ =  .. .. .. .

 . . . 
 1 P1 (xn ) · · · P (x ) 
n−1 n

Solution. Après avoir retranché a1,1 fois la première colonne à la deuxième, on obtient
 
 1 x1 P2 (x1 ) · · · Pn−1 (x1 ) 
 
 1 x2 P2 (x2 ) · · · Pn−1 (x2 ) 
 
∆ =  .. .. .. .. .
 .
 . . . 

 1 xn P2 (xn ) · · · Pn−1 (xn ) 

On retranche ensuite à la troisième colonne a2,2 fois la première et a2,1 fois la deuxième, et on
remarque que la troisième colonne n'est plus composée que de x2i . On recommence ainsi jusqu'à
parvenir à la dernière colonne, et on obtient nalement une expression en fonction du déterminant
de Vandermonde
 
 1 x1 ··· xn−1 
 1 
 1 x2 ··· xn−1  
 2 
∆= .. .. ..  = V (x1 , . . . , xn ) = (xj − xi ).

 . . . 
 1≤i<j≤n
 1 xn · · · xn−1 
n

Exercice 2. Soient a, b ∈ K et x1 , . . . , xn ∈ K. On dénit le déterminant d'ordre n


 
 x1 a ··· a 
 .. 
 ... 
 b x2 . 
∆n =  .. ... ... .
 . a 
 
 b ··· b xn 

a) Si a = b, calculer ∆n . (Indication : on pourra considérer le déterminant ∆n (x) obtenu


à partir de ∆n en ajoutant x à chaque terme, et montrer que ∆n (x) peut se mettre sous
la forme Ax + B .)
b) On suppose ici que K = R. Calculer ∆n si a = b.
c) Si a = b et K est quelconque, calculer ∆n .
146 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS

Solution. a) Suivons l'indication et considérons, pour tout x ∈ K, le déterminant


 
 x1 + x a + x ··· a+x 
 .. 
 ... 
 b + x x2 + x . 
∆n (x) =  .. ... ... .
 . a+x 
 
 b+x ··· b + x xn + x 

En retranchant aux n − 1 premières colonnes la dernière, puis en développant par rapport à la


dernière colonne, on voit qu'il existe A, B ∈ K tels que pour tout x ∈ K, ∆n (x) = Ax + B . On
remarque maintenant que ∆n (−b) est le déterminant d'une matrice triangulaire supérieure dont
les coecients diagonaux sont les xi − b, donc ∆n (−b) = (x1 − b) · · · (xn − b) = −Ab + B . On
obtient de même ∆n (−a) = (x1 − a) · · · (xn − a) = −Aa + B . De ces deux valeurs, on en déduit
 
b i (xi − a) − a i (xi − b)
∆n = B = .
b−a

b) On xe a ∈ R, et on regarde ∆n comme une fonction de b que nous notons f (b). L'expression
d'un déterminant d'une matrice en fonction de ses coecients montre que la fonction b → f (b)
est continue sur R. Maintenant, on a vu au a) que si b = a, alors
bP (a) − aP (b) 
f (b) = où P (x) = (xi − x).
b−a
i

Q(b) − Q(a)
Autrement dit, si Q(x) = xP (a) − aP (x), on a f (b) = . En faisant tendre b vers a,
b−a
la continuité de f permet donc d'armer que
 
 
∆n = f (a) = Q (a) = P (a) − aP  (a) = (xi − a) + a  (xj − a) . (∗)
i i j=i

c) Ici on ne peut pas utiliser la méthode précédente. Donnons deux méthodes de résolution. La
première méthode s'appuie sur les résultats précédents. Elle consiste, dans ∆n , à substituer à
b l'indéterminée X , donnant ainsi un déterminant que nous notons D. Le déterminant D a ses
coecients dans le corps K(X), et d'après a) (puisque X et a sont diérents dans K(X)) :
XP (a) − aP (X) 
D= où P = (xi − X) ∈ K[X].
X −a
i

Posons Q(X) = XP (a) − aP (X) ∈ K[X]. Comme Q(a) = 0, il existe R ∈ K[X] tel que Q(X) =
(X −a)R(X), de sorte que D = R(X). Par dérivation, on obtient Q (X) = R(X)+(X −a)R (X),
donc Q (a) = R(a). Il ne reste plus qu'a substituer à X la constante a, ce qui entraîne ∆n =
R(a) = Q (a) = P (a) − aP  (a), ce qui permet de retrouver l'expression (∗).
Nous proposons une deuxième méthode, plus directe. Notons A le vecteur colonne constitué
uniquement de a, (E1 , . . . , En ) la base canonique de Kn , et αk = xk − a. On a
∆n = det(A + α1 E1 , . . . , A + αn En )
n

= det(α1 E1 , . . . , αn En ) + det(α1 E1 , . . . , αi−1 Ei−1 , A, αi+1 Ei+1 , . . . , αn En )
i=1
n

= α1 · · · αn + α1 · · · αi−1 a αi+1 · · · αn .
i=1

Le passage à la deuxième ligne est obtenu par multilinearité du déterminant, en utilisant le fait
que lorsque le vecteur colonne A apparait deux fois, le déterminant correspondant est nul. On
en déduit le résultat (*) compte tenu de la valeur des αi .
5. FORMES MULTILINÉAIRES, DÉTERMINANTS 147

Exercice 3. Soit M ∈ Mn (Z) (i. e. une matrice à coecients dans Z). Donner une
condition nécessaire et susante pour que M soit inversible et que M −1 ∈ Mn (Z).

Solution. Nous allons montrer que (M est inversible et M −1 ∈ Mn (Z)) si et seulement si


(det M = ±1).
Condition nécessaire. On a M ∈ Mn (Z) donc det(M ) ∈ Z. De même, M −1 ∈ Mn (Z) donc
det(M −1 ) = 1/ det(M ) ∈ Z. Ainsi, det(M ) est un entier d'inverse entier, d'où det(M ) = ±1.
Condition susante. On a M ∈ Mn (Z) donc les cofacteurs de M sont des entiers, donc la
comatrice M de M vérie M  ∈ Mn (Z). Or det(M ) = ±1 donc 1/ det(M ) ∈ Z. Donc M est
inversible et :
1 t
 ∈ Mn (Z).
M −1 = M
det(M )

Exercice 4. a) Soient α1 , . . . , αn et β1 , . . . , βn ∈ R. On note M la matrice


 
(α1 + β1 )n−1 (α1 + β2 )n−1 · · · (α1 + βn )n−1
 (α2 + β1 )n−1 (α2 + β2 )n−1 · · · (α2 + βn )n−1 
M =
 .. .. ..  ∈ Mn (R).

. . .
(αn + β1 )n−1 (αn + β2 )n−1 · · · (αn + βn )n−1
Calculer le déterminant de M .
b) Soit p ∈ N et un entier n tel que n ≥ p + 1. Calculer ∆ = det A où A est la matrice
 
1 2p ··· np
 2p 3p ··· p
(n + 1) 
A=
 ... .. ..  ∈ Mn (R).

. .
np (n + 1)p · · · (2n − 1)p

Solution. a) L'astuce est d'écrire M comme le produit de deux matrices. Si mi,j désigne l'élément
d'indice (i, j) dans la matrice M , on a
n−1
 n

mi,j = k
Cn−1 αik βjn−1−k = pi,k qk,j (∗)
k=0 k=1

où pi,k = Cn−1k−1 k−1


αi et qk,j = βjn−k . En d'autres termes, si P = (pi,j )1≤i,j≤n ∈ Mn (R) et
Q = (qi,j )1≤i,j≤n ∈ Mn (R), la relation (∗) s'écrit M = P Q. On a donc det M = det P · det Q.
Or le déterminant de P vaut
 0   
 C 1 n−1 n−1   α1n−1 
 n−1 Cn−1 α1 · · · Cn−1 α1   1 α1 ··· 
 C0 C 1 α · · · C n−1 n−1 
α  1 α2 ··· α2n−1 
 n−1 n−1 2 n−1 2  0 1 n−1  
 .. .
.. .
..  = Cn−1 Cn−1 · · · Cn−1  .. .. .. ,
 .   . . . 
   
 C0 1 n−1 n−1   1 αn · · · αnn−1 
n−1 Cn−1 αn · · · Cn−1 αn

donc det P = Cn−1
0 n−1
· · · Cn−1 i<j (αj − αi ). Par ailleurs,
 n−1   
 β · · · βnn−1   1 ··· 1 
 1  
 .. ..    β1 ··· βn 
 . . n(n−1)/2  
det Q =   = (−1)  .. .. 
 β1 ··· βn   . . 
  n−1 
 1 ··· 1   β ··· βnn−1 
1

(cette dernière égalité s'obtient en eectuant



(n − 1) + · · · + 2 + 1 = n(n − 1)/2 transpositions
sur les lignes), donc det Q = (−1)n(n−1)/2 i<j (βj − βi ).
148 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS

On a donc
n−1 
 
i
det M = det P · det Q = Cn−1 (−1)n(n−1)/2 [(αj − αi )(βj − βi )] .
i=0 i<j

b) Si p + 1 = n, alors d'après la question précédente appliquée à la matrice M avec αi = i et


βj = j − 1, on a
n−1 
  
det A = Cn−1 (−1)n(n−1)/2
i
(j − i)2 .
i=0 i<j

Or
n
j−1  n n−1
    
(j − i) = (j − i) = (j − 1)! = j!
i<j j=2 i=1 j=2 j=1

et
n−1 
 
n−1
(n − 1)!

[(n − 1)!]n
i
Cn−1 = =  2 ,
i!(n − 1 − i)! n−1
i=0 i=0 i=1 i!

donc nalement ∆ = (−1)n(n−1)/2 [(n − 1)!]n .


Si maintenant n > p + 1, nous allons montrer que ∆ = 0. Notons P = X p ∈ R[X] et pour
tout i ∈ {1, . . . , n}, Pi = P (X + i) = (X + i)p , de sorte que la matrice A s'écrit
 
P1 (0) P1 (1) · · · P1 (n − 1)
 P2 (0) P2 (1) · · · P2 (n − 1) 
 
A= .. .. .. .
 . . . 
Pn (0) Pn (1) · · · Pn (n − 1)

Pour tout i, Pi ∈ Rp [X] = {Q ∈ R[X] | deg Q ≤ p}. Comme Rp [X] est un R-e.v de dimension
p + 1 ((1, X, . . . , X p ) en est une base) et que n > p + 1, on en déduit nque P1 , . . . , Pn forme une
famille liée. Donc il existe λ 1 , . . . , λn ∈ R , non tous nuls, tels que i=1 λi Pi = 0, et donc pour
tout j , 0 ≤ j ≤ n − 1, ni=1 λi Pi (j) = 0. Autrement dit, les vecteurs lignes de la matrice A sont
linéairement dépendants, ce qui entraîne ∆ = det A = 0.

Exercice 5. Soit n ∈ N∗ . Lorsque p ≤ n, calculer le déterminant d'ordre p + 1



1 Cn1 Cn2 · · · Cnp
1 2 p
1 Cn+1 Cn+1 ··· Cn+1
∆p = .. .. .. .. .
. . . .
1
1 Cn+p 2
Cn+p ··· Cp n+p

Solution. En retranchant à chacune des p dernières lignes la précédente (en commençant par la
dernière), on obtient :

1 Cn1 Cn2 ··· Cnp
Cn0 Cn1 ··· Cnp−1

0 Cn0 Cn1 ··· Cnp−1
. . ..


∆p = .. .. .. .. = .. .. . = ∆p−1

. . . .
C0 1 p−1


0
0 Cn+p−1 1
Cn+p−1 ··· p−1
Cn+p−1 n+p−1 Cn+p−1 · · · Cn+p−1

(on a utilisé la relation +1


Ck+1 − Ck+1 = Ck ). Donc ∆p = ∆p−1 = · · · = ∆1 = 1.
5. FORMES MULTILINÉAIRES, DÉTERMINANTS 149

Exercice 6. a) Calculer le déterminant d'ordre n à coecients dans K


 
 a 1 + x1 a1 ··· a1 
 
 a2 a2 + x2 · · · a2 
∆n =  .. ... .. .

 . . 
 a ··· an an + xn 
n

b) Calculer le déterminant d'ordre n + 1 à coecients dans K


 
 x a1 a2 ··· an 
 
 a1 x a2 ··· an 
 .. .. 
 ... ... 
∆n =  . a2 . .
 .. .. ... ... 
 . . an 
 
 a1 a2 · · · an x 

n 
Solution. a) Nous allons prouver par récurrence sur n que ∆n = x1 · · · xn + k=j xk ). j=1 (aj
Le résultat est évidemment vrai pour n = 1. Supposons le vrai au rang n − 1 et montrons le au
rang n. En utilisant la linéarité du déterminant par rapport à la dernière colonne, on voit que
   
 a1 + x 1 a 1 ··· a 1   a1 + x 1 a 1 ··· 0 
   .. 
 ...   ...
 a2 ··· a2   a2 ··· . 
∆n =  ..  +
..    ..  = D1 + D 2 .
 . ··· an−1 + xn−1 .   . ··· an−1 + xn−1 0 

 an ··· an an   an ··· an xn 

Si on retranche, dans le déterminant D1 , la dernière colonne aux n − 1 premières, on s'aperçoit


que D1 = an x1 · · · xn−1 . Par ailleurs, en développant D2 par rapport à la dernière colonne, on
obtient D2 = xn ∆n−1 . Finalement, ∆n est égal à
    
n−1
  n
 
   aj
D1 +D2 = an x1 · · · xn−1 +xn x1 · · · xn−1 + aj xk  = x1 · · · xn + xk  .
j=1 1≤k≤n−1 j=1 k=j
k=j

b) En ajoutant les n premières colonnes à la dernière, on obtient


 
 x a1 · · · an−1 1 
 .. 
 n
 a1 x ··· . 1 

  .. . 
...
∆n = x + ai  . a2 an−1 ..  ,
i=1  .. .. ... .. 
 . . x . 

 a 1 a2 · · · a 1 
n

puis en retranchant, pour 1 ≤ j ≤ n, à la j -ième colonne aj fois la dernière,


 
 x − a1 × ··· × 1 
 .. ..  
.
x − a2 . .


n
 0 . .  n
n

ai  .. ... ..  = x +  a (x − a ).
∆n = x + . 0 × .  i i
i=1  .. .. ...  i=1 i=1
 . . x − an 1 

 0 0 ··· 0 1 
150 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS

 Exercice 7 (Déterminant de Cauchy). Soient a1 , . . . , an ∈ K et b1 , . . . , bn ∈ K tels


que pour tout (i, j), ai + bj = 0. Calculer le déterminant d'ordre n
 
1
∆n = det .
ai + bj 1≤i,j≤n

Solution. C'est classique. Il y a plusieurs moyens de procéder. Nous donnons ici une solution assez
générale. Supposons dans un premier temps les ai distincts deux à deux et n ≥ 2. L'existence de
la décomposition d'une fraction rationnelle en éléments simples permet d'armer
(b1 − X) · · · (bn−1 − X) λ1 λn
∃λ1 , . . . , λn ∈ K, R(X) = = + ··· + .
(X + a1 ) · · · (X + an ) X + a1 X + an
Le calcul des coecients λk correspondant aux poles simples (−ak ) est classique et donne
n−1
(bi + ak )
∀k, λk = i=1 = 0.
i=k (ai − ak )
Si maintenant on note L1 , . . . , Ln les lignes de ∆n , on a
 
     1 1 1 
 L1     a1 +b ··· a1 +bn−1 a1 +bn 
   L1   1 
 ..   ..   .. .. .. 
1 1  . . . 
∆n =  . .
     .
=  =
 Ln−1  λn  L n−1  λn  1
··· 1 1 

   n   an−1 +b1 an−1 +bn−1 an−1 +bn 
 Ln   i=1 λi Li
  
 R(b1 ) ··· R(bn−1 ) R(bn ) 
Compte tenu des égalités R(bi ) = 0 pour 1 ≤ i ≤ n − 1, le développement de ce dernier
déterminant par rapport à la dernière ligne donne
n−1 n−1
R(bn ) i=1 (bi − bn ) (ai − an )
∆n = 
∆n−1 = n · i=1
n−1 · ∆n−1 .
λn (b
i=1 n + a i ) i=1 (bi + an )
Sachant que ∆1 = 1/(a1 + b1 ), une récurrence sur n donne
 
i<j (aj− ai ) i<j (bj − bi )
∆n =  . (∗)
i,j (ai + bj )
Rappelons que nous avions supposé que les ai étaient distincts deux à deux. Si maintenant
deux des ai sont égaux alors les deux lignes correspondantes dans ∆n sont égales et donc ∆n = 0.
L'égalité (∗) est donc vraie dans tous les cas.
Remarque. Cette méthode, ainsi que le résultat, sont à retenir. On peut par exemple
calculer par cette technique un déterminant de Vandermonde.
t
 Grâce à ce résultat et à la formule A−1 = A/(det
 A), il est facile d'inverser une matrice
dont l'élément d'indice (i, j) est 1/(ai + bj ) puisque les mineurs d'une telle matrice sont
aussi des déterminants de Cauchy.

Exercice 8. Soient α1 , . . . , αn ∈ K. Calculer le déterminant


 
 1 α1 · · · α1k−1 α1k+1 · · · α1n 
 
 1 α2 · · · α2k−1 α2k+1 · · · α2n 
 
∆= .. .. .. .. .. .

 . . . . . 

 1 αn · · · αnk−1 αnk+1 · · · αnn 

Solution. On introduit l'indéterminée X et on considère le déterminant


5. FORMES MULTILINÉAIRES, DÉTERMINANTS 151

 
 1 α1 ··· α1k−1 α1k α1k+1 ··· α1n 

 .. .. .. .. .. 

∆(X) =  . . . . . 
 ∈ K[X].
 1 αn · · · αnk−1 αnk αnk+1 · · · αn 
n

 1 X ··· X k−1 X k X k+1 · · · Xn 
Le déterminant ∆ apparaît comme le mineur de l'élément X k dans ∆(X). En développant
∆(X) par rapport à sa dernière ligne, on s'aperçoit que ∆ est le coecient de X k multiplié par
(−1)n+k dans le polynôme ∆(X). Or ∆(X) est un déterminant de Vandermonde :
 n

∆(X) = V (α1 , . . . , αn , X) = (αj − αi ) (X − αi ).
1≤i<j≤n i=1

D'après ce que l'on a dit plus haut, on a donc l'égalité


 
∆ = (−1)n+k (−1)n−k σn−k · (αj − αi ) = σn−k · (αj − αi ),
1≤i<j≤n 1≤i<j≤n


 σn−k désigne la valeur prise au point (α1 , . . . , αn ) par le polynôme symétrique élémentaire
X1 · · · Xn−k ∈ K[X1 , . . . , Xn ].
Remarque. On peut ainsi connaître les cofacteurs d'une matrice de Vandermonde, donc
inverser une matrice de Vandermonde.

Exercice 9. Soit E un K-espace-vectoriel, où K est un corps commutatif de caractéris-


tique diérente de 2, et soit p ∈ N∗ . Soit f : E p → K une forme p-linéaire. On suppose
que f (x1 , . . . , xp ) = 0 dès qu'il existe k ∈ N∗ , k < p, tel que xk = xk+1 . Montrer que la
forme p-linéaire f est alternée.
Solution. Soit x = (x1 , . . . , xp ) ∈ E p . Soit k ∈ N∗ , k < p. L'application
ϕ : E 2 → K (u, v) → f (x1 , . . . , xk−1 , u, v, xk+2 , . . . , xp )
est une forme bilinéaire, et elle est alternée d'après les hypothèses, donc antisymétrique (en eet,
ϕ(u + v, u + v) = 0 = ϕ(u, u) + ϕ(u, v) + ϕ(v, u) + ϕ(v, v) entraîne ϕ(u, v) = −ϕ(v, u) ; c'est
un cas particulier du théorème 1 page 141). Pour tout σ ∈ Sp (groupe des permutations de
{1, . . . , p}), on note xσ = (xσ(1) , . . . , xσ(p) ). L'égalité ϕ(xk , xk+1 ) = −ϕ(xk+1 , xk ) s'écrit aussi
f (xσ ) = −f (x) = ε(σ)f (x), où σ est la transposition (k, k + 1). Or les transpositions de la forme
(k, k + 1) engendrent Sp (voir l'exercice 6 page 26), c'est-à-dire que pour tout σ ∈ Sp , on peut
écrire σ = τ1 · · · τn où τi est une transposition de la forme (k, k + 1), donc
f (xσ ) = f (xτ1 ···τn ) = ε(τ1 )f (xτ2 ···τn ) = · · · = ε(τ1 ) · · · ε(τn )f (x)
autrement dit f (xσ ) = ε(σ)f (x). Ceci est vrai pour tout σ ∈ Sp donc la forme p-linéaire f est
antisymétrique, donc alternée d'après le théorème 1 page 141.

Exercice 10. Soit E un K-espace vectoriel de dimension n ∈ N∗ , où K est un corps


commutatif de caractéristique diérente de 2. Soit f une forme n-linéaire alternée sur E .
Pour tout u ∈ L(E), on dénit :
n

fu : E n → K (x1 , . . . , xn ) → f (x1 , . . . , xi−1 , u(xi ), xi+1 , . . . , xn ).
i=1

Montrer que fu = tr(u)f .


152 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS

Solution. Fixons u ∈ L(E). L'application fu est une forme n-linéaire alternée comme on le vérie
facilement ; l'ensemble F des formes n-linéaires alternées de E étant un K-espace vectoriel de
dimension 1, on a donc :
(∀f ∈ F, f = 0, ∃!λf ∈ K), fu = λf · f.

Soit g = 0 une autre forme n-linéaire alternée. Il existe µ ∈ K∗ tel que f = µg . Donc λf f = fu =
µgu = (µλg )g , et comme f = µg , on tire λf = λg . Le scalaire λf ne dépend donc pas de f ∈ F ,
mais seulement de u. On peut donc écrire :
∃λu ∈ K, ∀f ∈ F, fu = λu f. (∗)

Montrons maintenant que λu = tr(u). Soit B = (e1 , . . . , en ) une base de E , A = (ai,j )1≤i<j≤n
la matrice de u dans cette base. En appliquant (∗) à l'application det (déterminant dans la
base B ), qui est bien une forme n-linéaire alternée, on obtient detu = λu det, donc λu =
λu det(e1 , . . . , en ) = detu (e1 , . . . , en ), donc
n

λu = det(e1 , . . . , ei−1 , u(ei ), ei+1 , . . . , en )
i=1
n n

= det(e1 , . . . , ei−1 , aj,i ej , ei+1 , . . . , en )
i=1 j=1
 
n
 n n

=  aj,i detB (e1 , . . . , ei−1 , ej , ei+1 , . . . , en ) = ai,i = tr(u).
i=1 j=1 i=1

Exercice 11. a) Soit A ∈ Mn (R). On note A


 sa comatrice. Donner le rang de A
 en
fonction du rang de A.
b) Si n ≥ 3, résoudre dans Mn (R) l'équation A = A.
t
Solution. a) Si rg A = n, l'égalité AA  = (det A)In entraîne A  = (det A) tA−1 , donc comme
det A = 0, rg A
 = n.
Si rg A = n − 1, alors il existe un mineur d'un élément de A non nul (d'après le théo-
t
rème 2 page 128), donc A = 0. De plus, on a AA  = (det A)In = 0 donc Im A ⊂ Ker tA , donc
t t t
dim(Ker A) ≥ n − 1 et donc rg A = rg A = n − dim(Ker A) ≤ 1. Comme on a vu que A
     = 0,
ceci entraîne rg A = 1.

Si rg A ≤ n − 2, alors tous les cofacteurs de A sont nuls, donc rg A = 0.
b) L'égalité A = A entraîne l'égalité rg A = rg A.
Si rg A ≤ n − 2, alors d'après a), rg A = 0, donc rg A = 0, donc A = 0.
Si rg A = n − 1, alors rg A = 1, et donc n − 1 = rg A = rg A = 1 donc n = 2, contraire aux
hypothèses.
t
Si rg A = n, alors (det A)In = AA  = tAA. Or det( tAA) = det( tA) det(A) = (det A)2 et
det[(det A)In ] = (det A) . Comme det A = 0, on en déduit (det A)n−2 
n = 1, et donc det A ∈
{−1, 1} car det A ∈ R. Si A = (ai,j ), le terme d'indice (1, 1) de tAA est j a21,j ≥ 0, et comme
t
AA = (det A)In , ce terme vaut det A. Donc det A ≥ 0, et donc det A = 1.
Finalement, on a montré que det A = 1 et tAA = In . Réciproquement, si tAA = In et
t
det A = 1, comme AA  = (det A)In = In , on a A = A car A est inversible.
Les matrices A vériant A = A sont donc la matrice nulle et les matrices A telles que

det A = 1 et tAA = In (ces dernières forment l'ensemble On+ des matrices orthogonales de
déterminant 1, i. e. le groupe spécial orthogonal).
5. FORMES MULTILINÉAIRES, DÉTERMINANTS 153

Exercice 12 (Déterminant circulant). Soit n ∈ N∗ et ω = e2iπ/n . On considère la


matrice Ω = (ω (i−1)(j−1) )1≤i,j≤n ∈ Mn (C).
a) Soient a1 , . . . , an ∈ C et
 
a1 a2 a3 · · · an
 an a1 a2 · · · an−1 
 
A= a
 n−1
an a1 · · · an−2  ∈ Mn (C).
 ... .. .. .. 
. . . 
a2 a3 a4 · · · a1
Calculer det(AΩ) et en déduire la valeur de det A.
b) (Application). Si θ ∈ R, calculer le déterminant n × n
 
 cos θ cos 2θ · · · cos nθ 
 
 cos nθ cos θ · · · cos(n − 1)θ 
∆(θ) =  .. .. .. .
. . . 
 
 cos 2θ cos 3θ · · · cos θ 

Solution. a) Un peu d'attention montre que le coecient d'indice (i, j) du produit AΩ est
ω (i−1)(j−1) P (ω j−1 ) où P désigne le polynôme P = a1 + a2 X + · · · + an X n−1 . Autrement dit,
 
P (1) P (ω) ··· P (ω n−1 )
 P (1) ωP (ω) ··· ω n−1 P (ω n−1 ) 
 
AΩ =  .. .. .. .
 . . . 
P (1) ω n−1 P (ω) · · · ω (n−1)(n−1) P (ω n−1 )
On en déduit
 
 1 1 ··· 1 
 
 1 ω ··· ω n−1 
n−1  
det(AΩ) = P (1)P (ω) · · · P (ω ) .. .. ..  = P (1)P (ω) · · · P (ω n−1 ) det Ω.

 . . . 

 1 ω n−1 · · · ω (n−1)(n−1) 

Comme det Ω = 0 (c'est un Vandermonde dont les paramètres sont deux à deux distincts), on
en déduit det A = P (1)P (ω) · · · P (ω n−1 ).
b) On pose Un = {e2ikπ/n | k ∈ Z}. Le résultat de la question précédente entraîne

∆(θ) = (cos θ + ω cos 2θ + · · · + ω n−1 cos nθ). (∗)
ω∈Un

Supposons dans un premier temps θ ∈ n Z.



Si ω ∈ Un , on pose
S(ω) = cos θ + ω cos 2θ + · · · + ω n−1
cos nθ et T (ω) = sin θ + ω sin 2θ + · · · + ω n−1 sin nθ.
On a
n
1 1 − einθ 1 − e−inθ
S(ω) + iT (ω) = (ωeiθ )k = eiθ et S(ω) − iT (ω) = e−iθ .
ω 1 − ωeiθ 1 − ωe−iθ
k=1

En eectuant la demi-somme des deux expressions précédentes, on en déduit, après calculs, que
 
nθ sin( n+2 nθ
2 θ) − ω sin( 2 )
S(ω) = 2 sin · iθ −iθ
. (∗∗)
2 (1 − ωe )(1 − ωe )
Avec la formule (∗), on en déduit
    
 sin( n+2 nθ
n n nθ ω∈Un 2 θ) − ω sin( 2 )
∆(θ) = S(ω) = 2 sin  iθ
 −iθ )
ω∈Un
2 ω∈Un (1 − ωe ) ω∈Un (1 − ωe
154 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS

Lorsque a ∈C∗ , le polynôme X n − an a n racines simples qui sont les ωa avec ω ∈ Un , donc
X n − an = ω∈Un (X − ωa). En utilisant cette identité pour a = sin nθ
2 puis a = e et a = e
iθ −iθ ,

on en déduit  
 n (n+2)θ
 
nθ sin 2 − sinn nθ 2
n n
∆(θ) = 2 sin
2 (1 − eniθ )(1 − e−niθ )
 
et comme (1 − eniθ )(1 − e−niθ ) = 4 sin2 nθ
2 on a nalement
     
nθ n+2 nθ
∆(θ) = 2n−2 sinn−2 sinn θ − sinn .
2 2 2
Nous avons démontré cette relation pour θ ∈ 2π n Z. Le déterminant étant une fonction continue
de ses coecients (c'est un polynôme en ses coecients), la fonction θ → ∆(θ) est continue, et
par continuité on en déduit que la relation trouvée est valable pour tout θ ∈ R.
Remarque. Une autre démonstration de a) fait l'objet de l'exercice 4 page 190.

Exercice 13. Soient a, b ∈ K avec a = b. On pose


 
a+b ab 0 ··· 0
 ... .. 
 1 a+b ab . 
 . 
An = 
 0 1 a + b .. 0  ∈ Mn (K).

 .. ... ... ... 
 . ab 
0 ··· 0 1 a+b
Calculer det An .
Solution. Supposons n ≥ 3. En développant par rapport à la première ligne on obtient
 
 1 ab 0 ··· 0 
 .. 
 ...
 0 a+b ab . 
 ... 
 
det An = (a + b) det An−1 − ab  0 1 a+b 0 ,
 . ... ... 
 .. 0 ab 

 ... 
 0 ··· 1 a+b 
puis en développant le dernier déterminant de cette égalité par rapport à la première colonne,
det An = (a + b) det An−1 − ab det An−2 . Sachant que
a2 − b2 a 3 − b3
det A1 = a + b = et det A2 = a2 + ab + b2 = ,
a−b a−b
an+1 − bn+1
on démontre facilement par récurrence sur n que det An = .
a−b
Remarque. Si a = b, une récurrence donne det An = (n + 1)an .
 À partir du résultat de cet exercice, on peut facilement calculer les déterminants de la
forme  
 β γ (0) 
 
 ... ... 
 α 
 ... ... .
 γ 
 
 (0) α β 
6. PROBLÈMES 155

6. Problèmes
Problème 1. Résoudre dans Mn (R) l'équation A2 = −In .
Solution. Comme A2 = −In , on a det(A2 ) = (det A)2 = (−1)n donc n est pair. Soit p ∈ N∗ tel
que n = 2p. Soit f l'endomorphisme de Rn dont A est la matrice dans la base canonique de Rn .
On va démontrer, en procédant par récurrence sur k, le résultat suivant : pour tout k, 1 ≤ k ≤ p,
il existe x1 , . . . , xk ∈ E = Rn tels que (x1 , f (x1 ), . . . , xk , f (xk )) forme une famille libre.
Montrons ce résultat pour k = 1. Soit x1 ∈ E, x1 = 0. Si λx1 + µf (x1 ) = 0, alors par
composition par f , on tire λf (x1 ) − µx1 = 0. Finalement, on en déduit :
(λ2 + µ2 )x1 = λ [λx1 + µf (x1 )] − µ [λf (x1 ) − µx1 ] = 0.
Donc λ2 + µ2 = 0, c'est-à-dire λ = µ = 0. La famille (x1 , f (x1 )) est donc libre.
Supposons maintenant le résultat vrai au rang k − 1 et montrons le au rang k ≤ p. D'après
l'hypothèse de récurrence, il existe x1 , . . . , xk−1 ∈ E tels que (x1 , f (x1 ), . . . , xk−1 , f (xk−1 )) forme
une famille libre. Soit Fk−1 = Vect{x1 , f (x1 ), . . . , xk−1 , f (xk−1 )}. On a dim Fk−1 = 2k − 2 < 2p,
donc on peut choisir xk ∈ E , xk ∈ Fk−1 . Supposons maintenant une égalité du type :
λ1 x1 + µ1 f (x1 ) + · · · + λk xk + µk f (xk ) = 0.
Alors λk xk + µk f (xk ) ∈ Fk−1 et Fk−1 étant stable par f , f [λk xk + µk f (xk )] = λk f (xk ) − µk xk ∈
Fk−1 . Donc : (λ2k + µ2k )xk = λk [λk xk + µk f (xk )] − µk [λk f (xk ) − µk xk ] ∈ Fk−1 . Or xk ∈ Fk−1 ,
donc λ2k +µ2k = 0, d'où λk = µk = 0. On a donc λ1 x1 +µ1 f (x1 )+· · ·+λk−1 xk−1 +µk−1 f (xk−1 ) = 0,
donc d'après l'hypothèse de récurrence, ∀i, λi = µi = 0.
Le cas particulier k = p, entraîne l'existence de x1 , . . . , xp ∈ E tels que la famille B =
(x1 , f (x1 ), . . . , xp , f (xp )) soit libre. Comme n = 2p, B est une base de E . La matrice A est donc
semblable à  
J (0)  

[f ]B =  . . .

, où J=
0 −1
,
1 0
(0) J
et réciproquement, si A est semblable à une matrice de cette forme, A2 = −In .

 Problème 2 (Endomorphismes nilpotents, décomposition de Fitting). Soit E


un K-e.v de dimension nie n ∈ N∗ . Soit f ∈ L(E), nilpotent (i. e. il existe p ∈ N∗ tel que
f p = 0). On note q ∈ N∗ l'indice de nilpotence de f , déni par q = inf{p ∈ N∗ | f p = 0}.
1/ On veut montrer que q ≤ n.
a) (Première méthode). Montrer que la suite (Im f p )p∈N décroît strictement jusqu'à p = q
puis devient stationnaire. Conclure.
b) (Deuxième méthode). Montrer qu'il existe x0 ∈ E tel que (x0 , f (x0 ), . . . , f q−1 (x0 ))
forme une famille libre. Conclure.
2/ Si r = dim(Ker f ), montrer que r = 0 et que n/r ≤ q ≤ n + 1 − r.
3/ (Décomposition de Fitting .) On ne suppose plus f nilpotent. Montrer qu'il existe un
unique couple (F, G) de sous-espaces vectoriels de E stables par f , tels que F ⊕ G = E ,
f|F est nilpotent et f|G est inversible.

Solution. 1/a) Dans un premier temps, on ne suppose pas f nilpotente. Pour tout p, comme
f (E) ⊂ E , on a f p+1 (E) = f p [f (E)] ⊂ f p (E). La suite (Im f p )p∈N est donc décroissante. Donc
la suite d'entiers naturels (rg f p )p∈N décroit, donc il existe un plus petit entier s ∈ N tel que
rg f s+1 = rg f s . Comme Im f s+1 ⊂ Im f s on en déduit Im f s+1 = Im f s . Pour tout p ≥ s, on a
Im f p+1 = f p−s [f s+1 (E)] = f p−s [f s (E)] = Im f p .
156 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS

La suite (Im f p )p∈N est donc stationnaire à partir du rang s. Comme la suite (rg f p )p∈N décroit
et par dénition de s, on a rg f p+1 ≤ rg f p − 1 lorsque p < s. Une récurrence immédiate fournit
rg f p ≤ rg f 0 − p = n − p pour 0 ≤ p ≤ s, en particulier rg f s ≤ rg f 0 − s = n − s. On en déduit
s ≤ n.
Pour conclure, on utilise l'hypothèse de nilpotence de f , pour noter que Im f p est stationnaire
à partir de p = q . On en déduit q = s, donc q ≤ n.
b) Comme f q−1 = 0, il existe x0 ∈ Etel que f q−1 (x0 ) = 0. Nous allons montrer que la famille
(x0 , f (x0 ), . . . , f q−1 (x0 )) est libre. Si q−1
i=0λi f i (x0 ) = 0 avec les λi non tous nuls, on considère
le plus petit entier k tel que λk = 0. On a q−1 i=k λi f (x0 ) = 0, donc en composant par f
i q−1−k à

gauche,
λk f q−1 (x0 ) + λk+1 f q (x0 ) + · · · + λq−1 f 2(q−1)−k (x0 ) = 0.
Comme f p = 0 pour p ≥ q , cette dernière égalité entraîne λk f q−1 (x0 ) = 0, et comme f q−1 (x0 ) =
0, λk = 0, ce qui est absurde. La famille considérée est donc libre. Elle a q éléments, donc
q ≤ dim E = n.
2/ On a vu au 1/a) que si p < q, rg f p+1 ≤ rg f p −1, ce qui entraîne que 0 = rg f q ≤ rg f −(q−1) =
n − r − (q − 1), donc q ≤ n − r + 1.
Il reste à montrer l'inégalité n/r ≤ q . Pour cela, commençons par montrer que
∀p ∈ N, rg f p+1 = rg f p − dim(Im f p ∩ Ker f ). (∗)
- Soit S un s.e.v de E tel que (Im f p
∩ Ker f ) ⊕ S = Im f p .
On a S ∩ Ker f ⊂ ∩(Im f p
Ker f ) ∩ S = {0}, donc S ∩ Ker f = {0}. Ceci entraîne que f|S (restriction de f à S ) est injective,
et donc dim f (S) = dim S . Or Im f p+1 = f (Im f p ) = f [(Im f p ∩ Ker f ) ⊕ S] = f (S), donc
rg f p+1 = dim f (S) = dim S = rg f p − dim(Im f p ∩ Ker f ).
L'égalité (∗) entraîne que pour tout p, rg f p+1 ≥ rg f p − r. Ceci entraîne 0 = rg f q ≥
rg f 0 − qr = n − qr, donc q ≥ n/r.
3/ Rappelons que nous avons montré en 1/a) que (Im f p )p∈N décroit strictement puis devient
stationnaire à partir d'un certain rang s (f n'était pas supposé nilpotent dans cette preuve).
Supposons que F et G existent. Soit q l'indice de nilpotence de f|F , de sorte que f q (F ) = 0.
Pour tout p ≥ q on a f p (F ) = f p−q (f q (F )) = 0, et f p (G) = G car f|G est inversible. Comme
F ⊕ G = E , on en déduit que pour tout p ≥ q , Im f p = f p (F ) + f p (G) = G. Ainsi G est
forcément la valeur stationnaire de la suite (Im f p )p∈N , donc G = Im f s et q ≥ s. Par ailleurs
f q (F ) = 0 donc F ⊂ Ker f q . Or n = dim Ker f q + dim Im f q = dim Ker f q + dim G, et comme
n = dim F + dim G on en déduit dim F = dim Ker f q , donc F = Ker f q . Par dénition de s on a
rg f s = rg f q , donc dim Ker f q = n − rg f q = n − rg f s = dim Ker f s et comme Ker f s ⊂ Ker f q
(car si f s (x) = 0, on a f q (x) = f q−s (f s (x)) = 0) on en déduit F = Ker f q = Ker f s . Ainsi si F
et G existent, ils vérient forcément F = Ker f s et G = Im f s , ce qui assure leur unicité.
Réciproquement, dénissons F et G par F = Ker f s et G = Im f s . Il est immédiat que F et
G sont stables par f .
 On a F ∩ G = {0} car si x ∈ F ∩ G, on a f s (x) = 0 et x = f s (y) avec y ∈ E , donc
f 2s (y) = 0. Or Ker f s ⊂ Ker f 2s et dim Ker f s = n − rg f s = n − rg f 2s = dim Ker f 2s ,
donc Ker f 2s = Ker f s . Donc y ∈ Ker f s , donc x = f s (y) = 0. Comme dim F +dim G = n,
on en déduit F ⊕ G = E .
 Par dénition de F = Ker f s , on a f s (F ) = 0 donc f|F est nilpotent.
 Par ailleurs on a Im f s+1 = Im f s , ce qui s'écrit f (G) = G donc f|G est surjective et
comme c'est un endomorphisme en dimension nie, on en déduit que f|G est inversible.
Remarque. En particulier, 2/ montre que si f est nilpotent et si dim Ker f = 1, alors
l'indice de nilpotence de f est q = n.
 Nous avons montré que dans tous les cas, (Im f p )p∈N décroit strictement puis devient
stationnaire à partir d'un certain rang s. L'entier s s'appelle l'indice de f . On montre
facilement que la suite (Ker f p )p∈N croît strictement puis devient stationnaire à partir de
ce même rang s. On retrouve ce résultat dans la dénition 2 page 202
6. PROBLÈMES 157

Problème 3. 1/a) Soit N ∈ Mn (R) une matrice nilpotente ( i. e. il existe p ∈ N∗ tel que
N = 0) d'indice q (i. e. q est le plus petit entier naturel vériant N q = 0). Montrer que
p

In − N est inversible et donner son inverse.


b) (Application). Montrer l'inversibilité et calculer l'inverse de la matrice
 
...
1 −a 0
 . 
 0
M = 1 .. 0 
 ∈ Mn (R).
 . . 
 .. . . −a 
0 ··· 0 1

2/a) Soit N ∈ Mn (R) une matrice nilpotente d'indice 2. Pour tout p ∈ N∗ , calculer
(In + N )p .  
1 1
b) (Application). Soit M = −1 3
∈ M2 (R). Calculer M 100 .

Solution. 1/a) Il sut de remarquer que (In − N )(In + N + · · · + N q−1 ) = In − N q = In , donc


In − N ∈ Gn (R) et (In − N )−1 = In + N + · · · + N q−1 .
 
b) On peut écrire M = In − aN avec N = 00 In−1 0
. Une récurrence facile donne
 
0 In−p
∀p ∈ N∗ , 1 ≤ p ≤ n − 1, N p = et N n = 0.
0 0

En appliquant 1/a), on voit donc que M = In − aN est inversible et que


 
1 a a2 ··· an−1
 ... .. 
 0 1 a . 
 .. ... ... ... 
M −1 = In + aN + a2 N 2 + · · · + an−1 N n−1 = .
 . a2 
 .. ... ... 
 . a 
0 ··· ··· 0 1

2/a) Les matrices In et N commutant, on peut écrire


p  
 p  
    
p p p p
(In + N )p = N k Inp−k = Nk = In + N = In + pN.
k k 0 1
k=0 k=0

 
−1 1
b) Si N =
−1 1
, on a M = 2I2 + N et N 2 = 0, donc d'après la question précédente,
 100  
1 −49 50
M 100 = 2100 I2 + N = 2100 (I2 + 50N ) = 2100 .
2 −50 51

Remarque. Au 1/a), on a forcément q ≤ n. On peut montrer ce résultat sans faire appel


au théorème de Cayley-Hamilton, en procédant comme suit. Soit f l'endomorphisme de
Rn dont N est la matrice dans la base canonique B de Rn . Pour tout entier r, l'égalité
[f r ]B = N r entraîne que les ordres de nilpotence de f et de N sont égaux. Or d'après le
problème précédent, l'ordre r de nilpotence de f est ≤ n, et donc q ≤ n.
 On identie souvent une matrice M ∈ Mn (K) et l'endomorphisme f de Kn dont M est
la matrice dans la base canonique de Kn . Si les vecteurs de Kn sont notés en matrices
colonnes, on a f (X) = M X .
158 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS

Problème 4. Soit E un ensemble et f1 , f2 , . . . , fn n fonctions de E dans K, formant un


système libre dans le K-espace vectoriel des fonctions de E dans K. Démontrer qu'il existe
n points x1 , . . . , xn de E tels que la matrice (fi (xj ))1≤i,j≤n soit inversible :
a) En procédant par récurrence sur n ∈ N∗ .
b) En considérant F = Vect(f1 , . . . , fn ) et si x ∈ E en notant x̃ : F → K f → f (x), en
montrant que ∃x1 , . . . , xn ∈ E tels que x̃1 , . . . , x̃n forment une base de F ∗ , dual de F .

Solution. a) Pour n = 1, c'est évident. Supposons le résultat vrai au rang n − 1 et montrons le


au rang n. On dénit la fonction
 
 f1 (x1 ) · · · f1 (xn−1 ) f1 (x) 
 
 f2 (x1 ) · · · f2 (xn−1 ) f2 (x) 
 
∆:E→K x →  .. .. ..  ,

 . . . 
 fn (x1 ) · · · fn (xn−1 ) fn (x) 

x1 , . . . , xn−1 étant pris tels que det(fi (xj ))1≤i,j≤n−1 = 0. En notant, pour tout i, ∆i le mineur
de l'élément fi (x) de ∆, on a, en développant ∆(x) par rapport à la dernière colonne :
n

∀x ∈ E, ∆(x) = (−1)n+i ∆i · fi (x).
i=1

Or ∆n = 0, et comme les (fi ) forment une famille libre, on ne peut avoir ni=1 (−1)n+i ∆i fi (x) = 0
pour tout x, donc ∃xn ∈ E, ∆(xn ) = 0, de sorte que (fi (xj ))1≤i,j≤n est inversible.
b) Pour tout x ∈ E , l'application x̃ : F → K f → f (x) est un élément de F ∗ . Soit Γ =
{x̃ | x ∈ E}. L'orthogonal de Γ dans F est :

Γ◦ = {f ∈ F | ∀x ∈ E, x̃(f ) = 0} = {f ∈ F | ∀x ∈ E, f (x) = 0} = {0}.

Soit G = Vect(Γ). On a G◦ = Γ◦ = {0} donc dim G = dim F − dim G◦ = dim F = n, et comme


G ⊂ F ∗ on en déduit G = F ∗   Donc il existe x1 , . . . , xn ∈ E tels que (
= Vect(Γ). n ) soit
x1 , . . . , x
j (f1 )
x
une base de F ∗ . Les vecteurs .. pour 1 ≤ j ≤ n sont donc linéairement indépendants, ce
.
j (fn )
x
qui revient à dire que la matrice A = [xj (fi )]1≤i,j≤n = [fi (xj )]1≤i,j≤n est inversible.

Problème 5. Soit n ∈ N∗ et α1 < . . . < αn des entiers naturels. On considère des


nombres réels x1 , . . . , xn deux à deux distincts et strictements positifs. Montrer que la
matrice M = (xαi j )1≤i,j≤n ∈ Mn (R) est inversible (indication : commencer par le cas
αk = k − 1 sans utiliser le déterminant de Vandermonde).

Solution. On traite déja le cas particulier αj = j −1. On prouve l'inversibilité de M (sans utiliser
l'expression du déterminant de Vandermonde qui permet d'armer que det M = 0 dès que les
xi sont distincts), en remarquant que pour tout vecteur colonne A = (ai )1≤i≤n de Rn , on a
    
1 x1 · · · xn−1
1 a1 P (x1 )
.  . 
M A =  ... ... .. 

.   ..  =  ..  , P (X) = a1 + a2 X + · · · + an X n−1 .
1 x n · · · xnn−1 an P (xn )

Si M A = 0 on a donc P (xi ) = 0 pour 1 ≤ i ≤ n. Or les xi sont distincts et deg P < n on a donc


P = 0, donc A = 0. Ainsi M est bien inversible (ici l'hypothèse xi > 0 est inutile).
Traitons maintenant le cas général. On va utiliser la même approche, mais c'est moins im-
médiat car le degré de P n'est pas forcément < n. De manière similaire au cas Vandermonde,
6. PROBLÈMES 159

pour tout vecteur colonne A = (ai )1≤i≤n de Rn , on a


    
xα1 1 ··· xα1 n a1 P (x1 )
M A =  ... ..   ..  =  ..
 
.  .   . , P (X) = a1 X α1 + a2 X α2 + · · · + an X αn . (∗)
xαn1 ··· xαnn an P (xn )
Le résultat va alors découler du lemme suivant :
Lemme. Soit n ∈ N∗ et P ∈ R[X] ayant au plus n coecients non nuls, qui
s'annule en n nombres réels distincts strictement positifs. Alors P = 0.
Nous prouvons ce lemme en procédant par récurrence sur n. Pour n = 1 c'est immédiat.
Supposons le résultat vrai pour n − 1 et montrons le au rang n. Notons 0 < x1 < . . . < xn
des nombres réels tels que P (xi ) = 0pour 1 ≤ i ≤ n, où P est un polynôme ayant au plus n
coecientsnon nuls. Écrivons P = n i=1 ai X ou 0αi≤
n αi α1 < . . . < αn . On a P = X α1 Q où
n
Q = a1 + i=2 ai X α i −α 1 , et Q = i=2 (αi − α1 )ai X
 −α 1 , donc Q a au plus n − 1 coecients
non nuls. Par ailleurs, Q(xi ) = 0 pour 1 ≤ i ≤ n donc d'après le théorème de Rolle, Q s'annule
sur chaque intervalle ouvert ]xi , xi+1 [ pour 1 ≤ i ≤ n − 1, donc s'annule en n − 1 nombres réels
> 0 distincts. Les hypothèses de récurrence appliquées à Q sont vériées, et on en déduit Q = 0.
Donc P = a1 X1α1 , et comme P (x1 ) = 0 on a forcément a1 = 0. Le lemme  est donc prouvé.
Supposons maintenant M A = 0. La formule (*) montre que P = ni=1 ai X αi s'annule sur les
n points distincts x1 , . . . , xn qui sont > 0, on peut donc appliquer le lemme qui entraîne P = 0,
donc A = 0. Donc M est inversible.
Remarque. Sans l'hypothèse xi > 0 pour 1 ≤ i ≤ n, le résultat est faux, comme le montre
le contre-exemple n = 2, (α1 , α2 ) = (0, 2) et (x1 , x2 ) = (−1, 1).

Problème 6 (Identité de Jacobi, identité de Sylvester). 1/ (Identité de Jacobi)


a) Soit A ∈ Gn (K). On note T = A−1 et on considère l'écriture par blocs
   
B C W X
A= et T = avec B, W ∈ Mr (K),
D E Y Z
où r vérie 1 ≤ r < n. Montrer que (det A)(det W ) = det E .
b) Soient I et J deux sous-ensembles de {1, . . . , n} de même cardinal r et A = (ai,j ) ∈
Mn (K). On note AI,J = (ai,j )i∈I,j∈J la matrice de Mr (K) obtenue à partir de A en ne
conservant que les lignes d'indice i ∈ I et les colonnes d'indice j ∈ J . Si A ∈ Gn (C) et
T = A−1 , montrer que
 
(det A)(det TJ,I ) = (−1)S(I,J) (det AI ∗ ,J ∗ ), avec S(I, J) = i+ j,
i∈I j∈J

où I ∗ et J ∗ sont les complémentaires de I et J dans {1, . . . , n}.


2/ (Identité de Sylvester.) Soit A = (ai,j ) ∈ Mn (K) et A = (Ai,j ) sa comatrice. Soient I
et J deux sous-ensembles de {1, . . . , n} de r éléments, avec 1 ≤ r < n. Montrer
ΓI,J = (−1)S(I,J) · ∆I,J · (det A)r−1
où ΓI,J = det(A)
 I,J = det(Ai,j )i∈I,j∈J et où ∆I,J = det AI ∗ ,J ∗ = det(ai,j )i∈I,j∈J .

Solution. a) En écrivant par blocs l'égalité AT = In puis en considérant les blocs à gauche on
obtient BW + CY = Ir et DW + EY = 0. On en déduit
      
B C W 0 BW + CY C Ir C
= =
D E Y In−r DW + EY E 0 E
et en prenant le déterminant on a donc (det A)(det W ) = det E .
160 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS

b) L'idée est de se ramener au cas précédent (qui correspond au cas où I = J = {1, . . . , r}) par
permutation des indices. Considérons l'endomorphisme f de Kn dont A est la matrice dans la
base canonique B = (e1 , . . . , en ) de Kn . Notons i1 < . . . < ir les éléments de I et k1 < . . . < kn−r
ceux de I ∗ , j1 < . . . < jr les éléments de J et 1 < . . . < n−r ceux de J ∗ . Considérons les bases
BI = (ei1 , . . . , eir , ek1 , . . . , ekn−r ) et BJ = (ej1 , . . . , ejr , e1 , . . . , en−r ). La matrice de f dans les
B C
bases BI et BJ s'écrit sous la forme par blocs [f ]B BI = D E , où E = AI ,J . De même on peut
J
∗ ∗
W X 
écrire [f ]BJ = Y Z , avec W = TJ,I . La matrice [f ]BI est inversible, d'inverse [f −1 ]B
−1 BI BJ
BJ . On
I

peut donc appliquer le résultat de la question précédente, qui donne (det[f ]BI )(det W ) = det E . BJ

Si PI (resp. PJ ) désigne la matrice de passage de la base B à la base BI (resp. BJ ), on a


BI = PJ API , et donc
[f ]B J −1

(det PJ−1 )(det A)(det PI )(det TJ,I ) = det AI ∗ ,J ∗ . (∗)

Il reste à calculer det PI et det PJ . La matrice PI est obtenue à partir de In en eectuant sur
les colonnes la permutation σ dénie par σ(is ) = s pour 1 ≤ s ≤ r et σ(ks ) = r + s pour
1 ≤ s ≤ n − r. On a donc det PI = ε(σ) det In = ε(σ), où ε(σ) est la signature de σ . En notant
C(i, j) le cycle (i, i + 1, . . . , j), un peu d'attention montre que σ = C(r, ir ) · · · C(2, i2 )C(1, i1 ).
On a donc
r
 r

det PI = ε(σ) = ε(C(s, is )) = (−1)is −s .
s=1 s=1
r
De même on trouve det PJ = s=1 (−1)
js −s . Avec (∗) on en déduit nalement

(det A)(det TJ,I ) = (det Pj )(det PI )−1 (det AI ∗ ,J ∗ )


r

= (−1)is +js −2s det AI ∗ ,J ∗ = (−1)S(I,J) det AI ∗ ,J ∗ .
s=1

2/ Remarquons que le cas r = 1 est une conséquence immédiate de la dénition des cofacteurs
de A. Supposons donc 2 ≤ r ≤ n − 1.
Lorsque det A = 0, la comatrice de A est de rang 0 ou 1 (voir l'exercice 11 page 152), donc
comme r ≥ 2, on a ΓI,J = 0, donc l'identité souhaitée est bien vériée.
Supposons maintenant det A = 0. L'égalité A = (det A) tT avec T = A−1 montre que
 I,J = (det A)TJ,I , donc ΓI,J = (det A)r det TJ,I . On conclue aisément car d'après le résul-
(A)
tat de la question 1/b), on a (det A) det TJ,I = (−1)S(I,J) ∆I,J .

Problème 7. a) Soit M ∈ Mn (C). Montrer l'équivalence

(M ∈ Gn (C)) ⇐⇒ ((∃P ∈ Gn (C)), ∀λ ∈ C, P − λM ∈ Gn (C)).

b) Soit ϕ ∈ L(Mn (C)) telle que

∀M ∈ Gn (C), ϕ(M ) ∈ Gn (C).

Montrer que si ϕ(M ) ∈ Gn (C), alors M ∈ Gn (C).

Solution. a) Condition nécessaire.


 Supposons M non inversible. Si r = rg M , on sait que M est
équivalente à la matrice Kr = Ir 0
0 0 , autrement dit il existe A, B ∈ Gn (C) tels que M = AKr B .
6. PROBLÈMES 161

 
Posons J = 0 1
In−1 0 ∈ Gn (C). Pour tout λ ∈ C on a
  
−λ 0 · · · ··· 0 1 


 ... ... 
 1 0  r lignes

 ... .. 
 


 0 −λ 0 . 
J − λKr =  . ... ..  . (∗)
 .. 1 0 . 
 
 .
 .. ... ... . . . .. 
. 
0 ··· ··· 0 1 0
Le rang d'une matrice reste inchangé lorsque l'on ajoute à une ligne une combinaison linéaire
des autres. En ajoutant à la r-ième ligne dans (∗) λ fois la suivante, on fait disparaître le −λ se
trouvant à la position (r, r). En itérant ainsi le procédé aux lignes d'indice r − 1, . . . , 1, on fait
disparaître tous les −λ, de sorte que rg(J − λKr ) = rg J = n. Ainsi, J − λKr ∈ Gn (C), donc
A(J − λKr )B = P − λM (avec P = AJB ∈ Gn (C)) est inversible pour tout λ ∈ C, d'où la
condition nécessaire.
Condition susante. Raisonnons par l'absurde et supposons M inversible. Si Q = M −1 P , on a
∀λ ∈ C, det(P − λM ) = (det M )(det(Q − λIn )) = 0
donc det(Q−λIn ) = 0 pour tout λ ∈ C. Ceci est impossible puisque det(Q−λIn ) est un polynôme
de degré n en λ (c'est le polynôme caractéristique de Q) donc s'annule au moins une fois sur C.
D'où la condition susante.
b) Raisonnons par l'absurde en supposant M ∈ Gn (C). D'après la question précédente, il existe
P ∈ Gn (C) telle que pour tout λ ∈ C, P − λM ∈ Gn (C). En vertu de l'hypothèse faite sur ϕ
et de la linéarité de ϕ, ceci entraîne
∀λ ∈ C, ϕ(P ) − λϕ(M ) ∈ Gn (C),
donc d'après la question précédente, ϕ(M ) ∈ Gn (C), ce qui est contradictoire. Finalement, on
a M ∈ Gn (C).

Problème 8. Soit A = (ai,j )1≤i,j≤n ∈ Mn (R).


1/ Soit ψ : N∗ → R une fonction. Si pour tout (i, j),

ai,j = ψ(k),
k|i et k|j

montrer que det A = ψ(1)ψ(2) · · · ψ(n).


2/ (Applications). Calculer det A si
a) ai,j est le nombre de diviseurs communs à i et à j .
b) ai,j est la somme des diviseurs communs à i et à j .
c) ai,j = i ∧ j = pgcd(i, j).
Solution. 1/ On dénit la matrice B = (bi,j )1≤i,j≤n par bi,j = 1 si i | j , bi,j = 0 si i  j . Elle est
triangulaire supérieure et n'a que des 1 sur la diagonale principale, donc det B = 1. On dénit
aussi la matrice C = (ci,j )1≤i,j≤n comme étant une matrice diagonale avec ci,i = ψ(i). On pose
maintenant D = tBCB = (di,j )1≤i,j≤n . Pour tout (i, j), on a
  
di,j = bk,i ck, b,j = bk,i ψ(k)bk,j = ψ(k) = ai,j .
k, k k|i et k|j

Donc D = A = tBCB , et donc det A = det( tB) · det C · det B = det C . Le déterminant de la
matrice diagonale C est le produit de ses coecients diagonaux, donc det A = ψ(1) · · · ψ(n).
2/ a) Il sut d'appliquer 1/ avec ψ(k) = 1. On en tire det A = 1.
162 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS

b) On applique cette fois ci 1/ avec ψ(k) = k, et on en tire det A = n!.


c) Remarquons d'abord que l'on a l'équivalence
(k | i et k | j) ⇐⇒ (k | pgcd(i, j)).

Rappelons que ϕ, l'indicateur d'Euler, possède la propriété suivante : pour tout m, k|m ϕ(k) =
m (voir la proposition 6 page 34). On a donc
 
ai,j = pgcd(i, j) = ϕ(k) = ϕ(k)
k|pgcd(i,j) k|i et k|j

et d'après 1/ appliqué à ψ = ϕ, on a det A = ϕ(1) · · · ϕ(n).

Problème 9. Soient n ≥ 2 un entier et K un corps commutatif. Montrer que tout


hyperplan de Mn (K) contient au moins une matrice inversible.
Solution. Soit H un hyperplan de Mn (K). Il existe une forme linéaire non nulle ϕ de (Mn (K))∗
telle que H = Ker ϕ. D'après l'exercice 3 de la partie 4.6 (page 138), il existe une matrice
A ∈ Mn (K) telle que ϕ(M ) = tr(AM ) pour tout M ∈ Mn (R). Comme ϕ = 0, on a A = 0.
Finalement, H = Ker ϕ = {M ∈ Mn (R) | tr(AM ) = 0}. Il s'agit donc de montrer que
(∀A ∈ Mn (R), A = 0, ∃M ∈ Gn (K)), tr(AM ) = 0. (∗)
On se place dans un cas où A est plus simple.
  En posant r = rg(A) ≥ 1 (car A = 0), on sait
que A est équivalente à la matrice par bloc I0r 00 (voir le théorème 1 page 128), c'est-à-dire
 
Ir 0
∃P, Q ∈ Gn (K) tels que P AQ = Jr avec Jr = .
0 0
Fixons une matrice inversible
 M n'ayant que des 0 sur sa diagonale principale (onpeut prendre

par exemple M = 01 In−10
). En écrivant la matrice M sous forme de blocs M = A r Br
C r D r
, avec
Ar ∈ Mr (K), on a  
Ar Br
Jr M = ,
0 0
ce qui montre que, comme M , la matrice Jr M n'a que des 0 sur sa diagonale principale. Ainsi,
tr(Jr M ) = 0. En posant N = QM P ∈ Gn (K), on a M = Q−1 N P −1 et
   
0 = tr(Jr M ) = tr (P AQ)(Q−1 N P −1 ) = tr P (AN )P −1 = tr(AN )
(deux matrices semblables ont même trace), d'où le résultat d'après (∗).
Remarque. Le problème suivant montre un résultat plus fort qui entraîne que la dimension
maximale d'un sous-espace de Mn (K) ne contenant aucune matrice inversible est n(n−1).

Problème 10. Soit n ∈ N∗ , n ≥ 2, et K un corps commutatif inni. Soit V un sous-


espace vectoriel non nul de Mn (K), tel que p = max{rg M | M ∈ V } vérie p < n. On
veut montrer que dim V ≤ np.  
1/ Montrer qu'on peut se ramener au cas où la matrice J = I0p 00 appartient à V . On
suppose ceci vérié dans la suite. Montrer que toute matrice M de V s'écrit sous la forme
 
A C
M= avec A ∈ Mp (K), B ∈ Mn−p,p (K), C ∈ Mp,n−p (K) et BC = 0.
B 0
On note alors A = a(M ), B = b(M ) et C = c(M ).
2/a) Soit M ∈ V telle que c(M ) = 0. Montrer que E ⊂ Ker b(M ), où E est le s.e.v de
6. PROBLÈMES 163

Kp déni par E = ∪N ∈V Im c(N ).


b) On note r = dim E et on considère une base (e1 , . . . , er ) de E , complétée en une base
(e1 , . . . , ep ) de Kp . Montrer que l'application dénie sur V par
 
A C
Φ :M = → (A, Ber+1 , . . . , Bep , C)
B 0
(où A = a(M ), B = b(M ) et C = c(M )) est injective et en déduire que dim V ≤ np.
Solution. 1/ Par dénition de p, il existe une matrice M ∈ V telle que rg M = p. La matrice M
est donc équivalente à J , de sorte qu'il existe deux matrices P, Q ∈ Gn (K) telles que P M Q = J .
L'application Mn (K) → Mn (K) M → P M Q est un isomorphisme, il est donc équivalent de
montrer que W = P V Q, s.e.v de Mn (K) qui contient J , vérie dim W ≤ np. On peut donc
supposer J ∈ V .  
A C
Soit M ∈ V , M = son écriture par blocs avec A ∈ Mp (K). Comme V est un
B D
sous-espace vectoriel, pour tout λ ∈ K on a M + λJ ∈ V , donc rg(M + λJ) ≤ p. Soient i, j tels
que 1 ≤ i, j ≤ n − p. En restreignant la matrice M + λJ aux indices de lignes 1, . . . , p, p + i et
de colonnes 1, . . . , p,p + j , on obtient
 une matrice extraite Rλ de M de taille p + 1 qui s'écrit
A + λIp Cj
sous la forme Rλ = où Bi est la i-ième ligne de B , Cj la j -ième colonne de C ,
Bi di,j
et di,j le coecient d'indice (i, j) de D. Pour tout λ ∈ K, rg Rλ ≤ p donc det Rλ = 0. Or det Rλ
est un polynôme en λ ; il s'annule en une innité de valeurs, donc ses coecients sont nuls. En
particulier son coecient dominant, égal à di,j , est nul, donc D = 0. Calculons le coecient de
λp−1 de det Rλ . Notons rk, les coecients de Rλ et utilisons l'expression
 p+1

det Rλ = Πσ , Πσ = rk,σ(k) . (∗)
σ∈Sp+1 k=1

Les seuls coecients de Rλ qui contiennent λ sont les rk,k avec k ≤ p, donc le degré (en λ) de Πσ
est inférieur à fσ = |{k ≤ p | σ(k) = k}|. Ainsi, les termes de la somme (*) qui contribuent au
coecient de λp−1 dans det Rλ sont ceux pour lequels fσ ≥ p − 1. Lorsque fσ = p, on a forcément
σ(p + 1) = p + 1 donc Πσ = 0 puisqu'il contient le terme rp+1,p+1 qui est nul (vu plus haut).
Les permutations σ vériant fσ = p − 1, sont les transpositions de la forme σ = τk,p+1 où k ≤ p,
et dans ce cas le coecient de λp−1 dans Πσ est égal à rk,p+1 rp+1,k . Le coecient de λp−1 dans
det Rλ est donc égal à
p

det Rλ = rk,p+1 rp+1,k = Bi Cj .
k=1
Donc Bi Cj = 0, et vu que Bi Cj est le coecient d'indice (i, j) de BC , on en déduit BC = 0.
2/a) Pour toute matrice N ∈ V , on a M + N ∈ V , donc d'après le résultat précédent 0 =
b(M + N )c(M + N ), ce qui entraîne 0 = (b(M ) + b(N ))c(N ) = b(M )c(N ). Ainsi pour tout
N ∈ V on a Im c(N ) ⊂ Ker b(M ). On en déduit le résultat.
 
A C
b) Supposons Φ(M ) = 0 avec M =
B 0
∈ V . Alors A = 0 et C = 0. On a aussi Bek = 0
pour r < k ≤ p, et d'après la question précédente on a Bek = 0 pour k ≤ r. Donc B s'annule
sur la base (e1 , . . . , ep ), donc B = 0. L'application linéaire Φ vérie donc Ker Φ = {0}.
L'image de Φ est incluse dans Mp (K) × (Kn−p )p−r × U , où U = {c(M ) | M ∈ V }. Or pour
tout M ∈ V , on a Im c(N ) ⊂ E , donc le s.e.v. U est inclus (à un isomorphisme près) dans
L(Kn−p , E). On en déduit dim U ≤ (n − p)r et
dim Im Φ ≤ dim Mp (K) + (n − p)(p − r) + dim U ≤ p2 + (n − p)(p − r) + (n − p)r = np.
On conclut en écrivant dim V = dim Ker Φ + dim Im Φ = dim Im Φ.
Remarque. L'égalité peut avoir lieu, par exemple le s.e.v V des matrices dont les n − p
dernières lignes sont nulles, vérie dim V = np, et on a max{rg M, M ∈ V } = p.
164 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS

Problème 11. Soit n ∈ N∗ et une application p : Mn (C) → R+ vériant


(i) ∀A ∈ Mn (C), ∀λ ∈ C, p(λA) ≤ |λ| p(A).
(ii) ∀A, B ∈ Mn (C), p(A + B) ≤ p(A) + p(B).
(iii) ∀A, B ∈ Mn (C), p(AB) ≤ p(A)p(B).
Montrer que p = 0 ou que p est une norme sur Mn (C).
Solution. Commençons par remarquer que d'après (i),
   
1  1 
∀λ ∈ C∗ , ∀A ∈ Mn (C), p(λA) ≤ |λ| p(A) = |λ| p (λA) ≤ |λ| ·  p(λA) = p(λA),
λ λ
ce qui entraîne p(λA) = |λ| p(A) pour tout λ ∈ C.
Supposons p = 0. Pour montrer que p est une norme, il nous reste à prouver que p(A) = 0
implique A = 0. Pour cela, raisonnons par l'absurde en supposant
 p(A) = 0 et A = 0. Si
r = rg A > 0, on sait A est équivalente à la matrice Jr = I0r 00 de sorte qu'il existe P, Q ∈ Gn (C)
telles que Jr = P AQ. D'après la propriété (iii), on a p(Jr ) = p(P AQ) ≤ p(P )p(A)p(Q) = 0, donc
p(Jr ) = 0. La propriété (iii) appliquée à l'égalité J1 = J1 Jr donne p(J1 ) ≤ p(J1 )p(Jr ) = 0, donc
p(J1 ) = 0. Désignons par Di la matrice dont tous les coecients sont nuls sauf celui d'indice (i, i)
qui vaut 1. La matrice Di est de rang 1, donc équivalente à la matrice J1 , et comme p(J1 ) = 0,
un raisonnement similaire au précédent donne p(Di ) = 0. Maintenant, l'assertion (ii) entraîne
p(In ) = p(D1 + · · · + Dn ) ≤ p(D1 ) + · · · + p(Dn ) = 0.
Donc pour toute matrice A, p(A) = p(AIn ) ≤ p(A)p(In ) = 0 donc p(A) = 0. Ainsi p = 0, ce qui
est contraire aux hypothèses que nous avons faites. Finalement, on a montré que p = 0 ou que p
est une norme sur Mn (C).

Problème 12. Soit n ∈ N∗ et p un nombre premier.


1/ Montrer que pour A, B ∈ Mn (Z), on a tr(A + B)p ≡ tr Ap + tr B p (mod p).
2/ Montrer que pour tout A ∈ Mn (Z), tr Ap ≡ tr A (mod p).
Solution. 1/ Lorsque A et B commutent, la preuve est facile à partir de la linéarité de la trace,
en écrivant
p−1  
 p
(A + B)p = Ap + B p + Ak B p−k ,
k
k=1
 
et en remarquant que pour 1 ≤ k ≤ p − 1 on a p | kp , et que tr(Ak B p−k ) est un nombre entier.
Dans le cas général, on écrit
 
tr(A + B)p = tr(M1 M2 · · · Mp ) = T (x) (∗)
(M1 ,...,Mp )∈{A,B}p x∈{A,B}p

où pour x = (M1 , . . . , Mp ), nous avons noté T (x) = tr(M1 · · · Mp ) On regroupe les termes iden-
tiques de cette expression. L'identité tr(P Q) = tr(QP ) appliquée à P = M1 et Q = M2 · · · Mp
donne tr(M1 M2 · · · Mp ) = tr(M2 · · · Mp M1 ). En notant σ(M1 , . . . , Mp ) = (Mσ(1) , . . . , Mσ(p) )
pour σ ∈ Sp et en notant G le sous-groupe de Sp engendré par le cycle γ = (1, 2, . . . , p), on a
ainsi T (σ(x)) = T (x) pour tout σ ∈ G (on fait ainsi opérer G sur {A, B}p , voir la section 2.4
page 23). Les orbites Ox = {σ(x), σ ∈ G} de x ∈ {A, B}p ont pour cardinal un nombre qui divise
|G| = p, donc contiennent p éléments sauf lorsque x = (A, . . . , A) ou x = (B, . . . , B). Soit Θ une
partie de {A, B}p contenant exactement un représentant des classes d'intransitivité (dénie par
xRy ⇐⇒ y ∈ Ox ), et Θ∗ = Θ  {(A, . . . , A), (B, . . . , B)}. L'égalité (*) s'écrit
  
tr(A + B)p = T (y) = tr Ap + tr B p + |Ox | T (x) ≡ tr Ap + tr B p (mod p)
x∈Θ y∈Ox x∈Θ∗

car pour tout x ∈ Θ∗ on a |Ox | = p.


6. PROBLÈMES 165

2/ On va montrer que l'ensemble Γ = {A ∈ Mn (Z) | tr(Ap ) ≡ tr(A) (mod p)} est égal à Mn (Z).
Notons Ei,j la matrice de la base canonique de Mn (R) dont tous les coecients sont nuls sauf
celui d'indice (i, j) qui vaut 1. Pour tout i on a Ei,i
p
= Ei,i donc Ei,i ∈ Γ. Si i = j on a Ei,j
p
=0
et tr Ei,j = 0 donc Ei,j ∈ Γ. Si A ∈ Γ, on a kA ∈ Γ pour tout k ∈ Z, car la propriété kp ≡ k
(mod p) entraîne tr(kA)p = k p tr Ap ≡ k tr Ap ≡ k tr A (mod p). La question 1/ montre qu'une
somme de deux éléments de Γ est encore dans Γ, et par récurrence sur le nombre de termes
de la somme on en déduit que toute somme  nie d'éléments de Γ est dans Γ. Toute matrice
A ∈ Mn (Z) s'écrit sous la forme A = i,j ai,j Ei,j avec ai,j ∈ Z on en déduit donc que A ∈ Γ
pour tout A ∈ Mn (Z).
Remarque. On peut aussi prouver 2/ en trigonalisant A (en se plaçant dans le corps des
racines de son polynôme caractéristique), puis en utilisant la propriété (λ1 + · · · + λn )p =
λp1 + · · · + λpn , vraie dans un corps de caractéristique p. 1/ en découle ensuite facilement.

Problème 13 (Matrices de transvection). On se xe un entier naturel non nul n


et on note Sn (K) = {M ∈ Mn (K) | det M = 1}. Pour i, j ∈ {1, . . . , n}, on note Ei,j la
matrice de Mn (K) dont tous les coecients sont nuls sauf celui d'indice (i, j) qui vaut 1.
On appelle matrices de transvection les matrices de la forme In + λEi,j avec i = j et
λ ∈ K, matrices de dilatation les matrices
 
1 0 ··· 0
 ... ... .. 
 0 . 
Sn (α) =  .. ...  ∈ Mn (K), avec α ∈ K.
 . 1 0 
0 ··· 0 α

1/a) Montrer qu'une matrice de transvection est inversible et que son inverse est aussi
une matrice de transvection.
b) Si A ∈ Gn (K), montrer qu'il existe des matrices de transvection B1 , . . . , Bp , B1 , . . . , Bq
telles que A = B1 · · · Bp · Sn (det A) · B1 · · · Bq .
2/ On appelle commutateur toute matrice pouvant se mettre sous la forme ABA−1 B −1
avec A, B ∈ Sn (K). Soit D le sous-groupe de Gn (K) engendré par les commutateurs.
a) Montrer que D = Sn (K) si n ≥ 3.
b) Montrer que D = Sn (K) si n = 2 et Card(K) ≥ 4.
3/ On suppose Card(K) ≥ 4 et n ≥ 2. Soit ϕ un morphisme de groupe de Gn (K) dans
un groupe commutatif G.
a) Montrer qu'il existe un morphisme de groupes g : K∗ → G tel que ϕ = g ◦ det.
b) Si G = K∗ et K est ni, montrer qu'il existe p ∈ N tel que pour tout A ∈ Gn (K),
ϕ(A) = (det A)p (on pourra utiliser le fait que (K∗ , ·) est cyclique, voir la remarque de
l'exercice 10 page 28).

Solution. 1/a) Il sut de remarquer que lorsque i = j , Ei,j


2 = 0. Ainsi, E
i,j est une matrice
nilpotente d'indice 2, donc (In +λEi,j )(In −λEi,j ) = In −λ Ei,j = In . La matrice de transvection
2 2

In + λEi,j est donc inversible, et son inverse est la matrice de transvection In − λEi,j .
b) Soit M ∈ Gn (K). Si i = j , on remarque que
(i) (In + λEi,j )M se déduit de M en ajoutant à la i-ième ligne de M λ fois la j -ième,
(ii) M (In + λEi,j ) se déduit de M en ajoutant à la j -ième colonne de M λ fois la i-ième.
Ceci étant, on va maintenant prouver le résultat par récurrence sur n ∈ N∗ . Pour n = 1, c'est
évident car A = (det A). Supposons le résultat vrai au rang n − 1 et montrons le au rang n. Soit
A ∈ Gn (K). Comme A est inversible, la première colonne de A est non nulle. Il existe donc une
166 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS

matrice de transvection T1 = In + λE2,j telle que le coecient d'indice (2, 1) de T1 A soit non
nul. On voit alors qu'il existe µ tel que si T2 = In + µE1,2 , alors T2 T1 A ait son coecient d'indice
(1, 1) égal à 1. D'après (i), on voit maintenant que l'on peut trouver des matrices de transvection
B1 , . . . , Bp (de la forme In + λEi,1 ) telles que
 
1 × ··· ×
 0 × ··· × 
 
(B1 · · · Bp )(T1 T2 A) =  . . ..  ,
 .. .. . 
0 × ··· ×
puis d'après (ii), on voit que l'on peut trouver des matrices de transvection B1 , . . . , Bq (de la
forme In + λE1,j ) telles que
 
1 0 ··· 0
 0 
(B1 · · · Bp T1 T2 A)(B1 · · · Bq ) = A avec A = 
 ..

.
 . B 
0
Or det A = det B donc d'après l'hypothèse de récurrence, il existe des matrices de transvection
C1 , . . . , Cr et C1 , . . . , Cs de Mn−1 (K) telles que
B = C1 · · · Cr · Sn−1 (det A) · C1 · · · Cs .
Les matrices    
1 0 ··· 0 1 0 ··· 0
 0   0 
   
Di =  .  et Dj =  .. 
 .. Ci   . Cj 
0 0
sont des matrices de transvection de Mn (K), et on a
A = D1 · · · Dr · Sn (det A) · D1 · · · Ds
et donc
A = (T2−1 T1−1 )(Bp−1 · B1−1 )(D1 · · · Dr ) · Sn (det A) · (D1 · · · Ds )(Bq )−1 · · · (B1 )−1 ,
d'où le résultat puisque l'on a vu plus haut que l'inverse d'une matrice de transvection est une
matrice de transvection.
2/a) Tout d'abord, tout commutateur ABA−1 B −1 est dans Sn (K) puisque det(ABA−1 B −1 ) =
(det A)(det B)(det A−1 )(det B −1 ) = 1. On en déduit donc D ⊂ Sn (K).
Montrons maintenant que Sn (K) ⊂ D. Soit M ∈ Sn (K). D'après la question précédente, M
est le produit de matrices de transvection, et D étant un groupe, il sut donc de montrer que les
matrices de transvection sont des commutateurs pour montrer que M ∈ D. Soit T = In + λEi,j
avec i = j une matrice de transvection. Comme n ≥ 3, il existe k ∈ {1, . . . , n} tel que k ∈ {i, j}.
On remarque alors que
T = (In + λEi,k )(In + Ek,j )(In − λEi,k )(In − Ek,j )
et comme In − λEi,k = (In + λEi,k )−1 et In − Ek,j = (In + Ek,j )−1 , on en déduit que T est un
commutateur, d'où le résultat.
b) Remarquons tout d'abord que si (α, β) ∈ K × K∗ ,
      
β 0 1 α β −1 0 1 −α 1 α(β 2 − 1)
= . (∗)
0 β −1 0 1 0 β 0 1 0 1
On choisit maintenant β tel que β 2 − 1 = 0 et β = 0 (c'est possible car Card(K∗ ) ≥ 3 et
l'équation polynomiale β 2 − 1 = 0 a au plus deux racines dans K). La relation (∗) prouve alors
que toute matrice du type ( 10 a1 ) est un commutateur. De même, on montrerait que toute matrice
du type ( a1 01 ) est un commutateur. Autrement dit, toutes les matrices de transvection sont des
commutateurs, et comme à la question précédente, ceci sut pour conclure que D = Sn (K).
6. PROBLÈMES 167

3/a) Notons e l'élément neutre de G. Si M = ABA−1 B −1 ∈ Gn (K) est un commutateur, alors
ϕ(M ) = ϕ(A)ϕ(B)ϕ(A−1 )ϕ(B −1 )
et le groupe G étant commutatif,
ϕ(M ) = ϕ(A)ϕ(A−1 )ϕ(B)ϕ(B −1 ) = ϕ(AA−1 )ϕ(BB −1 ) = ϕ(In )2 = e.
Comme D = Sn (K) est engendré par les commutateurs, on en déduit que tout élément M ∈
Sn (K) vérie ϕ(M ) = e.
Ceci étant, soit A ∈ Gn (K). Soit A ∈ Gn (K) telle que A = A Sn (det A). On a det A =
det A · det(Sn (det A)) donc det A = 1 car det(Sn (det A)) = det A = 0. Autrement dit, A ∈
Sn (K) et donc ϕ(A ) = e, d'où on tire ϕ(A) = ϕ(A )ϕ(Sn (det A)) = ϕ(Sn (det A)). Si g : K∗ →
G α → ϕ[Sn (α)], g est un morphisme de groupe de K∗ dans G, et on vient donc de montrer
que ϕ = g ◦ det, d'où le résultat.
b) On recherche la forme de g. Le groupe K∗ est cyclique donc il existe a ∈ K∗ tel que K∗ = a.
En particulier, il existe p ∈ N tel que g(a) = ap . Donc pour tout x ∈ K∗ , x = aq , on a
g(x) = g(aq ) = g(a)q = (ap )q = (aq )p = xp ,
et donc pour tout A ∈ Gn (K), ϕ(A) = g(det A) = (det A)p .

Problème 14. a) Soient A et B ∈ Mn (R) deux matrices semblables sur C (i. e. il existe
P ∈ Gn (C) telle que A = P −1 BP ). Montrer que A et B sont semblables sur R (i. e. il
existe Q ∈ Gn (R), A = Q−1 BQ).
b) Plus généralement, soit K un corps inni et L une extension de K. Soient A et B ∈
Mn (K) deux matrices semblables sur L. Montrer que A et B sont semblables sur K.

Solution. a) Soit P ∈ Gn (C) telle que A = P −1 BP , ou encore P A = BP . Écrivons P = P1 +iP2


avec P1 , P2 ∈ Mn (R). En égalant parties réelles et imaginaires, il vient P1 A = BP1 et P2 A =
BP2 . (∗) On dénit le polynôme ϕ(X) = det(P1 + XP2 ) ∈ R[X]. Comme ϕ(i) = det P = 0,
ϕ est non nul et donc n'a qu'un nombre ni de racines, de sorte qu'il existe x ∈ R tel que
ϕ(x) = 0, c'est-à-dire que Q = P1 + xP2 ∈ Mn (R) est inversible. De (∗) on tire QA = BQ donc
A = Q−1 BQ, d'où le résultat.
b) On procède un peu comme précédemment. Soit P ∈ Gn (L) tel que A = P −1 BP , ou encore
P A = BP . On écrit P = (pi,j )1≤i,j≤n . Le corps L est un K-e.v. Soit E = Vect(pi,j )1≤i,j≤n , s.e.v
de L de dimension nie sur K. Soit (e1 , . . . , ep ) une base de E . Pour tout (i, j) on peut écrire
pi,j = pk=1 pi,j,k ek avec les pi,j,k ∈ K. Pour tout k , on note Pk = (pi,j,k )1≤i,j≤n ∈ Mn (K), de
sorte que P = e1 P1 + · · · + ep Pp . Comme P A = BP , on a pour tout k, 1 ≤ k ≤ p, Pk A =
BPk (∗∗). Posons F (X1 , . . . , Xp ) = det(X1 P1 + · · · + Xp Pp ) ∈ K[X1 , . . . , Xp ]. On a F = 0 car
F (e1 , . . . , ep ) = det(P ) = 0. Or K est un corps inni, donc F ne s'annule pas sur Kp , et donc il
existe (x1 , . . . , xp ) ∈ Kp tel que F (x1 , . . . , xp ) = 0. Si Q = x1 P1 + · · · xp Pp ∈ Mn (K), on a donc
Q ∈ Gn (K) et d'après (∗∗), QA = BQ donc A = Q−1 BQ, d'où le résultat.
Remarque. Le résultat reste vrai lorsque K est un corps ni (voir l'annexe B, page 400).

Problème 15 (Splines cubiques). Soit I = [a, b] un segment de R avec a < b, n ∈ N,


n ≥ 2 et a = x0 < x1 < . . . < xn = b une subdivision de [a, b]. Une fonction s : I → R
est appelée spline cubique si elle est de classe C 2 sur I et si pour tout i (1 ≤ i ≤ n), la
restriction de s à [xi−1 , xi ] est une fonction polynôme de degré ≤ 3.
a) Soit a0 < a1 deux réels, et z0 , z1 , q0 , q1 ∈ R. Montrer l'existence et l'unicité d'un
polynôme H de degré ≤ 3 tel que H(a0 ) = z0 , H  (a0 ) = q0 , H(a1 ) = z1 , H  (a1 ) = q1 , et
expliciter la valeur de H  (a0 ) et H  (a1 ) en fonction de z0 , z1 , q0 , q1 et a1 − a0 .
168 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS

b) On xe dorénavant des nombres réels (yi )0≤i≤n et p0 , pn . On cherche une spline cubique
vériant les trois conditions
(i) ∀i ∈ {0, 1, . . . , n}, s(xi ) = yi (ii) s (a) = p0 (iii) s (b) = pn . (∗)
Soit s une fonction C sur I vériant (∗), et telle que pour i = 1, . . . , n, la restriction si
1

de s à [xi−1 , xi ] soit polynomiale de degré ≤ 3. Exprimer sous forme d'un système linéaire
une condition nécessaire et susante sur les inconnues pi = s (xi ) (1 ≤ i ≤ n − 1) pour
que s soit une spline cubique.
c) Montrer que ce système linéaire est inversible et en déduire l'existence et l'unicité d'une
spline cubique s vériant (∗) (une telle spline est appelée spline scellée).
d) (Théorème de Holladay). On note H2 l'espace vectoriel des fonctions de classe C 1 sur
I et dont la restriction à chaque intervalle [xi−1 , xi ] (1 ≤ i ≤ n) est de classe C 2 . On note
H2∗ l'ensemble des fonctions de H2 vériant les conditions (∗). Montrer qu'il existe une
unique fonction s ∈ H2∗ vériant
 b  b
(s (x))2 dx = inf ∗ (f  (x))2 dx
a f ∈H2 a
et que cette fonction s est la spline scellée vériant les conditions (∗). (Indication : si s
 b  
est la spline scellée vériant (∗), montrer que a s (f − s ) = 0 pour tout f ∈ H2∗ .)
Solution. a) L'existence et l'unicité du polynôme H de degré ≤ 3 vériant ces conditions d'in-
terpolation est une conséquence du résultat de l'exercice 7 page 70. Nous allons retrouver ce
résultat directement, et calculer explicitement H  (a0 ) et H  (a1 ) en fonction de z0 , z1 , q0 , q1 .
Notons m0 = H  (a0 ) et m1 = H  (a1 ). Comme H est polynomiale de degré ≤ 3, H  est une
fonction ane, donc par interpolation linéaire on obtient
m0 m1
H  (x) = (a1 − x) + (x − a0 ), h = a1 − a0 .
h h
Une double intégration de la formule précédente entraîne, après une manipulation simple, l'exis-
tence de α, β ∈ R tels que
m0 m1
H(x) = (a1 − x)3 + (x − a0 )3 + α(a1 − x) + β(x − a0 ).
6h 6h
Les égalités H(a0 ) = z0 et H(a1 ) = z1 donnent les égalités z0 = m60 h2 + αh et z1 = m61 h2 + βh.
On en déduit les valeurs de α et β et après substitution on obtient
   
m0 3 m1 3 z0 m0 h z1 m1 h
H(x) = (a1 − x) + (x − a0 ) + − (a1 − x) + − (x − a0 ). (∗∗)
6h 6h h 6 h 6
En dérivant cette expression, et en substituant x par a0 et a1 , on obtient
m0 m1 z1 − z0 m1 m0 z1 − z0
q0 = H  (a0 ) = − h− h+ , q1 = H  (a1 ) = h+ h+ .
3 6 h 3 6 h
Ceci permet d'obtenir directement les valeurs m0 et m1 sous la forme
H  (a0 ) m0 2q0 + q1 z1 − z0 H  (a1 ) m1 q0 + 2q1 z1 − z0
= =− +3 2
, = = −3 . (∗∗∗)
2 2 h h 2 2 h h2
Ainsi, partant de z0 , z1 , q0 , q1 il y a une et une seule valeur possible pour m0 et m1 , donc on a
bien l'existence et l'unicité de H d'après la formule (∗∗).
b) Soit pi = s (xi ). La restriction si de s à [xi−1 , xi ] est un polynôme de degré ≤ 3 vériant
si (xi−1 ) = yi−1 , si (xi−1 ) = pi−1 , si (xi ) = yi , si (xi ) = pi . D'après le résultat de la question
précédente, si existe et est unique, ce qui dénit s de manière unique dès que s vérie (∗) et
s (xi ) = pi pour i = 1, . . . , n − 1. La seule condition manquante pour que s soit une spline
cubique est qu'elle soit de classe C 2 . Ceci est équivalent à la condition si (xi ) = si+1 (xi ) pour
1 ≤ i ≤ n − 1, ce qui d'après la formule (∗∗∗) s'écrit aussi
pi−1 + 2pi yi − yi−1 2pi + pi+1 yi+1 − yi
−3 2 =− +3 , hi−1 = xi − xi−1 , hi = xi+1 − xi .
hi−1 hi−1 hi h2i
6. PROBLÈMES 169

En résumé, s est une spline cubique si et seulement si le système linéaire suivant est satisfait :
 
pi−1 1 1 pi+1 yi − yi−1 yi+1 − yi
∀i ∈ {1, . . . , n − 1}, + 2pi + + = ci , ci = 3 2 +3 .
hi−1 hi−1 hi hi hi−1 h2i

c) En posant
1 p0 pn
i = et d1 = c1 − , d 2 = c2 , ..., dn−2 = cn−2 , dn−1 = cn−1 −
hi h0 hn−1
le système linéaire précédent s'écrit aussi en fonction des inconnues p1 , . . . , pn−1 sous la forme
    
2(0 + 1 ) 1 0 ··· 0 p1 d1
 ... ..   p2
 1 2(1 + 2 ) 2 .    d2
  .


 ... ...   ..   . 
  . = . .
 0 2 0    . 
 .. ... ... ...   ..   .. 
 . n−2  .
0 ··· 0 n−2 2(n−2 + n−1 ) p n−1 dn−1
Notons M la matrice
 carrée d'ordre n − 1 du membre de gauche de cette égalité. Si M X = 0
x1
avec X = ... , alors si k est tel que |xk | = supi |xi |, la ligne k du système M X = 0 s'écrit
xn−1
k−1 xk−1 + 2(k−1 + k )xk + k xk+1 = 0 (où on pose x0 = xn = 0). Ceci entraîne 2(k−1 + k )xk =
−k−1 xk−1 − k xk+1 donc 2(k−1 + k )|xk | ≤ k−1 |xk−1 | + k |xk+1 | ≤ (k−1 + k )|xk | ce qui n'est
possible que si xk = 0 (nous venons d'utiliser la propriété que M est diagonalement dominante,
voir l'exercice 1 page 129). On en déduit que X = 0, donc que M est inversible, ce qui prouve bien
l'existence et l'unicité des inconnues (pi )1≤i≤n−1 . D'après le résultat de la question précédente,
ceci montre l'existence et l'unicité d'une spline cubique vériant les conditions (∗).
d) Soit s la spline scellée vériant les conditions (∗). Soit f ∈ H2∗ . On note u = f − s. On a
 b  b  b  b
(f  (x))2 dx = (s (x))2 dx + 2 s (x)u (x) dx + (u (x))2 dx. (∗∗∗∗)
a a a a
Sur [xi−1 , xi ], la fonction s est égale à la fonction polynomiale si , sa dérivée troisième y est donc
bien dénie, et on peut écrire l'intégration par partie
 xi  xi
 x
s (x)u (x) dx = s (x)u (x) xi − s (x)u (x) dx.
i−1
xi−1 xi−1

Comme s = si est polynomiale de degré 3 sur [xi−1 , xi ], la fonction s est constante sur cet
intervalle. On peut donc écrire
 xi  xi
 x  x
s (x)u (x) dx = s (x)u (x) xi − s
i (xi ) u (x) dx = s (x)u (x) xi ,
i−1 i−1
xi−1 xi−1

car
 xi comme f et s vérient les conditions (∗), la fonction u = f − s s'annule aux points xi donc
xi−1 u (x) dx = u(xi ) − u(xi−1 ) = 0. En sommant cette relation sur i, on en déduit


 b  b
s (x)u (x) dx = s (x)u (x) a = s (b)u (b) − s (a)u (a) = 0
a
car comme f et s vérie la condition (ii) et (iii) de (∗), on a u (a) = u (b) = 0. Finalement la
formule (∗∗∗∗) s'écrit
 b  b  b
(f  (x))2 dx = (s (x))2 dx + (f  (x) − s (x))2 dx.
a a a
 
On en déduit bien que ab (s (x))2 dx = inf f ∈H2∗ ab (f  (x))2 dx. La fonction s est bien la seule à
atteindre ce minimum. En eet, considérons une autre fonction f ∈ H2∗ qui l'atteint. La formule
  i
précédente entraîne ab (f  (x) − s (x))2 dx = 0, donc xxi−1 (f  (x) − s (x))2 dx = 0 pour tout i.
Donc sur chaque intervalle [xi−1 , xi ], f  − s s'annule donc (f − s) y est ane. Comme de plus
170 3. ALGÈBRE LINÉAIRE : GÉNÉRALITÉS

f et s vérient (∗), f − s s'annule aux extrémités de [xi−1 , xi ] donc f − s = 0 sur [xi−1 , xi ]. On


en déduit f = s, d'où le résultat.
Remarque. On dénit également les splines cubiques dans le plan ou l'espace. Ces der-
nières sont utilisées en conception assistée par ordinateur, pour faire passer une courbe
par des points donnés. Le théorème de Holladay exprime que ces courbes ont la propriété
de minimiser la courbure tout en passant par les points.
 Les splines sont des courbes interpolantes qui oscillent moins que les polynômes d'in-
terpolation de Lagrange, et elles évitent le phénomène de Runge (voir le tome Analyse).
 En remplaçant les conditions (ii) et (iii) de (∗) par s (a) = s (b) = 0, on dénit de
même les splines cubiques naturelles . Les propriétés d'existence et d'unicité, ainsi que le
théorème de Holladay, restent vraies pour les splines naturelles. On peut également dénir
les splines d'ordre quelconque r, lorsque s est polynomiale de degré < r sur [xi−1 , xi ].
Chapitre 4

Réductions d'endomorphismes

L'algèbre linéaire au sens moderne se développe progressivement à partir des


années 1840. Vers 1880, la théorie des systèmes d'équations linéaires généraux
(sur R et C) est enn achevée, ainsi que celle des valeurs propres des matrices
carrées et de la réduction de ces dernières à une forme canonique.
La notion générale de valeur propre d'un endomorphisme apparaît en
fait au dix-huitième siècle, non à propos des transformations linéaires, mais
dans la théorie des systèmes d'équations diérentielles linéaires à coecients
constants, étudiés par Lagrange en 1762. Le théorème de Cayley-Hamilton
apparaît quant à lui dans un mémoire de Cayley en 1858, démontré unique-
ment dans le cas n = 2 et n = 3. Les travaux de Cayley paraissent être
pratiquement ignorés jusque vers 1880 et c'est grâce au développement de la
théorie des formes bilinéaires notamment avec Cauchy, Sylvester, Hermite et
Weierstrass, que l'étude des matrices est remise au goût du jour. Weierstrass
obtient d'ailleurs la réduction dite de Jordan. C'est Frobenius qui, dans plu-
sieurs mémoires publiés entre 1877 et 1880 tiendra le rôle de législateur dans ce
domaine en développant de manière systématique les résultats obtenus, avant
de parvenir à l'axiomatisation de l'algèbre linéaire par Peano en 1888.
Dans tout le chapitre, K désigne un corps commutatif.

1. Diagonalisation, trigonalisation
1.1. Généralités en dimension quelconque
La lettre E désigne un K-e.v de dimension quelconque, f un endomorphisme de E .
Définition 1. Soit α ∈ K. Le scalaire α est dit
(i) Valeur régulière de f si f − α IdE est inversible.
(ii) Valeur spectrale de f si f − α IdE est non inversible.
(iii) Valeur propre de f si f − α IdE est non injective, autrement dit s'il existe x = 0
tel que f (x) = αx, et on dit alors que x est vecteur propre de f attaché à la valeur
propre α.
On appelle spectre de f l'ensemble de ses valeurs spectrales.
Remarque 1.  En dimension nie, (ii) et (iii) sont équivalents.
 0 est valeur propre de f si et seulement si Ker f = {0}.
 Pour une matrice A ∈ Mn (K), on dit que α ∈ K est valeur propre de A s'il existe
un vecteur X = 0 tel que AX = αX . On dit alors que X est vecteur propre de
A attaché à la valeur propre α. Si A est la matrice d'un endomorphisme f , α est
valeur propre de A si et seulement si α est valeur propre de f .
Définition 2. Soit λ une valeur propre de f . L'ensemble Eλ = {x ∈ E | f (x) = λx} =
Ker(f − λ IdE ) est un s.e.v de E stable par f , appelé sous-espace propre de f associé à la
valeur propre λ.
Théorème 1. Soient λ1 , . . . , λk des valeurs propres de f , distinctes deux à deux. Alors
les sous-espaces propres Eλ1 , . . . , Eλk sont en somme directe.
172 4. RÉDUCTIONS D'ENDOMORPHISMES

1.2. Étude en dimension nie


La lettre E désigne désormais un K-e.v de dimension nie n ∈ N∗ .
Polynôme caractéristique.
Définition 3. Soit A ∈ Mn (K). On appelle polynôme caractéristique de A le polynôme
de K[X] déni par PA (X) = det(A − XIn ).
Remarque 2.  Une matrice a même polynôme caractéristique que sa transposée.
 Deux matrices semblables ont même polynôme caractéristique.
 On a PA (0) = det A (i.e. le coecient constant de PA est égal à det A).
Définition 4. Soit f ∈ L(E). Le polynôme caractéristique de la matrice de f dans une
base B de E ne dépend pas de la base B choisie. On l'appelle polynôme caractéristique
de f et on le note Pf .
Remarque 3. Un endomorphisme f ∈ L(E) a même polynôme caractéristique que son
application transposée tf (car [ tf ]B = t[f ]B ).
Proposition 1. λ est valeur propre de f ∈ L(E) si et seulement si Pf (λ) = 0.
Remarque 4. Bien sûr, ce résultat reste vrai pour les matrices. En fait, en dimension nie,
tout ce qui est vrai pour les endomorphismes est vrai pour les matrices et réciproquement
(en eet, toute matrice A ∈ Mn (K) peut s'associer à l'endomorphisme de Kn : X → AX ,
c'est-à-dire l'endomorphisme de Kn dont A est la matrice dans la base canonique de Kn ).
Remarque 5.  Si K est algébriquement clos (par exemple K = C), tout élément
f ∈ L(E) a au moins une valeur propre λ ∈ K.
 Pour montrer que λ est valeur propre d'une matrice A, on peut montrer que rg(A−
λIn ) < n (ce qui est parfois plus simple que de montrer PA (λ) = 0). Par exemple
si n ≥ 2 et  
a 1 ··· 1
. . . . .. 
 1 ..

. 
A= . .  ∈ Mn (R),
 .. . . . . . 1 
1 ··· 1 a
on voit que rg(A − (a − 1)In ) = 1 < n donc a − 1 est valeur propre de A et
dim Ea−1 = n − 1.
 Dans la pratique, pour déterminer Eλ lorsque λ est valeur propre d'une matrice
A = (ai,j )1≤i,j≤n ∈ Mn (K), on résout le système AX = λX qui s'écrit


 (a − λ) x1 + a1,2 x2 + · · · + a1,n xn = 0
 1,1
a2,1 x1 + (a2,2 − λ) x2 + · · · + a2,n xn = 0

 · · · · · · · · · · ··
 an,1 x1 + an,2 x2 + · · · + (an,n − λ) xn = 0
(voir l'exercice 1 page 177).
Coecients du polynôme caractéristique d'une matrice. Soit A ∈ Mn (K). On
peut écrire
 
PA (X) = (−1)n X n − β1 X n−1 + β2 X n−2 + · · · + (−1)n−1 βn−1 X + (−1)n βn ,
où β1 = tr A, βn = det A, et pour tout k , βk est la somme des mineurs principaux de
A d'ordre k (rappelons qu'un mineur principal d'ordre k est un mineur obtenu comme
intersection de k lignes et de k colonnes de même numéros). En particulier, si A désigne
la comatrice de A, βn−1 = tr A.
1. DIAGONALISATION, TRIGONALISATION 173

Proposition 2. Soit f ∈ L(E), F un s.e.v strict de E (i. e. F = E et F = {0}) stable


par f . Soit g = f|F la restriction de f à F . Alors g ∈ L(F ) et Pg divise Pf .
Démonstration. F étant stable par f , g = f|F est bien un endomorphisme de F . Ceci étant, soit
(e1 , . . . , er ) une base de F complétée en une base B = (e1 , . . . , en ) de E . La matrice de f dans B
a la forme  
A C
[f ]B = où A = [g](e1 ,...,er ) ,
0 B
et donc
 
 A − XIr C 

Pf = det([f ]B − XIn ) =  
0 B − XIn−r 
= det(A − XIr ) · det(B − XIn−r ) = Pg · det(B − XIn−r ).


Proposition 3. Soit f ∈ L(E) un endomorphisme nilpotent. Alors Pf = (−1)n X n (où


n = dim E ).
Démonstration. Nous donnons deux méthodes de démonstration de ce résultat. Soit q ∈ N∗ tel
que f q = 0.
Première méthode. Soit A la matrice de f dans  une base de E , K le corps des racines de
PA (X). Dans K , on peut écrire PA = (−1)
 n
i (X − λi ). On peut bien sûr regarder A comme
une matrice de Mn (K ). Pour tout i, λi est valeur propre de A, associé à un vecteur propre
X = 0. Un  calcul rapide donne Aq X = λqi X , et comme Aq = 0, on en tire λi = 0. Donc
i (X − λi ) = (−1) X .
PA = (−1) n n n

Seconde méthode. Nous allons montrer ce résultat sans faire appel au corps des racines de Pf ,
en procédant par récurrence sur n ∈ N∗ . Pour n = 1, c'est évident. Supposons le résultat vrai
au rang n − 1, montrons le au rang n. On a (det f )q = det(f q ) = 0, donc det f = 0 et donc
Ker f = {0}. Soit e1 ∈ Ker f , e1 = 0, de sorte que f (e1 ) = 0. Complétons e1 en une base B de
E . Alors    
0 ×···× 0 ×···×
[f ]B = et 0 = [f q ]B = ([f ]B )q = ,
0 M 0 Mq
donc M q = 0, et d'après l'hypothèse de récurrence PM = (−1)n−1 X n−1 , donc
 
 −X ×···× 
Pf (X) =   = (−X)PM = (−1)n X n .

0 M − XIn−1


Remarque 6. Un résultat plus fort sera donné à la remarque 6 page 187.


1.3. Endomorphismes diagonalisables
Définition 5. Soit f ∈ L(E). On dit que f est diagonalisable s'il existe une base de
vecteurs propres de f . On dit que A ∈ Mn (K) est diagonalisable si A est semblable à une
matrice diagonale.
Remarque 7. Un endomorphisme f est diagonalisable si et seulement si sa matrice dans
une base quelconque de E est diagonalisable.
Proposition 4. Soit f ∈ L(E). Si Pf est scindé sur K et a toutes ses racines simples,
alors f est diagonalisable.

Démonstration. Écrivons Pf = (−1)n ni=1 (X − λi ). Pour tout i, λi est valeur propre de f donc
il existe xi un vecteur propre de f associé à la valeur propre λi . D'après le théorème 1, les xi
forment une famille libre, à n éléments, et forment donc une base de E . 
174 4. RÉDUCTIONS D'ENDOMORPHISMES

Proposition 5. Soit f ∈ L(E), λ ∈ K une racine de Pf d'ordre de multiplicité h. Alors


dim Eλ ≤ h.
Démonstration. Le sous-espace propre Eλ est stable par f . Soit g = f|Eλ ∈ L(Eλ ). D'après la
proposition 2, Pg divise Pf . Comme g = λ IdEλ , on a Pg = (λ − X)dim Eλ , donc dim Eλ ≤ h. 
 Théorème 2. Soit f ∈ L(E). Les propositions suivantes sont équivalentes.
(i) f est diagonalisable.
(ii) Pf est scindé sur K et pour toute racine λi de Pf d'ordre de multiplicité hi , hi =
dim Eλi .
(iii) Il existe des valeurs propres λ1 , . . . , λp de f vériant E = Eλ1 ⊕ · · · ⊕ Eλp .
Démonstration. (i) =⇒ (ii). Soit B une base de vecteurs propres de f . La matrice M de f
dans B est diagonale, et si λ1 , . . . , λp désignent les valeurs propres de f , la diagonale de M est
constituée des λi . Pour tout i, 1 ≤ i ≤ p, notons  hi le nombre de fois que λi apparaît dans la
diagonale de M , de sorte que Pf = PM = (−1)n pi=1 (X − λi )hi . Pour tout i, 1 ≤ i ≤ p, il existe
hi vecteurs de la base B vériant f (x) = λi x, c'est-à-dire hi vecteurs linéairement indépendants
dans Eλi , donc dim Eλi ≥ hi . Donc dim Eλi = hi d'après la proposition précédente.
p
(ii) =⇒ (iii). Écrivons Pf = (−1)
n
i=1 (X − λi ) , les λi étant distincts. Soit F = ⊕i=1 Eλi .
hi p

On a dim F = i=1 dim Eλi = i=1 hi = deg(Pf ) = n, donc F = E .


p p

(iii) =⇒ (i). Si pour tout i, Bi désigne une base de Eλi , alors il est clair que B = B1 ∪ · · · ∪ Bp
est une base de vecteurs propres de f . 

Proposition 6. Soit f ∈ L(E) diagonalisable et F un s.e.v de E stable par f . Alors


f|F ∈ L(F ) est diagonalisable.
A ce stade du cours, ce résultat est non trivial. Il sera démontré ultérieurement dans
ce chapitre (voir la conséquence du théorème 2 page 185).
1.4. Trigonalisation
Définition 6. Un endomorphisme f ∈ L(E) est dit trigonalisable s'il existe une base B
de E dans laquelle la matrice de f soit triangulaire supérieure. On dit alors que la base
B trigonalise f .
Une matrice A ∈ Mn (K) est dite trigonalisable si A est semblable à une matrice
triangulaire supérieure.
Remarque 8. Un endomorphisme f est trigonalisable si et seulement si sa matrice dans
une base quelconque de E est trigonalisable.

 Théorème 3. Un endomorphisme f ∈ L(E) est trigonalisable si et seulement si son


polynôme caractéristique Pf est scindé sur K.
Démonstration.
Condition nécessaire. C'est le plus facile. Soit B une base de trigonalisation de f . On a
 
λ1 × ··· ×
 ... .. 
 0 λ . 
T = [f ]B =  . . 2 ...  ∈ Mn (K),
 .. .. × 
0 ··· 0 λn
n
donc Pf = PT = (−1)n i=1 (X − λi ) est scindé sur K.
Condition susante. Nous allons procéder par récurrence sur n ∈ N∗ . Pour n = 1, c'est évident.
Supposons le résultat vrai au rang n − 1. Nous allons donner deux méthodes pour montrer le
résultat au rang n.
1. DIAGONALISATION, TRIGONALISATION 175

Première méthode. Le polynôme caractéristique de l'application transposée tf vérie P tf = Pf ,


don P tf est scindé sur K, donc d'après la proposition 1, tf admet un vecteur propre x dans le dual
E ∗ , donc Kx est stable par tf . On en déduit que l'orthogonal H de Kx dans E est un hyperplan
stable par f (voir la proposition 8 page 136). D'après la proposition 2, le polynôme caractéristique
de la restriction de f à H (f|H est bien un endomorphisme puisque H est stable par f ) divise Pf
donc est scindé sur K, ce qui entraîne d'après l'hypothèse de récurrence l'existence d'une base
B1 = (e1 , . . . , en−1 ) de H dans laquelle f|H se trigonalise. Complétons cette base de H en une
base B = (e1 , . . . , en ) de E . La base B triangule f car
   
× × ··· ··· ×
 ..   ... .
.. 

[f ]B =  [f|H ]B1 .   0
= . .

.
   . . . . .
.
× . . . . 
0 ··· 0 × 0 ··· 0 ×

Seconde méthode. D'après la proposition 1, il existe un vecteur propre e1 de f . Complétons e1


en une base B = (e1 , . . . , en ) de E , et notons H = Vect(e2 , . . . , en ). On a
 
α × ··· ×
 0 
 
[f ]B =  .  avec M ∈ Mn−1 (K),
 .. M 
0
où M est la matrice de l'endomorphisme g ∈ L(H) déni par g = p ◦ f|H , où p est la projection
sur H parallèlement à Ke1 . On a Pf = (α − X)PM = (α − X)Pg , donc Pg est scindé sur K, donc
d'après l'hypothèse de récurrence, il existe une base B1 = (f2 , . . . , fn ) de H qui trigonalise g . La
base B  = (e1 , f2 , . . . , fn ) trigonalise f car on a
 
α × ··· ×
 0 
 
[f ]B  = . .
 .. [g]B1 
0


Remarque 9.  La version matricielle de ce résultat est : une matrice M ∈ Mn (K)


est trigonalisable si et seulement si son polynôme caractéristique est scindé sur K.
 Si f ∈ L(E) est trigonalisable et si F est un s.e.v stable par f , alors l'endomor-
phisme f|F est trigonalisable (en eet, Pf|F divise Pf donc est scindé sur K).
 Si K est algébriquement clos (par exemple K = C), tout endomorphisme du K-
espace vectoriel E est trigonalisable.
 La trigonalisation d'une matrice peut être intéressante pour montrer une propriété.
 Le produit de deux matrices triangulaires supérieures est triangulaire supérieure,
ses coecients diagonaux sont les produits des coecients diagonaux :
    
α1 × ··· × β1 × ··· × α1 β1 × ··· ×
 ... ..   ... ..   ... .. 
 0 α2 .  0 β2 .   0 α2 β2 . 
 . ... ...  . ... ... = .. ... ... .
 .. ×   .. ×   . × 
0 ··· 0 αn 0 ··· 0 βn 0 ··· 0 αn βn
 On verra dans la section 4 page 201 des réductions plus poussées.
1.5. Réductions simultanées
Proposition 7. Soient f, g ∈ L(E) tels que f ◦ g = g ◦ f . Alors
(i) Tout sous-espace propre de f est stable par g (en particulier Ker f ).
176 4. RÉDUCTIONS D'ENDOMORPHISMES

(ii) Im f est stable par g.


Démonstration. (i) Soit Eλ un sous-espace propre de f . Pour tout x ∈ Eλ , f [g(x)] = g[f (x)] =
g(λx) = λg(x) donc g(x) ∈ Eλ .
(ii) Soit y ∈ Im f , et x ∈ E tel que y = f (x). On a g(y) = g[f (x)] = f [g(x)] ∈ Im f . 

 Théorème 4 (Diagonalisation simultanée). Si f et g ∈ L(E) sont diagonalisables


et commutent, il existe une base commune de diagonalisation de f et g (on dit alors que
f et g sont codiagonalisables).
Démonstration. Soient λ1 , . . . , λr les valeurs propres de f , Eλ1 , . . . , Eλr les sous-espaces propres
correspondants. Pour tout i, Eλi est stable par g . La restriction de g à Eλi , g|Eλi , induit un
endomorphisme de Eλi , diagonalisable d'après la proposition 6. Il existe donc une base Bi de
Eλi de vecteurs propres de g (et bien sûr de f car f|Eλ = λi IdEλi ). Or E = ⊕ri=1 Eλi , donc
i
B = (B1 , . . . , Br ) est une base de diagonalisation commune de f et g . 

Remarque 10. La réciproque est vraie : si f et g se diagonalisent dans une même base,
alors f et g commutent (il sut de remarquer que f et g commutent sur cette base).
 Théorème 5 (Trigonalisation simultanée). Si f et g ∈ L(E) sont trigonalisables
et commutent, alors il existe une base de trigonalisation commune de f et g (on dit alors
que f et g sont cotrigonalisables).
Démonstration. Préliminaire. Remarquons déjà que f et g ont un vecteur propre commun. En
eet, f admet une valeur propre λ ∈ K (puisque f est trigonalisable). Le sous-espace propre Eλ
est stable par g , et g|Eλ est trigonalisable (voir la remarque 9), donc admet un vecteur propre
x ∈ Eλ . Finalement, x est un vecteur propre commun à f et g .
On procède maintenant par récurrence sur n. Pour n = 1, c'est évident. Supposons le résultat
vrai au rang n − 1. Pour le montrer au rang n, nous donnons deux méthodes.
Première méthode. Comme f ◦ g = g ◦ f , on a tg ◦ tf = tf ◦ tg , donc d'après le préliminaire
appliqué à tf et tg , il existe un vecteur propre x ∈ E ∗ commun à tf et à tg . Ainsi, Kx est stable
par tf et tg , donc l'orthogonal H de Kx dans E , est un hyperplan de E stable par f et g . D'après
l'hypothèse de récurrence, f|H et g|H sont trigonalisables dans une même base B  de H . Soit
e ∈ E tel que B = (B  , e) forme une base de E . Alors
 
×
 .. 

[f ]B =  [f|H ]B  . 

 × 
0 ··· 0 ×
et comme la matrice de f|H dans B  est triangulaire supérieure, on en déduit que [f ]B est
triangulaire supérieure. De même, [g]B est triangulaire supérieure, d'où le résultat au rang n.
Seconde méthode. Le préliminaire assure l'existence d'un vecteur propre x commun à f et à g .
Complétons x en une base B = (x, e2 , . . . , en ) de E . On a
   
α × ··· × β × ··· ×
 0   0 
   
[f ]B =  .  et [g]B =  .. .
 .. M   . N 
0 0
Comme Pf = (α − X)PM , PM est comme Pf scindé sur K, donc M est trigonalisable. De même,
N est trigonalisable. Or f g = gf , donc [f ]B [g]B = [g]B [f ]B , ce qui s'écrit
   
× × ··· × × × ··· ×
 0   0 
   
 ..  =  .. 
 . MN   . NM 
0 0
1. DIAGONALISATION, TRIGONALISATION 177

et donc M N = N M . Soit B1 = (e2 , . . . , en ) et H = Vect B1 , hyperplan de E . On note p


la projection sur H parallèlement à Kx. Soit f1 = p ◦ f|H et g1 = p ◦ g|H ∈ L(H). Comme
[f1 ]B1 = M et [g1 ]B1 = N , f1 et g1 commutent donc d'après l'hypothèse de récurrence, il existe
une base B1 de H qui trigonalise à la fois f1 et g1 . Dans la base B  = (x, B1 ) on a
 
× × ··· ×
 0 
 
[f ]B  = . 
 .. [f1 ]B1 
0
ce qui montre que [f ]B  est triangulaire supérieure. De même [g]B  est triangulaire supérieure,
d'où le résultat. 

Remarque 11.  La formulation matricielle de ces deux théorèmes est la suivante :


Soient A, B ∈ Mn (K) diagonalisables (resp. trigonalisables) telles que AB = BA.
Alors il existe P ∈ Gn (K) telle que P −1 AP et P −1 BP soient diagonales (resp.
triangulaires supérieures).
 La première méthode des démonstrations des théorèmes 3 et 5 montre l'intérêt de
l'utilisation des applications transposées tf ∈ L(E ∗ ) dans les raisonnements par
récurrence (voir la partie 4 page 132 du chapitre III). Ce procédé est à retenir !
1.6. Exercices
Exercice 1. Diagonaliser ou trigonaliser dans Mn (C), en donnant la matrice de passage,
les matrices suivantes.
 
  0 0 0 1
0 2 −1  0 0 −1 0 
a) M =  3 −2 0 . b) M =
 0 1
.
0 0 
−2 2 1
−1 0 0 0
   
1 4 −2 2 2 −3
c) M =  0 6 −3  . d) M =  5 1 −5  .
−1 4 0 −3 4 0

Solution. a) On calcule le polynôme caractéristique de M :


     
 −X 2 −1   1 − X 2 −1   1 2 −1 
   
PM =  3 −2 − X 0  =  1 − X −2 − X 0  = (1 − X)  1 −2 − X 0 
  
 −2 2 1−X   1−X 2 1−X   1 2 1−X 
 
 1 0 0   
   
= (1 − X)  1 −4 − X 1  = (1 − X)  −4 − X 1  = −(X − 1)(X − 2)(X + 4).
  0 2−X 
 1 0 2−X 
D'après la proposition 1, M a donc trois valeurs propres qui sont 1, 2 et −4. Ces valeurs propres
étant distinctes, M est donc diagonalisable d'après la proposition 4. Recherchons
x
 Un vecteur propre X1 = y
z
associé à la valeur propre 1 :

 −x + 2y − z = 0 
x=y
M X1 = X1 ⇐⇒ 3x − 3y =0 ⇐⇒ .
 x=z
−2x + 2y =0
1
Donc X1 = 1 convient.
1
178 4. RÉDUCTIONS D'ENDOMORPHISMES

x
 Un vecteur propre X2 = y
z
associé à la valeur propre 2 :

 −2x + 2y − z = 0 
3x = 4y
M X2 = 2X2 ⇐⇒ 3x − 4y = 0 ⇐⇒ .
 z = 2(y − x)
−2x + 2y − z = 0
 4 
Donc X2 = 3 convient.
−2
x
 Un vecteur propre X3 = yz associé à la valeur propre −4 :

 4x + 2y − z = 0 
3x + 2y = 0
M X3 = −4X3 ⇐⇒ 3x + 2y = 0 ⇐⇒ .
 x = z
−2x + 2y + 5z = 0
 2 
Donc X3 = −3 convient.
2
 L'endomorphisme f ∈ L(C3 ) ayant M pour matrice dans la base canonique de C3 est donc
diagonalisable, et B = (X1 , X2 , X3 ) est une base de diagonalisation de f . On a
   
1 0 0 1 4 2
[f ]B = D =  0 2 0  donc P −1 M P = D avec P =  1 3 −3  .
0 0 −4 1 −2 2
(P est la matrice de passage de la base canonique de C3 à la base B ).
b) Un calcul donne PM = (X 2 + 1)2 = (X + i)2 (X − i)2 .
 On recherche Ei , le sous-espace propre associé à la valeur propre i. On a
 
−i 0 0 1
 0 −i −1 0 
M − iI4 = 
 0
.
1 −i 0 
−1 0 0 −i
On remarque que dans cette dernière matrice, la dernière colonne vaut i fois la première, c'est-
à-dire qu'en sommant la première
  colonne à i fois la dernière, on tombe
 sur le vecteur nul.
1 0
Autrement dit, (M − iI4 ) 0
0 = 0. De même, on trouve (M − iI4 ) 1
−i = 0. On a donc
i 0
 1   0 
0 , 1
Ei = Vect 0 −i
i 0

(ces deux vecteurs forment une famille libre de Ei , donc une base de Ei car d'après la proposi-
tion 5, on a dim Ei ≤ 2). On en déduit en particulier que dim Ei = 2.
En procédant de la même manière, on trouve que dim E−i = 2 et que
 1
  0 
0
E−i = Vect 0 , 1i .
−i 0
D'après le théorème 2, M est donc diagonalisable et on a
   
i 0 0 0 1 0 0 1
 0 i 0 0   0 1 1 0 
P −1 M P = D avec D = 
  et P =  
 0 −i i 0  .
0 0 −i 0 
0 0 0 −i i 0 0 −i

c) Ici PM = −(X − 3)(X − 2)2 . Comme PM a une racine double, M n'est pas forcément
diagonalisable.
 Recherchons E3 , le sous-espace propre
 1  associé à la valeur propre 3. La résolution du système
M X = 3X montre que E3 = Vect{ 1 }.
1
1. DIAGONALISATION, TRIGONALISATION 179

 Recherchons E2 , le sous-espace propre


 4  associé à la valeur propre 2. La résolution du système
M X = 2X montre que E2 = Vect{ 3 }. Donc dim E2 = 1 < 2, et donc M n'est pas diagonali-
4
sable.
On va donc trigonaliser M . Désignons par B la base canonique de C3 , et soit f ∈ L(C3 ) telle
que [f ]B = M . Soit
1 4 0
e1 = 1 , e2 = 3 , e3 = 0 .
1 4 1
La famille B  = (e1 , e2 , e3 ) est une base, et on a E3 = Vect e1 et E2 = Vect e2 . On calcule les
valeurs de f sur cette nouvelle base :
 −2 
f (e1 ) = 3e1 , f (e2 ) = 2e2 , f (e3 ) = −3 = e2 − 6e1 + 2e3 ,
0

donc la matrice de f dans la base B  est


 
3 0 −6
[f ]B  =T = 0 2 1 
0 0 2
donc si P est la matrice de passage de la base B à la base B  ,
 
1 4 0
P =  1 3 0 ,
1 4 1
on a P −1 [f ]B P = [f ]B  , ou encore P −1 M P = T . Au passage, on remarque que les termes de la
diagonale principale de la matrice triangulaire T sont les racines du polynôme caractéristique de
M , répétés avec la même multiplicité. Ceci est cohérent car T et M étant semblables, elles ont
même polynôme caractéristique.
d) Ici, PM = (1 − X)3 . Un calcul donne rg(M − I3 ) = 2, donc dim E1 = dim[Ker(M − I3 )] =
3 − rg(M − I3 ) = 1. D'après le théorème 2, M n'est donc pas diagonalisable. Nous allons
la trigonaliser. (C'est plus complexe qu'à la question précédente. Au c), on avait trouvé deux
vecteurs propres indépendants. Il ne restait plus qu'à en trouver un troisième, formant une
base avec les deux autres, puis à en exprimer l'image par M pour trigonaliser M . Ici il n'y a
qu'un seul vecteur propre et cette méthode ne va pas fonctionner. Nous allons procéder comme
dans la démonstration du théorème 3 de trigonalisation. Nous allons donner deux méthodes,
correspondant chacune à l'une des deux démonstrations du théorème 3.)
 Première méthode. On note B la base canonique de C3 . Soit f ∈ L(C3 ) telle que [f ]B = M .
On cherche un hyperplan stable par f . Soit B ∗ la base duale de B , de sorte que [ tf ]B ∗ = tM .
On a P tf = P tM = PM = (1 − X)3 , 1 est donc valeur propre de tf . Recherchons en un vecteur
propre u. Si U désigne la matrice colonne de u dont les éléments sont les coordonnées de u
dans la base B ∗ ,on a tf (u) = u ⇐⇒ tM U = U . En résolvant le système tM U = U , on
−2
trouve que U = 1 convient. L'orthogonal H de Cu dans C3 est stable par f . On a H =
x 1 1  0 
Ker u = { yz , −2x + y + z = 0}, dont B1 = (e1 , e2 ) = ( 0 , 1 ) forme une base. On trouve
2 −1
f (e1 ) = −4e1 − 5e2 et f (e2 ) = 5e1 + 6e2 , donc
 
−4 5
[f|H ]B1 = = N.
−5 6
Au passage, on remarque que PN = (X − 1)2 = Pf|H divise Pf , conformément à la proposi-
tion 2.
Nous allons maintenant trigonaliser N . On recherche d'abord un vecteur propre de N (qui
est associé à la seule valeur propre 1). En résolvant N Y = Y , on trouve que Y = ( 11 ) convient,
donc que f (e1 + e2 ) = e1 + e2 . On pose
1  0

e1 = e1 + e2 = 1 et e2 = e2 = 1 ,
1 −1
180 4. RÉDUCTIONS D'ENDOMORPHISMES

de sorte que (e1 , e2 ) est une 


autre
 base de H . Un petit calcul donne f (e1 ) = e1 et f (e2 ) = 5e1 +e2 .
    
0
Si maintenant on pose e3 = 0 , B = (e1 , e2 , e3 ) forme une base de C et f (e3 ) = −3e1 −2e2 +e3 ,
     3   
1
donc
   
1 5 −3 1 0 0
[f ]B  =  0 1 −2  = T = P −1 [f ]B P avec P =  1 1 0  ,
0 0 1 1 −1 1
et donc T = P −1 M P .
 Seconde méthode. Commençons par rechercher un vecteur propre u1 pour f associé à la valeur
1
propre 1. Un petit calcul devenu maintenant routinier montre que u1 = 1 convient. On pose
0 0 1
maintenant u2 = 1 et u3 = 0 , de sorte que B0 = (u1 , u2 , u3 ) forme une base de C3 . En
0 1
exprimant les valeurs prises par f sur les vecteurs de B0 dans cette même base, on trouve
 
1 2 −3
[f ]B0 =  0 −1 −2  .
0 2 3

Soit H = Vect(u2 , u3 ) et soit p la projection sur H parallèlement à Cu1 . Soit g = p ◦ f|H ∈


L(H). La matrice de g dans la base (u2 , u3 ) de H est
 
−1 −2
A = [g](u2 ,u3 ) = .
2 3

On a PA = Pg = (X − 1)2 . Recherchons un vecteur propre de g associé à la valeur propre 1. On


remarque que u2 = u2 − u3 convient. On pose alors u3 = u2 , de sorte que (u2 , u3 ) forme une
nouvelle base de H . Dans la nouvelle base B0 = (u1 , u2 , u3 ) de C3 , on trouve
   
1 5 2 1 0 0
[f ]B0 =  0 1 −2  = T = P −1 [f ]B P avec P =  1 1 1  .
0 0 1 1 −1 0

Donc T = P −1 M P : on a trigonalisé M . On remarque au passage que les termes de la diagonale


principale de la matrice triangulaire trouvée correspondent aux racines du polynôme caractéris-
tique de la matrice M de départ.
Remarque. Pour suivre correctement les deux méthodes exposées au d), il est bon de
relire les démonstrations du théorème 3. Bien sûr, on ne retrouve pas les mêmes matrices
triangulaires et de passage à l'arrivée selon la méthode utilisée (il n'y a pas unicité).

Exercice 2. Soit E un K-e.v de dimension nie et f ∈ L(E) un endomorphisme de


rang 1. Donner une condition nécessaire et susante sur f pour que f soit diagonalisable.
Que peut-on dire lorsque f n'est pas diagonalisable ?
Solution. On note n = dim E . Par hypothèse, dim Ker f = n − rg f = n − 1, autrement dit 0 est
une valeur propre de f d'ordre n − 1, donc racine du polynôme caractéristique Pf de f d'ordre
au moins n − 1. Par conséquent, il existe α ∈ K tel que Pf = (−1)n X n−1 (X − α). La somme des
valeurs propres de f étant égale à la trace de f , on a α = tr f .
Ainsi, si tr f = 0, f admet une valeur propre α = 0. Les sous-espaces propres E0 et Eα de f
vérient alors dim E0 + dim Eα = n donc f est diagonalisable.
Lorsque tr f = 0, 0 est la seule valeur propre de f . Si f était diagonalisable, f serait nulle,
ce qui est absurde. Finalement, f est diagonalisable si et seulement si tr f = 0.
Lorsque f n'est pas diagonalisable, c'est-à-dire lorsque tr f = 0, on a f 2 = 0. En eet. Soit
e1 ∈ E tel que Im f = Vect e1 . Complétons e1 en une base B = (e1 , . . . , en ) de E . Dans cette
1. DIAGONALISATION, TRIGONALISATION 181

base, la matrice de f a la forme


 
α1 α2 · · · αn
 0 0 ···
 0 
[f ]B =  .. .. ..  .
 . . . 
0 0 ··· 0
Comme tr f = α1 = 0, on a [f ]2B = 0, c'est-à-dire f 2 = 0.

Exercice 3. Soient a1 , . . . , an−1 et b1 , . . . , bn−1 des nombres réels, avec n ≥ 3. Donner


une condition nécessaire et susante pour que la matrice
 
0 ··· 0 b1
 ... .. .. 
A= . .  ∈ Mn (R)
 0 ··· 0 bn−1 
a1 · · · an−1 0
soit diagonalisable dans Mn (R).
Solution. Si tous les ai sont nuls, A est une matrice triangulaire dont les valeurs propres sont
données par ses éléments diagonaux, montrant ainsi que toutes les valeurs propres de A sont
nulles. Si A est diagonalisable, A est donc nulle et tous les bi sont nuls. De même, si tous les bi
sont nuls et si A est diagonalisable, alors tous les ai sont nuls.
Supposons maintenant les ai non tous nuls et les bi non tous nuls. Alors le rang de A est 2, ce
qui montre que 0 est valeur propre de A et que le sous-espace propre E0 associé est de dimension
n − 2. Notons λ1 , λ2 ∈ C les deux autres valeurs propres de A. La somme des valeurs propres de
A est sa trace donc λ1 + λ2 = 0. Il nous faut un autre renseignement pour pouvoir évaluer λ1
et λ2 . Pour cela, on remarque que les valeurs propres de A2 sont les carrés des valeurs propres
de A (pour s'en persuader,

trigonaliser A dans Mn (C)), donc λ21 + λ22 = tr(A2 ). Un petit calcul
donne tr(A2 ) = 2( i=1 ai bi ). Finalement on a montré
n−1

n−1 

λ1 + λ2 = 0 et λ1 + λ2 = 2
2 2
a i bi . (∗)
i=1
n−1
Si ∆ = i=1 ai bi < 0, (∗) montre que λ1 et λ2 ne peuvent pas être des nombres réels (et donc √
A n'est pas diagonalisable dans Mn (R)). Si maintenant ∆ ≥ 0, (∗) montre que λ1 = −λ2 = ∆.
Si ∆ = 0, λ1 = λ2 = 0 et A n'est pas diagonalisable sinon A serait nulle (sa seule valeur
propre est 0). Si ∆ > 0, λ1 et λ2 sont réelles, distinctes et non nulles, et les sous-espaces propres
Eλ1 , Eλ2 associés sont de dimension 1. Dans ce cas, dim E0 + dim Eλ1 + dim Eλ2 = n, donc A est
diagonalisable dans Mn (R).
De tout ceci, le lecteur

conclura facilement que A est diagonalisable dans Mn (R) si et seule-
ment si A = 0 ou ∆ = n−1 i=1 ai bi > 0.

Exercice 4. Soit E un K-e.v de dimension nie n ∈ N∗ . On considère une famille (fi )i∈I
d'endomorphismes de E commutant deux à deux.
a) Si les fi sont diagonalisables, montrer que l'on peut les diagonaliser tous dans une
même base.
b) Si les fi sont trigonalisables, montrer que l'on peut les trigonaliser tous dans une même
base.
Solution. a) Procédons par récurrence sur n. Pour n = 1, c'est évident. Supposons le résultat vrai
jusqu'au rang n − 1 et montrons le au rang n. Si tous les fi sont des homothéties, c'est terminé.
182 4. RÉDUCTIONS D'ENDOMORPHISMES

Sinon il existe i0 tel que fi0 n'est pas une homothétie. Si on note Eλ1 , . . . , Eλr ses sous-espaces
propres, on a donc r ≥ 2, et pour tout j , dim Eλj < n. Par ailleurs, d'après la proposition 7
page 175, pour tout j , Eλj est stable par tous les fi , et chaque fi|Eλj est diagonalisable d'après la
proposition 6. Donc d'après l'hypothèse de récurrence il existe une base Bj de Eλj qui soit une
base de diagonalisation de tous les fi|Eλj . Donc B = (B1 , . . . , Br ) est une base de diagonalisation
de tous les (fi )i∈I .
b) Commençons par montrer par récurrence sur n qu'il existe un vecteur propre commun à tous
les (fi )i∈I . Pour n = 1, c'est évident. Supposons le résultat vrai jusqu'au rang n − 1 et montrons
le au rang n. Si tous les fi sont des homothéties, c'est terminé. Sinon, il existe un endomorphisme
f de la famille qui n'est pas une homothétie. Comme f est trigonalisable, f admet une valeur
propre λ, donc un sous-espace propre correspondant Eλ . On a dim Eλ < n (car f n'est pas une
homothétie) et Eλ est stable par tous les fi . D'après l'hypothèse de récurrence, il existe donc un
vecteur propre commun à tous les fi|Eλ , qui est bien sûr un vecteur propre commun à tous les
fi .
Achevons la démonstration par récurrence sur n. Pour n = 1, c'est évident. Supposons le
résultat vrai au rang n − 1 et montrons le au rang n. En appliquant le résultat précédent aux
applications transposées tf i (elles commutent également et sont également trigonalisables puisque
P tf i = Pfi ), on voit qu'il existe x ∈ E ∗ un vecteur propre commun à tous les tf i . L'orthogonal
H de Kx dans E est donc un hyperplan de E stable par tous les fi . D'après l'hypothèse de
récurrence, il existe une base B de H trigonalisant tous les fi|H . Soit e ∈ E tel que B  = (B, e)
forme une base de E . On a pour tout i ∈ I
 
× ··· × ×
 ... .. .. 

[fi ]B  =  . . 
,
 (0) × × 
0 ··· 0 ×
donc la base B  trigonalise tous les fi .
Remarque. Dans cette dernière partie de b), nous avons utilisé une technique analogue à
celle de la première démonstration du théorème 5. On pourrait également procéder comme
dans la seconde démonstration de ce théorème.

Exercice 5 (Lemme de Schur). a) Soit E un C-e.v de dimension nie. Soit Q ⊂ L(E)


irréductible, c'est-à-dire que les seuls sous-espaces de E stables par tous les éléments de
Q sont {0} et E . Montrer que les seuls éléments commutant avec tous les éléments de Q
sont les homothéties.
b) Si E est un R-e.v de dimension nie, montrer que le résultat est faux dans le cas
général. Quand peut-on dire qu'il est vrai ?
Solution. a) Soit f ∈ L(E) commutant avec tous les éléments de Q. Le corps C étant algébrique-
ment clos, f admet au moins une valeur propre λ. Soit Eλ le sous-espace propre correspondant.
On a Eλ = {0}. Par hypothèse sur f , pour tout g ∈ Q, on a f ◦ g = g ◦ f . D'après la proposition 7
page 175, Eλ est stable par tous les éléments de Q. Comme Eλ = {0} et que Q est irréductible,
ceci entraîne Eλ = E . Donc f = λ IdE est une homothétie.
b) Sur un R-e.v, le résultat est faux dans le cas général. Par exemple, en dimension 2, l'ensemble
Q des rotations (voir la remarque 1 page 269) est irréductible car aucune droite n'est stable par
toutes les rotations. Or tous les éléments de Q commutent avec tous les éléments de Q. Il existe
donc des éléments de L(E) qui ne sont pas des homothéties qui commutent avec tous les éléments
de Q.
Cependant, si n = dim E est impair, le résultat reste vrai. En eet, soit f ∈ L(E) commutant
avec tous les éléments de Q. Le polynôme caractéristique Pf de f est un polynôme réel de degré
1. DIAGONALISATION, TRIGONALISATION 183

impair, donc Pf admet au moins une racine réelle λ, donc f admet une valeur propre λ. En
procédant comme au a), on en déduit que f est une homothétie.
Remarque. On en déduit que sur un C-espace vectoriel de dimension nie, les éléments
commutant avec tout ceux de L(E) sont les homothéties. Ce résultat est un cas particulier
du résultat de l'exercice 6 page 124 dans le cas où K = C.

Exercice 6. Soit K un corps commutatif et A, B , C , D ∈ Mn (K) telles que DC = CD.


Montrer que  
A B
det = det(AD − BC),
C D
a) si D est inversible,
b) si K est de cardinal inni.
Solution. a) On part de la relation
      
A B D 0 AD − BC BD−1 AD − BC BD−1
= = ,
C D −C D−1 CD − DC In 0 In
d'où l'égalité voulue en passant aux déterminants.
b) Cette fois, D n'est pas supposée inversible. La matrice D n'ayant qu'un nombre ni de valeurs
propres et K étant inni, il existe une partie innie Γ de K telle que pour tout λ ∈ Γ, D − λIn
soit inversible. D'après a), le polynôme P ∈ K[X] déni par
 
A B
P (X) = det − det[A(D − XIn ) − BC]
C D − XIn
s'annule sur tout λ ∈ Γ. Comme Γ est inni, P est nul et donc P (0) = 0, d'où le résultat.
Remarque. En fait, si K est ni, le résultat reste vrai. En eet, K se plonge dans un
corps inni L (prendre par exemple pour L le corps des fractions K(X)) et il sut alors
d'appliquer b) en remplaçant K par L.

Exercice 7. Soit E un C-e.v de dimension nie n ∈ N∗ . Si u, v ∈ L(E), on pose


[u, v] = uv − vu (crochet de Lie de u et v ). Soient f et g ∈ L(E).
1/ On suppose qu'il existe α ∈ C∗ tel que [f, g] = αf .
a) Montrer que f est nilpotente. (Indication. On pourra calculer [f p , g] pour tout p ∈ N∗ .)
b) Montrer que f et g sont trigonalisables dans une même base.
2/ On suppose maintenant qu'il existe α, β ∈ C∗ tels que [f, g] = αf + βg. Montrer
qu'également, f et g sont trigonalisables dans une même base.
Solution. 1/ a) Par récurrence sur p ∈ N∗ , on obtient facilement [f p , g] = αpf p . Comme
l'endomorphisme de L[L(E)] déni par Lg : h → [h, g] n'a qu'un nombre ni de valeurs propres
(on est en dimension nie) et que pour tout p ∈ N∗ , Lg (f p ) = αpf p avec α = 0, on en déduit
qu'il existe p ∈ N∗ tel que f p = 0.
b) Commençons par montrer que f et g ont un vecteur propre en commun. Le s.e.v Ker f est
stable par g car
∀x ∈ Ker f, f [g(x)] = g[f (x)] + αf (x) = 0.
Or f étant nilpotente, on a Ker f = {0}. Le corps C étant algébriquement clos, on en déduit
que g| Ker f admet au moins un vecteur propre x. Le vecteur x est également propre pour f car
x ∈ Ker f .
184 4. RÉDUCTIONS D'ENDOMORPHISMES

Ceci étant, montrons par récurrence sur n ∈ N∗ que f et g sont trigonalisables dans une
même base. Pour n = 1, c'est évident. Supposons le résultat vrai au rang n − 1 et montrons le
au rang n. Comme f g − gf = αf , les applications transposées vérient tf tg − tg tf = (−α) tf .
En appliquant le résultat précédent à tf et tg , on voit donc qu'il existe un vecteur propre x ∈ E ∗
commun à tf et tg . L'orthogonal H de Cx dans E est donc un hyperplan stable par f et g . Or
[f|H , g|H ] = αf|H , donc d'après l'hypothèse de récurrence il existe une base B de H dans laquelle
f|H et g|H se trigonalisent. Soit e ∈ E tel que B  = (B, e) soit une base de E . Alors
 
×
 .. 

[f ]B  =  [f|H ]B . 
,
 × 
0 ··· 0 ×

donc la base B trigonalise f . On montrerait de même que la base B trigonalise g .


2/ On pose f  = f + (β/α)g et on remarque que [f  , g] = αf  . D'après 1/ b), f  et g sont donc
trigonalisables dans une même base. Il en est donc de même pour f  − (β/α)g = f et g .

2. Polynômes d'endomorphismes
Dans toute cette partie, E désigne un K-espace vectoriel de dimension nie n ∈ N∗ .
2.1. Généralités
Notation. Soit P = a0 + a1 X + · · · + ap X p ∈ K[X]. Conformément à la dénition d'une
fonction polynôme sur une K-algèbre (voir la partie 2.1 page 63), on dénit les fonctions
polynômes sur L(E) ou Mn (K) comme suit :
- Pour tout f ∈ L(E), on note P (f ) = a0 IdE +a1 f + · · · + ap f p ∈ L(E).
- Pour tout A ∈ Mn (K), on note P (A) = a0 In + a1 A + · · · + ap Ap ∈ Mn (K).

Remarque 1. Si f ∈ L(E), ∀P, Q ∈ K[X] on a P (f ) ◦ Q(f ) = (P Q)(f ). L'ensemble


{P (f ) | P ∈ K[X]} est une sous-algèbre commutative de L(E).
 Un polynôme d'une matrice triangulaire est une matrice triangulaire. Plus précisément,
si P ∈ K[X] on a
   
α1 × ··· × P (α1 ) × ··· ×
 ... ..   ... .. 
 0 α2 .   0 P (α2 ) . 
M = .. ... ...  =⇒ P (M ) =  .. ... ... .
 . ×   . × 
0 ··· 0 αn 0 ··· 0 P (αn )

Ainsi, si M est trigonalisable, P (M ) également et les valeurs propres de P (M ) sont les


valeurs prises par le polynôme P sur les valeurs propres de M .
Proposition 1. Soit f ∈ L(E) et P ∈ K[X] tel que P (f ) = 0. Si λ est valeur propre de
f , alors P (λ) = 0.

Démonstration. Soit x = 0 un vecteur propre de f associé à la valeur propre λ. On a f (x) = λx,


donc 0 = P (f )(x) = P (λ)x, d'où le résultat. 

Remarque 2. Attention, la réciproque est fausse. Par exemple, P = X(X − 1) annule IdE ,
et pourtant 0 qui est racine de P n'est pas valeur propre de IdE .
2. POLYNÔMES D'ENDOMORPHISMES 185

 Théorème 1 (Décomposition des noyaux). Soit f ∈ L(E) et P = P1 · · · Pk ∈ K[X],


les polynômes Pi étant premiers entre eux deux à deux. Alors
Ker P (f ) = Ker P1 (f ) ⊕ · · · ⊕ Ker Pk (f ).
Démonstration. On procède par récurrence sur k ≥ 2.
- Pour k = 2 : P1 et P2 étant premiers entre eux, il existe (théorème de Bezout) U et V ∈ K[X]
tels que U P1 + V P2 = 1.
Soit x ∈ Ker P1 (f ) ∩ Ker P2 (f ). On a (U P1 + V P2 )(f )(x) = x, autrement dit x = U (f ) ◦
P1 (f )(x) + V (f ) ◦ P2 (f )(x) = 0. Donc Ker P1 (f ) ∩ Ker P2 (f ) = {0} (∗).
Soit x ∈ Ker P (f ). On a x = U P1 (f )(x) + V P2 (f )(x) (∗∗). Or
P2 (f )[U P1 (f )(x)] = U P1 P2 (f )(x) = U (f ) ◦ P (f )(x) = 0,
donc U P1 (f )(x) ∈ Ker P2 (f ). De même, V P2 (f )(x) ∈ Ker P1 (f ). De (∗∗), on tire Ker P (f ) =
Ker P1 (f ) + Ker P2 (f ), d'où le résultat pour k = 2 avec (∗).
 Supposons le résultat vrai au rang k et montrons le au rang k + 1. On a P = Q1 Q2 avec
Q1 = P1 · · · Pk et Q2 = Pk+1 . Les polynômes Q1 et Q2 sont premiers entre eux donc d'après le
cas k = 2, Ker P (f ) = Ker Q1 (f ) ⊕ Ker Q2 (f ), et d'après l'hypothèse de récurrence, Ker Q1 (f ) =
⊕ki=1 Ker Pi (f ). Finalement,
Ker P (f ) = [Ker P1 (f ) ⊕ · · · ⊕ Ker Pk (f )] ⊕ Ker Pk+1 (f ) = Ker P1 (f ) ⊕ · · · ⊕ Ker Pk+1 (f ).


Remarque 3.  Ce théorème est important. Il reste vrai en dimension innie.


 Il existe beaucoup d'autres résultats du même type. Par exemple, soit f ∈ L(E).
Pour tout ϕ ∈ K[X], on note Iϕ = Im ϕ(f ) et Nϕ = Ker ϕ(f ). Soient P, Q ∈ K[X].
Alors si D =pgcd(P, Q) et M =ppcm(P, Q), on a
N P ∩ NQ = N D , NP + NQ = NM , IP + I Q = I D , IP ∩ I Q = I M .
Ces résultats se généralisent par récurrence à k polynômes.

 Théorème 2. Soit f ∈ L(E). L'endomorphisme f est diagonalisable si et seulement s'il


existe P ∈ K[X] scindé sur K ayant toutes ses racines simples tel que P (f ) = 0.
Démonstration. Condition nécessaire. Notons λ1 , . . . , λr les valeurs propres (distinctes) de f et
Eλ1 , . . . , Eλr les sous-espaces propres correspondants. Soit P = (X − λ1 ) · · · (X − λr ) ∈ K[X].
Le polynôme P est scindé dans K[X] et a toutes ses racines simples. Par ailleurs, les polynômes
(X − λi ) sont premiers entre eux deux à deux, donc d'après le théorème de décomposition des
noyaux,
r
 r

Ker P (f ) = Ker(f − λi IdE ) = Eλ i ,
i=1 i=1
donc Ker P (f ) = E car f est diagonalisable, c'est-à-dire P (f ) = 0.
Condition susante. Écrivons P = α(X − λ1 ) · · · (X − λr ) avec les λi ∈ K distincts et α = 0.
Les λi étant distincts, les polynômes (X − λi ) sont premiers entre eux deux à deux, donc d'après
le théorème de décomposition des noyaux,
E = Ker P (f ) = Ker(f − λ1 IdE ) ⊕ · · · ⊕ Ker(f − λr IdE ). (∗)
Soit I = {i | Ker(f −λi IdE ) = {0} }. Pour tout i ∈ I , λi est valeur propre de f et Eλi = Ker(f −
λi IdE ) n'est autre que le sous-espace propre correspondant. L'identité (∗) s'écrit E = ⊕i∈I Eλi ,
donc f est diagonalisable d'après le théorème 2 page 174. 

Conséquence . Il découle de ce dernier théorème la proposition 6 page 174. En eet, soit


f ∈ L(E) diagonalisable et F un s.e.v de E stable par f . Il existe P ∈ K[X] scindé sur K,
à racines toutes simples, tel que P (f ) = 0. Alors P (f|F ) = 0, donc f|F est diagonalisable
d'après le théorème 2.
186 4. RÉDUCTIONS D'ENDOMORPHISMES

2.2. Polynôme minimal


Soit f ∈ L(E), et soit I = {P ∈ K[X] | P (f ) = 0}. Le K-e.v L(E) est de dimension n2 ,
la famille IdE , f, . . . , f n est donc liée. Autrement dit, il existe (a0 , . . . , an2 ) = (0, . . . , 0)
2

 2
tel que a0 IdE +a1 f + · · · + an2 f n = 0. Donc si P = ni=0 ai X i , P (f ) = 0. Donc I = {0}.
2

On voit que I est un idéal de K[X]. L'anneau K[X] étant principal, il existe un unique
P ∈ K[X], P unitaire, tel que I = (P ) = P · K[X]. Le polynôme P s'appelle le polynôme
minimal de f . On le note Πf . C'est le polynôme unitaire de plus bas degré annulant f , et
si Q(f ) = 0, alors Πf | Q (car Q ∈ I = (Πf )).

Remarque 4.  En dimension innie. cette dénition reste valable à condition qu'il


existe un polynôme non nul P tel que P (f ) = 0 et P = 0. On dit alors que f admet
un polynôme minimal.
 En terme de polynôme minimal, le théorème 2 s'interprète comme suit : f est
diagonalisable si et seulement si son polynôme minimal est scindé et a toutes ses
racines simples.
 Si F est un s.e.v stable par f , alors g = f|F vérie : Πg divise Πf (en eet,
Πf (g) = 0).

Proposition 2. Soit f ∈ L(E). Un scalaire λ est valeur propre de f si et seulement si


λ est racine de son polynôme minimal Πf .

Démonstration. Condition nécessaire. Cela résulte de la proposition 1.


Condition susante. Soit λ une racine de Πf . Soit P ∈ K[X] tel que Πf = (X−λ)P . On a P (f ) =
0 car Πf est le polynôme minimal de f et deg P < deg Πf . Or Πf (f ) = 0 = (f − λ IdE )P (f ) = 0,
et comme P (f ) = 0, on en déduit que f − λ IdE n'est pas injectif, donc que λ est valeur propre
de f . 

Remarque 5. Le polynôme minimal de f a donc les mêmes racines que le polynôme ca-
ractéristique de f .
2.3. Théorème de Cayley-Hamilton

 Théorème 3 (Cayley-Hamilton). Soit f ∈ L(E), Pf son polynôme caractéristique.


Alors Pf (f ) = 0.
Démonstration. Nous proposons deux démonstrations de ce théorème.
Première démonstration. Soit A ∈ Mn (K) la matrice de f dans la base canonique de Kn .
Soit L le corps des racines de PA = Pf . On regarde A comme une matrice de Mn (L). D'après le
théorème de trigonalisation, il existe une matrice T = (ti,j ) ∈ Mn (L) triangulaire supérieure et
semblable à A :
 
t1,1
 (ti,j ) 
 t2,2 
T =
 . .. .

0
tn,n

On a Pf = PT = (−1)n ni=1 (X − ti,i ). Soit (E1 , . . . , En ) la base canonique de Ln (Ek est le
vecteur colonne dont tous les éléments sont nuls sauf le k-ième qui vaut 1). Pour tout k, on pose

Pk = ki=1 (X − ti,i ). Nous allons montrer par récurrence sur k ∈ {1, . . . , n} que

∀i ∈ {1, . . . , k}, [Pk (T )]Ei = 0. (∗)


2. POLYNÔMES D'ENDOMORPHISMES 187

Pour k = 1, c'est vrai car T E1 = t1,1 E1 , donc (T − t1,1 In )E1 = 0 = P1 (T )E1 . Supposons le
résultat vrai au rang k − 1 et montrons le au rang k. On a
∀i ∈ {1, . . . , k − 1}, Pk (T )Ei = (T − tk,k In )Pk−1 (T )Ei = 0,
k−1  k−1
 
Pk (T )Ek = Pk−1 (T ) · (T − tk,k In )Ek = Pk−1 (T ) ti,k Ei = ti,k Pk−1 (T )Ei = 0.
i=1 i=1
La propriété (*) est donc démontrée pour tout k ∈ {1, . . . , n}. Elle est vraie en particulier
pour k = n, donc Pn (T ) = 0. Or PT = Pn donc ceci s'écrit PT (T ) = 0, donc Pf (f ) = 0.
Seconde démonstration (elle ne fait pas appel au corps des racines d'un polynôme).
Préliminaires. Nous montrons d'abord que le polynôme caractéristique de la matrice
 
0 ··· 0 −a0
 ... .. .. 
 1 . . 
A= ...  ∈ Mp (K).
 0 −ap−2 
(0) 1 −ap−1
est PA (X) = (−1)p (X p + ap−1 X p−1 + · · · + a0 ) (pour cette raison, la matrice A est appelée
matrice compagnon du polynôme X p + ap−1 X p−1 + · · · + a0 ). Pour montrer ce préliminaire, nous
procédons par récurrence sur p. Pour p = 1, c'est évident. Supposons le résultat vrai au rang p,
montrons le au rang p + 1. En développant par rapport à la première ligne, on a
 
 −X (0) −a0 
 . 
 ... . 
 1 . 
PA (X) =  ... 
 −X −ap−1 

 (0) 1 −X − ap 
   
 −X (0) −a1   1 −X (0) 
 ..   
 ...   ... 
 1 .  p+1  0 1 
= −X  ...  + (−1) a0  .. ... ... ,
 −X −ap−1   . −X 
  
 (0) 1 −X − ap   0 ··· 0 1 
et donc d'après l'hypothèse de récurrence
PA (X) = (−1)p+1 X(X p +ap X p−1 +· · ·+a1 )+(−1)p+1 a0 = (−1)p+1 (X p+1 +ap X p +· · ·+a1 X+a0 ).
Démontrons maintenant le théorème. Soit x ∈ E , x = 0. Il existe un plus petit entier p > 0
tel que la famille (x, f (x), . . . , f p (x)) soit liée. La famille (x, f (x), . . . , f p−1 (x)) est donc libre et
(∃a0 , . . . , ap−1 ∈ K), f p (x) + ap−1 f p−1 (x) + · · · + a0 x = 0. (∗∗)
Complétons (x, f (x), . . . , f p−1 (x)) en une base B de E . Alors on a la forme par blocs
 
0 ··· 0 −a0
   ... .. .. 
A B 1 . .
[f ]B = avec A = 
 ...

.
0 C  
0 −ap−2
(0) 1 −ap−1
Or Pf = PA PC , donc Pf (f )(x) = PC (f ) ◦ PA (f )(x), et d'après le préliminaire et d'après (∗∗),
PA (f )(x) = (−1)p (f p (x) + ap−1 f p−1 (x) + · · · + a0 x) = 0,
donc Pf (f )(x) = 0. Ceci est vrai pour tout x donc Pf (f ) = 0. 

Remarque 6.  En d'autres termes, le théorème dit que le polynôme minimal de f


divise son polynôme caractéristique. Avec la proposition 2, on en déduit que
r
 r

si Pf = (−1)n (X − λi )ri , alors Πf = (X − λi )qi , 1 ≤ qi ≤ ri .
i=1 i=1
188 4. RÉDUCTIONS D'ENDOMORPHISMES

 Ce théorème permet d'armer, compte tenu de la proposition 3 page 173, que


f ∈ L(E) est nilpotent si et seulement si Pf = (−1)n X n .
2.4. Exercices
Exercice 1. Soit E un K-e.v et f ∈ L(E) admettant un polynôme minimal. Si f est
inversible, montrer que f −1 est un polynôme en f .
Solution. Montrons déjà que X ne divise pas le polynôme minimal Πf de f . En eet, s'il existe
P ∈ K[X] tel que Πf = XP , alors 0 = Πf (f ) = f ◦ P (f ), et comme f est inversible, P (f ) = 0.
Comme deg P < deg Πf , ceci contredit le fait que Πf est le polynôme minimal de f .
Donc X  Πf . Comme X est irréductible, X et Πf sont premiers entre eux, donc il existe
U, V ∈ K[X] tels que U X + V Πf = 1, d'où on tire U (f ) ◦ f + V (f ) ◦ Πf (f ) = IdE , c'est-à-dire
U (f ) ◦ f = IdE . Donc f −1 = U (f ), d'où le résultat.
Remarque. En dimension nie, on aurait pu raisonner avec le polynôme caractéristique
Pf de f : comme Pf (0) = det f = 0, on a X  Pf et on procède ensuite comme plus haut.
 On peut également donner une forme explicite d'un polynôme U tel que f −1 = U (f ) en
fonction du polynôme minimal : il sut de prendre U = (Πf (0) − Πf (X))/(Πf (0)X).

Exercice 2. Soit K un corps commutatif ni à q éléments, E un K-e.v de dimension


nie et f ∈ L(E). Montrer que f est diagonalisable dans E si et seulement si f q = f .
Solution. Commençons par montrer

Xq − X = (X − α). (∗)
α∈K

Muni de la loi produit, K∗ est un groupe multiplicatif à q − 1 éléments, donc pour tout x ∈ K∗ ,
xq−1 = 1, d'où pour tout x ∈ K, xq = x. On a ainsi déterminé q racines distinctes du polynôme
X q − X qui est de degré q , d'où (∗).
Concluons. D'après le théorème 2, on peut armer que f est diagonalisable si et seulement
s'il existe P ∈ K[X], scindé sur K, à racines
 toutes simples, tel que P (f ) = 0, autrement dit si
et seulement s'il existe P ∈ K[X], P | α∈K (X − α) = X q − X tel que P (f ) = 0. En d'autres
termes, f est diagonalisable si et seulement si f q − f = 0.

 Exercice 3. Soient E un K-espace vectoriel et f ∈ L(E) admettant un polynôme mini-


mal Πf . Pour tout x ∈ E , on note Px le polynôme unitaire de K[X] de plus bas degré tel
que Px (f )(x) = 0 (Px s'appelle le polynôme minimal de x relatif à f ).
1/a) Montrer l'existence et l'unicité de Px . Si P (f )(x) = 0 avec P ∈ K[X], montrer que
Px | P .
b) Montrer que Ex = {P (f )(x) | P ∈ K[X]} est un s.e.v de dimension deg(Px ).
2/a) Si Ex ∩ Ey = {0}, montrer que Px+y = ppcm (Px , Py ). Généraliser à p vecteurs
x1 , . . . , xp .
b) Si Px et Py sont premiers entre eux, montrer Ex+y = Ex ⊕ Ey . Généraliser à p vecteurs
x1 , . . . , x p .
3/a) Soit M ∈ K[X] un facteur irréductible de Πf , α sa multiplicité dans la décomposition
de Πf en facteurs irréductibles de K[X]. Montrer qu'il existe x ∈ Ker M α (f ) tel que
Px = M α .
b) Montrer qu'il existe x ∈ E tel que Px = Πf .
2. POLYNÔMES D'ENDOMORPHISMES 189

Solution. 1/a) Soit Ix = {P ∈ K[X] | P (f )(x) = 0}. C'est un idéal de K[X], non réduit à {0}
car Πf ∈ Ix . Il existe donc un unique polynôme unitaire Px ∈ K[X] tel que Ix = (Px ). Ainsi,
Px est le polynôme unitaire de plus bas degré tel que Px (f )(x) = 0. Si maintenant P (f )(x) = 0,
alors on a P ∈ Ix = (Px ), donc Px | P .
b) L'application linéaire
ϕ : K[X] → Ex P → P (f )(x)

est surjective. On en déduit que le s.e.v Ex est isomorphe à K[X]/ Ker ϕ = K[X]/(Px ), donc de
dimension deg(Px ).
2/a) Notons Q = ppcm (Px , Py ). Comme Px+y (f )(x + y) = 0, on a Px+y (f )(x) = −Px+y (f )(y).
Ces deux vecteurs sont donc éléments de Ex ∩Ey = {0}, donc nuls. Donc d'après 1/ a), Px | Px+y
et Py | Px+y , d'où Q | Px+y .
Or Px | Q donc Q(f )(x) = 0. De même, Q(f )(y) = 0, donc Q(f )(x + y) = 0. Donc Px+y | Q,
ce comme on a vu que Q | Px+y , on en déduit Px+y = Q = ppcm (Px , Py ), ces deux polynômes
étant unitaires.
- Par récurrence sur p, on montre maintenant facilement que si Ex1 , . . . , Exp sont en somme
directe, alors Px1 +···+xp = ppcm (Px1 , . . . , Pxp ).
b) Montrons tout d'abord que Ex ∩ Ey = {0}. Soit z ∈ Ex ∩ Ey . Il existe P, Q ∈ K[X] tels que
z = P (f )(x) = Q(f )(y). Or

0 = P (f ) ◦ Px (f )(x) = (P Px )(f )(x) = Px (f ) ◦ P (f )(x) = Px (f )(z) = (Px Q)(f )(y),

donc d'après 1/ a), Py | Px Q. Or Px et Py sont premiers entre eux, donc d'après le théorème de
Gauss, Py | Q, et donc z = Q(f )(y) = 0. Ainsi, on a bien Ex ∩ Ey = {0}.
- D'après 2/ a), on a donc Px+y = ppcm (Px , Py ) = Px Py , d'où

dim Ex+y = deg(Px+y ) = deg(Px ) + deg(Py ) = dim Ex + dim Ey . (∗)

Par ailleurs lorsque P ∈ K[X], l'égalité P (f )(x + y) = P (f )(x) + P (f )(y) entraîne l'inclusion
Ex+y ⊂ Ex + Ey = Ex ⊕ Ey , donc d'après (∗), Ex+y = Ex ⊕ Ey .
Par récurrence sur p, on montre maintenant facilement que si Px1 , . . . , Pxp sont premiers
entre eux deux à deux, alors Ex1 +···+xp = Ex1 ⊕ · · · ⊕ Exp .
3/a) On peut écrire Πf = M α N où N ∈ K[X] est premier avec M (donc avec M α ). D'après le
théorème de décomposition des noyaux, on a

E = Ker M α (f ) ⊕ Ker N (f ). (∗∗)

Pour tout x ∈ Ker M α (f ), on a M α (f )(x) = 0, donc d'après 1/ a), Px | M α et comme M est


irréductible, il existe βx ≤ α tel que Px = M βx . Il s'agit de montrer qu'il existe x ∈ Ker M α (f )
tel que βx = α. Raisonnons par l'absurde et supposons le contraire, de sorte que pour tout
x ∈ Ker M α (f ), Px | M α−1 , i. e. M α−1 (f )(x) = 0, autrement dit Ker M α (f ) = Ker M α−1 (f ).
D'après (∗∗), E = Ker M α−1 (f ) ⊕ Ker N (f ) ce qui d'après le théorème de décomposition des
noyaux entraîne Ker(M α−1 N (f )) = E , ou encore M α−1 N (f ) = Q(f ) = 0, ce qui contredit
la minimalité du degré du polynôme minimal Πf de f car deg Q < deg Πf . Donc il existe
x ∈ Ker M α (f ) tel que Px = M α .
k
b) Soit Πf = la décomposition de Πf en facteurs irréductibles de K[X]. D'après la
αi
i=1 Mi
question précédente, pour tout i, il existe xi ∈ Ker Miαi (f ) tel que Pxi = Miαi . D'après la question
2/b), on a donc Ex1 +···+xk = Ex1 ⊕ · · · ⊕ Exk , et donc d'après la question 2/a), on a
k
 k

Px1 +···+xk = P xi = Miαi = Πf ,
i=1 i=1

d'où le résultat.
190 4. RÉDUCTIONS D'ENDOMORPHISMES

Exercice 4 (Diagonalisation d'un déterminant circulant). On considère la


matrice circulante  
a1 a2 ··· an
 ... .. 
 an a1 . 
A= .. ... ...  ∈ Mn (C).
 . a2 
a2 · · · an a1
En exprimant A comme un polynôme en la matrice
 
0 1 (0)
 .. . . . . 
 . . . 
J = ...  ∈ Mn (C),
 0 1 
1 0 ··· 0
diagonaliser A.
Solution. Si B = (e1 , . . . , en ) désigne la base canonique de Cn , J est la matrice de l'endomor-
phisme qui à ei associe ei−1 si i ≥ 2, et à e1 associe en . Pour tout p, 1 ≤ p ≤ n − 1, J p est donc
la matrice qui à ei associe ei−p si i > p, à ei associe ei+n−p si i ≤ p, autrement dit
 
0 In−p
∀p, 1 ≤ p ≤ n − 1, Jp = .
Ip 0
On en déduit que pour tout α1 , . . . , αn ∈ C,
 
α1 α2 ··· αn
n
  ... .. 
 αn α1 . 
αi J i−1 =  .. ... ... .
 . α2 
i=1
α2 ··· αn α1
n
Ceci montre en particulier que A = P (J) où P = i=1 ai X i−1 . Ceci montre également que
si Q ∈ K[X], Q = 0 et deg Q < n, alors Q(J) = 0. Le polynôme minimal de J vérie donc
deg ΠJ ≥ n. Or J n − I = 0, on a donc ΠJ = X n − 1.  Or ΠJ divise le polynôme caractéristique
PJ de J et deg PJ = n, donc PJ = (−1)n ΠJ = (−1)n n−1 k=0 (X − ω ), où ω = e
k 2iπ/n . D'après le

théorème 2, J est donc diagonalisable, et il existe Q ∈ G n (C) telle que


 
1
 0 
 ω 
Q−1 JQ =  ... .
 0 
ω n−1
On en déduit
 
P (1)
 0 
 P (ω) 
Q−1 AQ = Q−1 P (J)Q = P (Q−1 JQ) =  ... .
 0 
P (ω n−1 )

Remarque. On retrouve ainsi le résultat de l'exercice 12 page 153.

Exercice 5. Donner une


 condition
 nécessaire et susante sur A ∈ Mn (K) pour que la
A A
matrice par blocs B = ∈ M2n (K) soit diagonalisable.
0 A
2. POLYNÔMES D'ENDOMORPHISMES 191

Solution. Notons F le s.e.v de K2n engendré par les n premiers vecteurs de la base canonique
de K2n . Le s.e.v F est stable par B . Si B est diagonalisable, sa restriction à F , qui n'est autre
que A, est diagonalisable.
Allons plus loin. Si B est diagonalisable, il existe un polynôme P ∈ K[X], scindé sur K,
dont toutes
 les racines
 sont simples, tel que P (B) = 0. Par récurrence sur k, on a facilement
Ap pAp
Bk = pour tout k ∈ N. De ceci, on déduit
0 Ap
 
P (A) AP  (A)
0 = P (B) =
0 P (A)
donc P (A) = AP  (A) = 0. Comme P (A) = 0, on retrouve le fait que A est diagonalisable. Soit
λ une valeur propre de A. Comme AP  (A) = 0, on a λP  (λ) = 0. Or λ étant racine simple de P ,
on a P  (λ) = 0, donc λ = 0. En résumé, A est diagonalisable et λ = 0 est la seule valeur propre
de A, autrement dit, A = 0.
Réciproquement, si A = 0, B est diagonalisable. Finalement, B est diagonalisable si et
seulement si A = 0.

Exercice 6 (Commutant d'un endomorphisme). Soit E un K-espace vectoriel de


dimension nie n ∈ N∗ . Soit f ∈ L(E). On note Γf le s.e.v de L(E) déni par
Γf = {g ∈ L(E) | f ◦ g = g ◦ f }.

1/a) Si f est diagonalisable, déterminer dim Γf .


b) Si de plus les valeurs propres de f sont toutes distinctes, montrer que Γf = {P (f ) | P ∈
K[X]}.
2/ On suppose que le polynôme minimal Πf de f est de degré n. En utilisant le résultat
établi à l'exercice 3 (il existe x ∈ E , Px = Πf ), montrer que Γf = {P (f ), P ∈ K[X]}.
Solution. 1/a) Soient λ1 , . . . , λr les valeurs propres de f , Eλ1 , . . . , Eλr les sous-espaces propres
correspondants.
Si g ∈ Γf , alors pour tout i, Eλi est stable par g .
Réciproquement, si Eλi est stable par g pour tout i, alors :
∀x ∈ Eλi , f ◦ g(x) = λi g(x) = g ◦ f (x),
donc comme E = Eλ1 ⊕ · · · ⊕ Eλr , on a g ∈ Γf .
Donc Γf = {g ∈ L(E) | ∀i, Eλi est stable par g}. Pour tout i, soit Bi une base de Eλi , de
sorte que B = B1 ∪ · · · ∪ Br est une base de E . Les matrices des endomorphismes de Γf dans la
base B sont celles de la forme
 
M1 0

 ... 
 avec ∀i, Mi ∈ Mdim Eλi (K).
0 Mr
r
On voit donc que dim Γf = i=1 (dim Eλi )2 .
b) Nous donnons deux méthodes de résolution. 
Première méthode. Ici, pour tout i, on a dim Eλi = 1, donc dim Γf = ni=1  12 = n. Pour tout i,
Πf (λi ) = 0 donc (X − λi ) | Πf , et comme les λi sont distincts deux à deux, ni=1 (X − λi ) divise
Πf , donc deg(Πf ) ≥ n. Or Πf divise le polynôme caractéristique de f , donc deg(Πf ) ≤ n. On
en déduit deg Πf = n.
Soit C = {P (f ) | P ∈ K[X]}. L'application
ϕ : K[X] → C P → P (f )
est linéaire surjective, donc C est isomorphe comme K-e.v à K[X]/ Ker ϕ = K[X]/(Πf ), donc
dim C = deg(Πf ) = n. Or C ⊂ Γf et dim Γf = n, donc C = Γf .
192 4. RÉDUCTIONS D'ENDOMORPHISMES

Seconde méthode. Pour tout i, dim Eλi = 1 donc il existe xi ∈ E tel que Eλi = Vect(xi ). Soit
g ∈ Γf . Pour tout i, Eλi est stable par g ∈ Γf , donc il existe µi ∈ K tel que g(xi ) = µi xi (au
passage, on remarque que, (x1 , . . . , xn ) étant une base de E , g est diagonalisable). La théorie des
polynômes d'interpolation de Lagrange (voir le chapitre II page 65) nous assure l'existence d'un
polynôme P tel que P (λi ) = µi pour tout i. Ainsi,
∀i ∈ {1, . . . , n}, P (f )(xi ) = P (λi )xi = µi xi = g(xi )
et comme (x1 , . . . , xn ) est une base de E , P (f ) = g . Donc Γf ⊂ {P (f ) | P ∈ K[X]}. L'inclusion
réciproque étant immédiate, on en déduit le résultat demandé.
2/ On utilise les notations de l'exercice 3. D'après la question 3/b) de l'exercice 3, il existe
x ∈ E tel que Px = Πf , donc deg(Px ) = n et d'après la question 1/b) du même exercice,
dim Ex = deg(Px ) = n donc Ex = E .
Soit g ∈ Γf . Comme Ex = E , il existe P ∈ K[X] tels que g(x) = P (f )(x). Or pour tout
y = Q(f )(x) ∈ Ex ,
g(y) = g ◦ Q(f )(x) = Q(f ) ◦ g(x) = Q(f ) ◦ P (f )(x) = P (f ) ◦ Q(f )(x) = P (f )(y).
Les endomorphismes g et P (f ) prennent donc la même valeur sur Ex . Or Ex = E , donc g = P (f ).
On a donc montré que Γf ⊂ {P (f ) | P ∈ K[X]}. L'inclusion réciproque est évidente, d'où
l'égalité.
Remarque. On aurait pu montrer 1/b), en utilisant 2/ car on avait montré que deg(Πf ) =
n dans la première méthode.
 La réciproque de la question 2/ est vraie : si Γf = {P (f ) | P ∈ K[X]}, alors deg(Πf ) = n,
mais la démonstration est plus dicile (voir la dernière application de la théorie des
invariants de similitude dans l'annexe B page 400).

3. Topologie sur les endomorphismes


Dans toute cette partie, E désigne un K-espace vectoriel normé (avec K = R ou C).
Nous commençons par donner quelques rappels (l'étude générale des espaces vectoriels
normés est traitée dans le chapitre de topologie du tome d'analyse). L'espace vectoriel des
endomorphismes continus de E est noté Lc (E). On norme habituellement Lc (E) par :
∀f ∈ Lc (E), |||f ||| = supx=1 f (x). C'est une norme d'algèbre ( i. e. elle vérie |||f · g||| ≤
|||f ||| · |||g|||). Enn, en dimension nie, tout endomorphisme est continu et toutes les normes
sont équivalentes.
3.1. Quelques normes classiques en dimension nie
 x1 
Soit X = .. un vecteur de Kn . On dénit les normes suivantes sur Kn :
.
xn
 n
1/α

∀α ≥ 1, Xα = |xi | α
et X∞ = sup |xi |.
1≤i≤n
i=1

(La notation X∞ provient du fait que limα→∞ Xα = X∞ ).


Si E est un K-e.v de dimension nie n, on peut le normer en privilégiant
 x1 une
 base B
de E et en écrivant que la norme de x ∈ E est la norme du vecteur X = ... ∈ Kn , où
xn
les xi sont les coordonnées de x dans la base B .
Soit M = (m i,j )1≤i,j≤n ∈ Mn (K).
 M  = 1≤i,j≤n |mi,j | dénit une norme d'algèbre sur Mn (K).
3. TOPOLOGIE SUR LES ENDOMORPHISMES 193

 M  = supi,j |mi,j | dénit une norme sur Mn (K), mais ce n'est pas une norme
d'algèbre.
 Pour tout α ≥ 1, |||M |||α = supXα =1 M Xα dénit une norme d'algèbre sur
Mn (K). Au passage, notons que l'on peut montrer |||M |||∞ = supi ( j |mi,j |) et

|||M |||1 = supj ( i |mi,j |).
Si E est un K-e.v de dimension nie n, on peut normer L(E) en privilégiant une base B
de E et en écrivant que la norme de u est celle de [u]B (matrice de u dans la base B ) dans
Mn (K).
3.2. Propriétés
Proposition 1. Soit E un K-e.v.n et f ∈ Lc (E). Soit λ une valeur propre de f . Alors
|λ| ≤ |||f |||.
Démonstration. Soit x = 0 un vecteur propre de f pour la valeur propre λ. On a f (x) ≤
|||f ||| · x. Or f (x) = λx = |λ| · x, donc |λ| ≤ |||f |||. 

Proposition 2. L'ensemble Gn (K) est un ouvert dense dans Mn (K).


Démonstration. L'application Mn (K) → K M → det M est continue (car det M s'exprime
comme un polynôme en les coecients de M ). L'ensemble K∗ est ouvert dans K, donc Gn (K) =
(det)−1 (K∗ ) est ouvert.
Densité. Soit M ∈ Mn (K). Le polynôme caractéristique PM de M n'a qu'un nombre ni de
racines, donc
∃ρ > 0 tel que ∀λ ∈ K, 0 < |λ| < ρ, PM (λ) = 0.
En d'autres termes, pour tout λ ∈ K, 0 < |λ| < ρ, M −λIn ∈ Gn (K). Or M = lim λ→0 (M −λIn ).
λ=0
M est donc limite d'éléments de Gn (K). 

Remarque 1.  Ce dernier résultat est important. Il est parfois aisé de montrer des
propriétés sur Mn (K) en les montrant d'abord sur Gn (K) puis en les étendant par
densité (voir les exercices).
 Cette dernière proposition est également vraie pour les endomorphismes en dimen-
sion nie. De manière générale, algébriquement et topologiquement, tout ce qui est
vrai pour les matrices est vrai pour les endomorphismes (en dimension nie) et
réciproquement.
 En dimension innie, Gc (E) est ouvert si E est un espace de Banach (voir le
chapitre topologie du tome d'analyse).
3.3. Séries entières d'endomorphismes
Ici, E désigne un K-espace de Banach. Rappelons que dans ce cas, Lc (E), muni de la
norme |||f ||| = supx=1 f (x), est un K-espace de Banach.

Proposition 3. Soit z → +∞n=0 an z la somme d'une série entière
n
 de rayon de conver-
gence 0 < R ≤ +∞. Alors si f ∈ Lc (E), |||f ||| < R, la série n∈N an f n converge et sa
somme est élément de Lc (E). De plus, l'application
+∞

Γ = {f ∈ Lc (E) | |||f ||| < R} → Lc (E) f → an f n
n=0

est continue.
Démonstration.
 Comme Lc (E) est un K-espace de Banach, il sut de montrer que si |||f ||| < R,
la
 série an f n converge absolument, ce qui est immédiat puisque |||a f n ||| ≤ |a | · |||f |||n et que
 n n
|an | |||f |||n converge. La somme +∞ n=0 an f existe donc et appartient à Lc (E).
n
194 4. RÉDUCTIONS D'ENDOMORPHISMES


Pour tout r ∈ ]0, R[, on pose Γr = {f ∈ Lc (E) | |||f ||| ≤ r}. La série de fonctions
f → an f n
converge normalement sur Γr , puisque sur Γr , |||an f ||| ≤ |an |·|||f ||| ≤ |an |r
n n

n et |an |r converge.
n

Chacun des termes f → an f n est continu sur Γr . On en déduit que f → +∞ n=0 an f est continue
n

sur Γr , et ceci pour tout r ∈ ]0, R[, donc sur Γ. 

Remarque 2.  Un résultat plus n fait l'objet du problème 8 (page 221).


 La proposition 3 reste vraie sur Mn (K).
Conséquence
 . Soit f ∈ Lc (E), |||f ||| < 1. Alors IdE −f est inversible, et son inverse est
g = +∞
+∞ n=0
f n
.
+∞ n
En eet, g existe d'après la proposition précédente et (IdE −f )g = g − f g =
n=1 f = IdE ; de même, g(IdE −f ) = IdE .
n
n=0 f −
Exponentielles d'endomorphismes.
Définition 1. Soit f ∈ Lc (E). D'après la proposition 3,
+∞
 1 n
g= f
n=0
n!
existe et g ∈ Lc (E). L'endomorphisme g s'appelle l'exponentielle de f et on note g =
exp(f ) = ef .
Remarque 3.  On a ||| exp(f )||| ≤ e|||f ||| . En eet, pour tout n ∈ N,
 n  n
  1 k   |||f |||k
 f  ≤
 k!  k!
k=0 k=0

et le résultat se déduit en faisant tendre n vers +∞.


 D'après la proposition 3, l'application Lc (E) → Lc (E) f → exp(f ) est continue.
Proposition 4. Soit u ∈ Lc (E). Soit v ∈ Lc (E) inversible avec v −1 ∈ Lc (E). Alors
−1
exp(v uv) = v −1
exp(u)v .
Démonstration. Il sut de remarquer que pour tout n ∈ N on a (v −1 uv)n = v −1 un v , ce qui
entraîne
+∞ +∞ −1 n
 +∞ 
 (v −1 uv)n  v u v  un
−1 −1
exp(v uv) = = =v v = v −1 exp(u)v.
n! n! n!
n=0 n=0 n=0

La version matricielle de ce résultat est
∀M ∈ Mn (K), ∀P ∈ Gn (K), exp(P −1 M P ) = P −1 exp(M )P.
Deux matrices semblables ont donc des exponentielles semblables.
Proposition 5. Soient u, v ∈ Lc (E) tels que uv = vu. Alors
exp(u + v) = exp(u) exp(v) = exp(v) exp(u).
 
Démonstration.
 j La série n (u + v)n /n! est en fait un produit de Cauchy des deux séries i ui /i!
et j v /j!, dont nous redémontrons ici la convergence. On pose
 n  n 
n
 ui  vj  (u + v)k
∆n =  −
i! j! k!
i=0 j=0 k=0

Il faut montrer que limn→+∞ ∆n = 0. Comme u et v commutent, on a


(u + v)k  1 k   ui v j
∀k ∈ N∗ , = ui v j = · ,
k! k! i i! j!
i+j=k i+j=k
3. TOPOLOGIE SUR LES ENDOMORPHISMES 195

donc   n 
n
  vj  ui v j 
ui  − ui v j
∆n = · = ·
i! j! i! j! i! j!
i=0 j=0 i+j≤n n+1≤i+j≤2n
0≤i,j≤n

d'où on tire
 n
 n 
n
 |||u|||i |||v|||j  |||u|||i  |||v|||j  (|||u||| + |||v|||)k
|||∆n ||| ≤ · =  − .
i! j! i! j! k!
n+1≤i+j≤2n i=0 j=0 k=0
0≤i,j≤n

Lorsque n tend vers +∞, ce dernier terme tend vers e|||u||| e|||v||| −e|||u|||+|||v||| = 0, donc limn→+∞ ∆n =
0, d'où exp(u + v) = exp(u) exp(v). On a de même exp(v) exp(u) = exp(v + u) = exp(u + v). 

Conséquence . Pour tout u ∈ Lc (E), eu e−u = e−u eu = eu−u = e0 = IdE , donc eu est
inversible et (eu )−1 = e−u .
Remarque 4.  Si u et v ne commutent pas, la proposition précédente est fausse en
général.
 Si u et v commutent, alors u et exp(v) commutent.
 On a souvent aaire aux exponentielles de matrices lors de l'étude des équations
diérentielles linéaires (voir le tome d'analyse). En eet, les exponentielles de ma-
trices vérient les propriétés suivantes :
 Soit A ∈ Mn (K). L'application R → Mn (K) t → etA est dérivable, sa dérivée
est AetA . Si X : R → Kn est dérivable et si dX dt
= AX , alors pour tout t ∈ R,
X(t) = etA X(0).
 Si A ∈ Mn (K) est diagonalisable et a pour valeurs propres α1 , . . . , αn , alors
exp(A) est diagonalisable et ses valeurs propres sont eα1 , . . . , eαn .
 Le calcul d'exponentielles de matrices est traité à la partie 3 page 206 du présent
chapitre.
3.4. Exercices
 Exercice 1 (Densité des matrices diagonalisables dans Mn (C)). a) Montrer
que l'ensemble des matrices diagonalisables de Mn (C) est dense dans Mn (C).
b) Que dire dans Mn (R) ?
Solution. a) Soit A ∈ Mn (C). Il s'agit de montrer que A est limite de matrices diagonalisables.
Le corps C étant algébriquement clos, A est trigonalisable, donc
 
λ1 × ··· ×
 ... .. 
λ2 .
∃P ∈ Gn (C), P −1 AP = T avec T = 
 ...

.
 × 
0
λn
Soit µ = inf{|λi − λj |, λi = λj } > 0, µ = 1 si les λi sont tous égaux. Pour tout p ∈ N∗ , on pose
 µ   
λ1 + p × ··· × 1
 ... ..   1 (0) 
 λ2 + µ
. 
=T +µ 2 
Tp =  2p
 ... .

 ... 
 p 
(0) × (0) 1
µ
λn + np n

Les valeurs propres de Tp , les λi + (µ/ip), sont deux à deux distinctes. En eet, supposons i = j :
- Si λi = λj , il est clair que λi + (µ/ip) = λj + (µ/jp).
- Sinon λi = λj , donc si λi + (µ/ip) = λj + (µ/jp), alors |λi − λj | = µ|(1/ip) − (1/jp)| < µ,
absurde par construction de µ.
196 4. RÉDUCTIONS D'ENDOMORPHISMES

Pour tout p ∈ N∗ , Tp a donc toutes ses valeurs propres deux à deux distinctes, donc est dia-
gonalisable. Or T = limp→+∞ Tp , donc A = P T P −1 = limp→+∞ P Tp P −1 est limite de matrices
diagonalisables, d'où le résultat.
 
b) Dans Mn (R), le résultat est faux. Nous donnons un contre-exemple. Soit A = 01 −1 0 ∈
M2 (R). On considère l'application
∆ : M2 (R) → R M → ∆M
où ∆M désigne le discriminant du polynôme caractéristique PM de M . Comme ∆M s'exprime
comme un polynôme en les coecients de M , ∆ est continue.
Si A était limite d'une suite (An ) ∈ M2 (R)N de matrices diagonalisables dans M2 (R),
on aurait ∆n ≥ 0 pour tout n (car PAn est scindé sur R), et donc ∆ étant continue, ∆A =
limn→+∞ ∆An ≥ 0, ce qui est absurde car après calculs on trouve ∆A = −4.
Remarque. Grâce au résultat a), on peut parfois prouver certains résultats sur Mn (C) en
les montrant d'abord pour les matrices diagonalisables, puis en les étendant par densité. Le
lecteur pourra par exemple démontrer par cette méthode le théorème de Cayley-Hamilton
pour les matrices complexes.
 Si A ∈ Mn (R) est trigonalisable, alors A est limite d'une suite de matrices diagonali-
sables de Mn (R) (la solution de la question a) ne repose en eet que sur l'hypothèse que
A est trigonalisable).

 Exercice 2. a) Soit n ∈ N∗ et A ∈ Mn (C). Montrer que det(exp(A)) = exp(tr(A)).


b) Soit M ∈ Mn (R). Montrer que si M est l'exponentielle d'une matrice réelle, alors
det(M) > 0. Montrer que la réciproque est fausse (indication : montrer que la matrice
M = −1 0 −1 n'est pas un carré)
1

Solution. a) Le corps C étant algébriquement clos, on peut trigonaliser la matrice A, donc


 
λ1 × ··· ×
 ... .. 
λ2 .
∃P ∈ Gn (C), A = P −1 T P avec T = 
 ...

.
 × 
0
λn

La matrice T k est une matrice triangulaire supérieure dont les coecients diagonaux sont les λki ,
donc
   
λk1 × ··· × eλ 1 × ··· ×
+∞
 +∞ 
λk2 ... ..  
eλ 2 ... .. 
1 k  1   .  
= . 
.
exp(T ) = T = ... ...
k! k! 
 ×
 
  ×


k=0 k=0 0 0
λkn e λn
Ceci entraîne  
n
 n

λi
det(exp(T )) = e = exp λi = exp(tr(T )).
i=1 i=1
Comme A et T sont semblables, il en est de même de exp(A) et exp(T ), et on en déduit
det(exp(A)) = det(exp(T )) = exp(tr(T )) = exp(tr(A)).

b) Si M = exp(A) avec A ∈ Mn (R), alors on a det(M ) = exp(tr(A)) d'après le résultat


précédent, donc det(M ) > 0 car tr(A) est unnombre réel. La réciproque est fausse, comme le
montre le contre-exemple de la matrice M = −1 0 −1 . Si M était l'exponentielle d'une matrice
1
3. TOPOLOGIE SUR LES ENDOMORPHISMES 197

réelle A, la matrice
 a réelle
 N = exp( 2 A) vérierait N = exp(A) = M . Or ceci est impossible car
1 2

en écrivant N = c d , on aurait
b

   
−1 1 2 a2 + bc ab + bd
M= =N = .
0 −1 ca + dc cb + d2
Ceci entraîne 1 = b(a + d), donc a + d est non nul. Les termes inférieurs gauches donnent
0 = c(a + d), donc c = 0. L'égalité des termes diagonaux donneraient alors a2 = −1 et d2 = −1,
ce qui est impossible puisque a et d sont des nombres réels. Ainsi, la matrice M a bien un
déterminant positif (on a det(M ) = 1) mais cette matrice réelle n'est pas l'exponentielle d'une
matrice réelle.
Remarque. On peut montrer qu'une matrice réelle est l'exponentielle d'une matrice réelle
si et seulement si elle est le carré d'une matrice réelle inversible.
 Toute matrice complexe inversible est l'exponentielle d'une matrice complexe (voir
l'exercice 5 page 212).

 Exercice 3. 1/ Soit K un corps commutatif. Soient A, B ∈ Mn (K).


a) Si A ∈ Gn (K), montrer que PAB , le polynôme caractéristique de AB , est égal à celui
de BA, PBA .
b) Si A est quelconque et K = R ou C, montrer, en utilisant un argument de densité, que
le résultat reste vrai.
c) Si A est quelconque et K est inni, montrer que le résultat est encore vrai.
2/ K est un corps commutatif quelconque. Soient p, q ∈ N∗ . Soit A ∈ Mp,q (K) et B ∈
Mq,p (K). Comparer PAB et PBA .

Solution. 1/ a) Il sut de remarquer que les matrices AB et BA sont semblables, comme le


montre la relation BA = A−1 (AB)A, elles ont donc même polynôme caractéristique.
b) On sait que Gn (K) est dense dans Mn (K) (voir la proposition 2). On peut donc écrire A =
limn→+∞ An avec pour tout n, An ∈ Gn (K). Or d'après a), pour tout n, PAn B = PBAn et par
continuité de l'application déterminant, en faisant tendre n vers +∞, on en déduit PAB = PBA .
c) Le corps K étant inni, A n'ayant qu'un nombre ni de valeurs propres, il existe Γ ⊂ K, Γ
inni, tel que pour tout λ ∈ Γ, λ n'est pas valeur propre de A, i.e A − λ In ∈ Gn (K). Fixons
x ∈ K. D'après 1/ a), on a
∀λ ∈ Γ, P(A−λ In )B (x) = PB(A−λ In ) (x).
Le polynôme P(A−XIn )B (x) − PB(A−XIn ) (x) ∈ K[X] s'annule donc sur Γ, donc est nul puisque
Γ est inni. En particulier, ce polynôme s'annule lorsque X prend la valeur 0, c'est à dire
PAB (x) = PBA (x). Ceci étant vrai pour tout x ∈ K, on en déduit, K étant inni, que PAB = PBA .
2/ Soit r = rg A. Supposons dans un premier temps que r > 0. On sait que A est équivalente à
la matrice Ir 0
0 0 , c'est-à-dire
 
−1 Ir 0
∃P ∈ Gp (K), ∃Q ∈ Gq (K), A=P Q.
0 0
Écrivons  
B1 B 3
B = Q−1 P
B2 B4
où B1 ∈ Mr (K). On a
   
B1 B 3 B1 0
AB = P −1 P et BA = Q−1 Q
0 0 B2 0
198 4. RÉDUCTIONS D'ENDOMORPHISMES

d'où  
 B − XIr B3 
PAB =  1  = (−1)p−r X p−r PB .

0 −XIp−r 1

De même, on trouve PBA = (−1)q−r X q−r PB1 . On a donc (−X)q PAB = (−X)p PBA . (Si p = q ,
on retrouve les résultats de 1/). Lorsque r = rg A = 0, on a A = 0 et cette identité reste vraie.

Exercice 4. Soient n un entier naturel, n ≥ 2, et p ∈ N, 1 ≤ p ≤ n − 1.


a) Montrer que Γ = {A ∈ Mn (R) | rg A ≤ p} est fermé dans Mn (R).
b) Déterminer l'adhérence de l'ensemble ∆ = {A ∈ Mn (R) | rg A = p}.
Solution. a) Il sut de montrer que l'ensemble
Λ = Mn (R)  Γ = {A ∈ Mn (R) | rg A ≥ p + 1}
est ouvert. Fixons A = (ai,j )1≤i,j≤n ∈ Λ. Comme rg A ≥ p + 1, il existe une matrice carrée
extraite de A inversible d'ordre p + 1 (voir le théorème 2 page 128). Autrement dit, il existe I et
J inclus dans {1, . . . , n} avec CardI = CardJ = p + 1, tels que la matrice extraite A = (ai,j ) i∈I
j∈J
vérie det A = 0. Dénissons l'application
ϕ : Mn (R) → R B = (bi,j )1≤i,j≤n → det(bi,j ) i∈I .
j∈J

L'application ϕ s'exprime comme polynôme en certains des coecients de B , elle est donc conti-
nue. Or ϕ(A) = det A = 0, donc il existe un voisinage V de A dans Mn (R) tel que pour tout
B ∈ V , ϕ(B) = 0. Autrement dit, pour tout B ∈ V , la matrice extraite (bi,j ) i∈I est inversible,
j∈J
donc rg B ≥ p + 1. Ainsi, on a trouvé un voisinage de A inclus dans Λ. L'ensemble Λ est donc
ouvert.
b) Nous allons montrer ∆ = Γ.
D'après a), Γ est fermé. Or ∆ ⊂ Γ, donc ∆ ⊂ Γ.
Montrons maintenant l'inclusion réciproque. Soit A ∈ Γ. Il s'agit de montrer que A est limite
d'une suite de points de ∆. Si rg A = p
, alors A∈ ∆ et c'est terminé. Sinon, r = rg A < p. On
Ir 0
sait que A est équivalente à la matrice , ce qui s'écrit aussi
0 0
 
Ir 0
∃P, Q ∈ Gn (R), A = P −1 Q.
0 0
Pour tout m ∈ N∗ , on note Bm la matrice dénie par blocs par
 
Ir 0 0
Bm = 0 1
m Ip−r 0
 ∈ Mn (R).
0 0 0
 
Ir 0
Pour tout m, rg Bm = p donc Am = P −1 Bm Q est de rang p. Or limm→+∞ Bm = ,
0 0
donc limm→+∞ Am = A et pour tout m, Am ∈ ∆. On a donc A ∈ ∆.

Exercice 5. a) Soit M ∈ Mn (C). Pour tout ε > 0, montrer qu'il existe P ∈ Gn (C) tel
que
 
t1,1
(ti,j )
 t2,2 
T = P −1 M P = 
 ... 
 avec ∀i < j, |ti,j | < ε.
0
tn,n
3. TOPOLOGIE SUR LES ENDOMORPHISMES 199

b) Soit A ∈ Mn (C). Montrer que A est nilpotente si et seulement s'il existe une suite de
matrices (Ap )p∈N vériant
(i) ∀p, Ap est semblable à A (ii) lim Ap = 0.
p→+∞

Solution. a) Soit f l'endomorphisme de Cn dont la matrice dans la base canonique de Cn est


égale à M . Le corps C étant algébriquement clos, f est trigonalisable. Il existe donc une base
B = (e1 , . . . , en ) de Cn telle que [f ]B (matrice de f dans la base B ) soit triangulaire supérieure.
Écrivons [f ]B = (ai,j )1≤i,j≤n .
Pour tout p ∈ N∗ , Bp = (e1 , p1 e2 , . . . , pn−1
1
en ) est une base de Cn . Calculons l'image par f de
cette base, exprimée dans cette même base. Pour tout j , on a
  j
 j
  
1 1
f e
j−1 j
= p1−j ai,j ei = pi−j ai,j ei .
p pi−1
i=1 i=1

On en déduit
 a1,2 a1,3 a1,n 
a1,1 p p2
··· pn−1
 a2,3 a2,n 
 a2,2 p pn−2 
 
 ... .. 
Tp = [f ]Bp = a3,3 . .
 
 ... an−1,n 
 0 p 
an,n

Ceci étant, soit µ = supi,j |ai,j | et soit p ∈ N∗ tel que µ/p < ε. La matrice T = Tp = (ti,j )1≤i,j≤n =
[f ]Bp est triangulaire supérieure et pour tout i < j , |ti,j | = |ai,j · pi−j | ≤ µ/p < ε. De plus T est
semblable à [f ]B donc à M , d'où le résultat.
b) Condition nécessaire. D'après a), pour tout p ∈ N∗ , il existe Ap = [ai,j (p)]1≤i,j≤n ∈ Mn (C)
semblable à A, triangulaire supérieure et telle que pour tout i < j , |ai,j (p)| < 1/p. Or pour tout
i > j , ai,j (p) = 0 et pour tout i, ai,i (p) = 0 (Ap étant nilpotente, ses valeurs propres ai,i (p)
sont nulles). On en déduit que pour tout (i, j), |ai,j (p)| < 1/p. Donc limp→+∞ Ap = 0, d'où le
résultat.
Condition susante. Pour toute matrice M ∈ Mn (C), on note PM son polynôme caractéris-
tique. L'application Mn (C) → C[X] M → PM est continue (en eet, les coecients de PM
s'expriment comme des polynômes en les coecients de M ). Or limp→+∞ Ap = 0, on a donc
limp→+∞ PAp = P0 = (−1)n X n . Or pour tout p, Ap est semblable à A donc PAp = PA . On en
déduit PA = (−1)n X n . Le théorème de Cayley-Hamilton entraîne alors An = 0.

+∞
Exercice 6. Soit A ∈ Mn (R) et une suite réelle (am ) telle que B = m=0 am Am existe.
Montrer qu'il existe P ∈ R[X] tel que B = P (A).

Solution. L'ensemble Γ = {P (A) | P ∈ R[X]} est un s.e.v de Mn (R), et Mn (R) étant de


dimension nie, Γ est fermé. 
Pour tout k ∈ N, on pose Pk = km=0 am X m de sorte que B = limk→+∞ Pk (A). En d'autres
termes, B est limite d'une suite de points de Γ. Comme Γ est fermé, on en déduit B ∈ Γ, donc
il existe P ∈ R[X] tel que B = P (A).
Remarque. En particulier, l'exponentielle d'une matrice M est un polynôme en M . La
formule de Rodrigues (voir l'exercice 5 page 277) est un exemple de calcul explicite de
l'exponentielle d'une matrice sous forme d'un polynôme de cette matrice.
200 4. RÉDUCTIONS D'ENDOMORPHISMES

Exercice 7. Soit E un K-e.v.n (avec K = R ou C). On note Lc (E) l'algèbre des endo-
morphismes continus de E . Soit f ∈ Lc (E).
a) Montrer que  n
1
lim IdE + f = exp(f ).
n→+∞ n
b) Plus généralement, si (fn ) est une suite de Lc (E) qui tend vers f , montrer
 n
1
lim IdE + fn = exp(f ).
n→+∞ n

c) Soient u, v ∈ Lc (E). Montrer


 u  v n
lim exp exp = exp(u + v).
n→+∞ n n

Solution. a) Le résultat suivant nous sera utile.


  n   n
 
∀g ∈ Lc (E),  exp(g) − Id + 1 g  ≤ exp(|||g|||) − 1 + |||g||| . (∗)
 n  n
En eet. On a   +∞ n  
1 n  1 k  n 1 k
exp(g) − Id + g = g − g .
n k! k nk
k=0 k=0
Or  
n 1 n n−1 n−k+1 1 1
∀k, 1 ≤ k ≤ n, = · ··· · ≤ ,
k nk n n n k! k!
donc
  n  
n     
  |||g|||k |||g||| n
 exp(g) − Id + g  ≤ 1

1 n
|||g||| k
+ = exp(|||g|||) − 1 + .
 n  k! nk k k! n
k=1 k>n
En appliquant (∗) à f , on en déduit le résultat demandé car limn→+∞ (1 + |||f |||/n)n =
exp(|||f |||).
b) On remarque déjà que  n
1
lim exp(fn ) − Id + fn = 0. (∗∗)
n→∞ n
En eet, en posant Mn = |||fn |||, on a d'après (∗)
  n   n
 
 exp(fn ) − Id + fn  ≤ exp(Mn ) − 1 + Mn . (∗∗∗)
 n  n
Or limn→∞ Mn = |||f ||| = M , donc limn→∞ exp(Mn ) = exp(M ) et comme
 n       
Mn Mn Mn 1
1+ = exp n log 1 + = exp n +o = exp (Mn + o(1)) ,
n n n n
on a aussi limn→∞ (1 + Mn /n)n = exp(M ). D'où (∗∗) avec (∗∗∗).
Par ailleurs, la continuité de l'application g → exp(g) (voir la proposition 3) entraîne que
limn→∞ exp(fn ) − exp(f ) = 0. On en déduit avec (∗∗) le résultat car
 n  n   
1 1
Id + fn = Id + fn − exp(fn ) + exp(fn ) − exp(f ) + exp(f ).
n n
c) Lorsque n tend vers +∞, on a
u   v  
u 1 v 1
exp = Id + + o et exp = Id + + o ,
n n n n n n
donc  u v 
fn = n exp exp − Id vérie fn = u + v + o(1).
n n
4. SOUS-ESPACES CARACTÉRISTIQUES - RÉDUCTION DE JORDAN 201

Autrement dit limn→∞ fn = u + v , donc d'après la question précédente, limn→∞ (Id +fn /n)n =
exp(u + v), d'où le résultat car (Id +fn /n) = exp(u/n) exp(v/n).
Remarque. La proposition 5 (page 194) peut se déduire facilement du résultat de la
question a).

Exercice 8. Soit E un C-e.v de dimension nie n ∈ N∗ . Soit g ∈ L(E). Montrer que g


est diagonalisable si et seulement si l'ensemble Φ = {ϕ−1 gϕ | ϕ ∈ G(E)} est fermé.
Solution. Condition nécessaire. Soit Π le polynôme minimal de g . Comme g est diagonalisable,
Π n'a que des racines simples. Pour tout ϕ ∈ G(E), on a Π(ϕ−1 gϕ) = ϕ−1 Π(g)ϕ = 0, donc pour
tout h ∈ Φ, Π(h) = 0.
Soit h ∈ Φ. L'endomorphisme h est limite d'une suite (hp ) de points de Φ. Comme pour
tout p, Π(hp ) = 0, on a Π(h) = limp→∞ Π(hp ) = 0. L'endomorphisme h étant annulé par
un polynôme n'ayant que des racines simples, on en déduit que h est diagonalisable. Or le
polynôme caractéristique Ph de h vérie Ph = limp→+∞ Php = Pg car pour tout p, Php = Pg .
Les endomorphismes g et h ont donc même liste de valeurs propres ; comme ils sont de plus
diagonalisables, on en déduit que g et h sont semblables, donc que h ∈ Φ.
Condition susante. Supposons Φ fermé. Le corps C étant algébriquement clos, g est trigonali-
sable. Il existe donc une base B = (e1 , . . . , en ) de E dans laquelle la matrice de g ait la forme
 
λ1 t1,2 · · · t1,n
 ... .
.. 
 0 λ 
[g]B =  . . 2 . .
 .. . . . . tn−1,n 
0 ··· 0 λn
1
Pour tout p ∈ N∗ , on dénit ϕp ∈ L(E) sur la base B par ϕp (ei ) = ei pour tout i. On a
pi
 t1,2 t1,3 t1,n 
λ1 p p2
··· pn−1
 t2,3 t2,n 
 λ2 p pn−2 
 
−1  ... .. 
[ϕp gϕp ]B =  λ3 . ,
 
 ... tn−1,n 
 0 p 
λn
donc lorsque p tend vers +∞, ϕ−1p gϕp tend vers un endomorphisme diagonalisable h. Comme Φ
est fermé, on a h ∈ Φ donc g est semblable à h, donc g est diagonalisable.
Remarque. La condition susante fait appel au résultat de la question a) de l'exercice 5
page 198, redémontré ici.

4. sous-espaces caractéristiques - Réduction de Jordan


Dans toute cette partie, E désigne un K-e.v de dimension nie n ∈ N∗ . On utilisera
la notation A  B lorsque A ⊂ B et A = B .
4.1. sous-espaces caractéristiques
Définition 1. Soit f ∈ L(E) tel que le polynôme caractéristique Pf de f soit scindé
sur K : Pf = (−1)n (X − λ1 )α1 · · · (X − λs )αs . Pour tout i, le s.e.v Ni = Ker(f − λi Id)αi
s'appelle le sous-espace caractéristique de f associé à la valeur propre λi .
202 4. RÉDUCTIONS D'ENDOMORPHISMES

 Pour tout i, Ni est stable par f .


 On a E = N1 ⊕ · · · ⊕ Ns ,
 Pour tout i, dim Ni = αi .
Démonstration. Le s.e.v Ni est bien stable par f car si x ∈ Ni ,
(f − λi Id)αi (f (x)) = f ◦ (f − λi Id)αi (x) = 0.

 Le fait que E = N1 ⊕ · · · ⊕ Ns résulte du théorème de décomposition des noyaux (voir 2.1,


théorème 1).
 Pour tout i, la restriction fi de f à Ni vérie (fi −λi IdNi )αi = 0. En d'autres termes, fi −λi IdNi
est nilpotente, donc d'après 1.2 proposition 3, le polynôme caractéristique de fi − λi IdNi est
(−X)dim Ni , donc celui de fi est (λi − X)dim Ni . Or Pfi divise Pf d'après la proposition 2 de la
page 173, et donc dim Ni ≤ αi (∗).  
Comme E = N1 ⊕ · · · ⊕ Ns , on a n = si=1 dim Ni . De plus si=1 αi = n, et on en déduit
avec (∗) que dim Ni = αi pour tout i. 

Définition 2 (Indice d'un endomorphisme). Soit f ∈ L(E). Il existe un unique


entier naturel r tel que
{0} = Ker f 0  Ker f  · · ·  Ker f r = Ker f r+1 = Ker f r+2 = · · · = Ker f q = · · · .
L'entier r s'appelle l'indice de f . C'est aussi le plus petit entier naturel tel que Ker f r =
Ker f r+1 .
Démonstration. On part du fait que
∀p ∈ N, Ker f p ⊂ Ker f p+1 (∗)
(en eet, si x ∈ Ker f p ,
alors = 0 donc
f p (x) f p+1 (x)
= = 0). On en déduit en
f (f p (x))
particulier que pour tout p, dim(Ker f p ) ≤ dim(Ker f p+1 ). Autrement dit, la suite (up )p∈N dénie
par up = dim(Ker f p ) est croissante. Cette suite est à valeurs dans I = {0, 1 . . . , n}. L'ensemble
I étant ni, (up ) étant croissante, l'entier r = inf{p ∈ N | up = up+1 } existe. On a alors
 Pour tout p < r, Ker f p  Ker f p+1 (d'après (∗) et parce que up < up+1 ).
 Ker f r = Ker f r+1 (d'après (∗) et parce que ur = ur+1 ).
 Pour tout p ≥ r, Ker f p = Ker f p+1 car
Ker f p+1 = {x ∈ E | f r+1 (f p−r (x)) = 0}
= {x ∈ E | f p−r (x) ∈ Ker f r+1 } = {x ∈ E | f p−r (x) ∈ Ker f r } = Ker f p .
L'unicité est évidente. 

Remarque 1.  Les propriétés vériées par r montrent que l'indice r de f est aussi
l'unique entier naturel vériant
∀q < r, dim Ker f q < dim Ker f r et ∀q ≥ r, dim Ker f q = dim Ker f r .
 Si f est nilpotente, l'indice r de f n'est autre que inf{p | f p = 0}, c'est-à-dire
l'indice de nilpotence de f .
 On peut montrer que si r est l'indice de f , alors
Ker f r ⊕ Im f r = E.
 L'indice r de f vérie aussi la propriété
E = Im f 0  Im f  · · ·  Im f r = Im f r+1 = Im f r+2 = · · · = Im f q = · · · .
 Ces résultats sont à rapprocher de celui de la question 1/ a) du problème 2 page 155.
Théorème1. Soit f ∈ L(E) tel que son polynôme caractéristique Pf soit scindé sur K :
s
Pf = (−1)n i=1 (X− λi )αi . Alors
4. SOUS-ESPACES CARACTÉRISTIQUES - RÉDUCTION DE JORDAN 203

(i) Le polynôme minimal Πf de f est de la forme


s

Πf (X) = (X − λi )ri avec ∀i, 1 ≤ ri ≤ αi .
i=1

(ii) L'ordre de multiplicité ri de λi dans Πf est l'indice de l'endomorphisme (f −


λi IdE ).
Démonstration. (i) est démontré à la remarque 6 page 187. 
(ii) Pour alléger les notations, nous allons montrer (ii) pour i = 1. On pose Q = si=2 (X − λi )ri ,
de sorte que Πf = (X − λ1 )r1 Q. Comme (X − λ1 )r1 et Q sont premiers entre eux, on a, en
appliquant le théorème de décomposition des noyaux (voir le théorème 1 page 185),
E = Ker(f − λ1 Id)r1 ⊕ M avec M = Ker Q(f ).
On en déduit dim Ker(f − λ1 Id)r1 + dim M = n (∗).
Soit q un entier naturel. On pose P = (X − λ1 )q Q. En appliquant le théorème de décompo-
sition des noyaux, on a
Ker P (f ) = Ker(f − λ1 Id)q ⊕ Ker Q(f ) = Ker(f − λ1 Id)q ⊕ M.
On en déduit dim Ker(f − λ1 Id)q + dim M = dim Ker P (f ) (∗∗).
 Si q ≥ r1 , alors Πf divise P donc P (f ) = 0, i.e Ker P (f ) = E , donc avec (∗) et (∗∗), on
tire dim Ker(f − λ1 Id)q = dim Ker(f − λ1 Id)r1 .
 Si maintenant q < r1 , alors Πf ne divise pas P , donc P (f ) = 0, i.e Ker P (f ) = E , et
d'après (∗) et (∗∗), on tire dim Ker(f − λ1 Id)q < dim Ker(f − λ1 Id)r1 .
On en déduit que l'indice de l'endomorphisme f − λ1 IdE est r1 (voir la remarque 1). 

Remarque 2.  En conséquence, les sous-espaces caractéristiques Ni de f sont égaux


à Ker(f − λi )ri .
 Pour tout i, ri est aussi l'indice de nilpotence de l'endomorphisme f|Ni − λi IdNi .
 Ce théorème permet de calculer le polynôme minimal de f : on commence par
calculer le polynôme caractéristique de f , puis on calcule ensuite pour tout i l'indice
de f − λi Id (dans la pratique, les calculs peuvent être longs).
4.2. Décomposition de Dunford
Nous allons maintenant donner une nouvelle réduction plus poussée que la simple trigo-
nalisation (mais moins que la réduction de Jordan), appelée décomposition de Dunford .
Nous donnerons deux moyens d'y parvenir.
 Théorème 2 (Décomposition de Dunford). Soit f ∈ L(E) tel que le polynôme
caractéristique Pf de f est scindé sur K. Il existe un unique couple (d, n) ∈ (L(E))2 avec
d diagonalisable et n nilpotente, tel que
(i) f =d+n (ii) n ◦ d = d ◦ n.
s
Démonstration. On écrit Pf = (−1)n i=1 (X −λi ) αi , et pour tout i, on note Ni = Ker(f −λi Id)αi
les sous-espaces caractéristiques de f .
Existence. Comme E = N1 ⊕ · · · ⊕ Ns , il sut de dénir d et n sur chaque Ni . On les dénit
comme suit :
∀i, ∀x ∈ Ni , d(x) = λi x et n(x) = f (x) − λi x.
Autrement dit, pour tout i on a di = d|Ni = λi IdNi et ni = n|Ni = f|Ni − λi IdNi . Les di et ni
sont des endomorphismes de Ni car Ni est stable par f donc par d et n.
Ainsi dénie, d est diagonalisable. Pour tout i, on a nαi i = 0 (puisque par dénition de Ni ,
pour tout x ∈ Ni , (f − λi Id)αi (x) = 0). Si α = supi αi , nα s'annule donc sur chaque Ni donc sur
E = ⊕si=1 Ni , c'est-à-dire nα = 0.
Il reste à montrer que d et n commutent. Pour tout i, on a di = λi IdNi donc ni ◦ di = di ◦ ni ,
c'est-à-dire que d et n commutent sur chaque Ni , donc sur E = ⊕si=1 Ni .
204 4. RÉDUCTIONS D'ENDOMORPHISMES

Unicité. Soit (d , n ) un autre couple vériant les conditions. On remarque d'abord que f ◦ d =
d ◦ f , donc pour tout i, Ni est stable par d (pour tout x ∈ Ni , (f − λi Id)αi [d (x)] = d ◦ (f −
λi Id)αi (x) = 0). Comme d|Ni = λi IdNi , on en déduit que d ◦ d = d ◦ d sur Ni . Ceci étant vrai
pour tout i, comme E = ⊕si=1 Ni , on en déduit que d et d commutent. De plus d et d sont
diagonalisables, on peut donc les diagonaliser dans une même base, ce qui prouve que d − d est
diagonalisable.
Comme n = f − d, n = f − d et que d ◦ d = d ◦ d, n et n commutent. Si on choisit p et q
tels que np = n q = 0, on a donc
  
 p+q p+q i j
(n − n ) = n (−1)j n = 0
i
i+j=p+q

(dans chaque terme de la somme, on a soit i ≥ p, soit j ≥ q ). Donc n − n = d − d est nilpotent.


Or nous avions montré que d − d est diagonalisable, donc d − d = 0. Autrement dit, d = d et
donc n = n . 
s
Conséquence. Soit f ∈ L(E) avec Pf = (−1) n
i=1 (X − λi )
αi
scindé sur K. Reprenons les
notations utilisées dans la démonstration. Pour tout i, fi = f|Ni ∈ L(Ni ) est trigonalisable
et λi est sa seule valeur propre (car fi − λi IdNi = ni est nilpotente) et donc il existe une
base Bi de Ni dans laquelle la matrice de fi a la forme
 
λi (×)
[fi ]Bi = Ai =  ... .
(0) λi
Comme E = ⊕si=1 Ni , on voit que B = (B1 , . . . , Bs ) est une base de E dans laquelle la
matrice de f a la forme
 
A1 (0)
[f ]B =  ... .
(0) As
Cette réduction est plus poussée que la simple trigonalisation que nous avions vue au
théorème 3 page 174.
Un autre moyen d'aboutir à la décomposition de Dunford. Nous présentons une
autre technique pour aboutir à la décomposition de Dunford, qui présente l'avantage de
montrer que les endomorphismes d et n sont des polynômes en f . Nous aurons besoin
pour cela d'un résultat préliminaire qui fait l'objet de la proposition ci dessous.
Proposition 1. Soit f ∈ L(E) et F ∈ K[X] un polynôme annulateur de f . Soit F =
βM1α1 · · · Msαs la décomposition en facteurs irréductibles de K[X] du polynôme F . Pour
tout i, on note Ni = Ker Miαi (f ). On a alors E = N1 ⊕· · ·⊕Ns et pour tout i, la projection
sur Ni parallèlement à ⊕j=i Nj est un polynôme en f .
Démonstration. La propriété E= N1 ⊕· · ·⊕Ns résulte du théorème de décomposition des noyaux.
α
Pour tout i, notons Qi = j=i Mj j . Aucun facteur n'est commun à tous les Qi , c'est-à-dire
que les Qi sont premiers entre eux dans leur ensemble. En appliquant l'égalité de Bezout, on voit
qu'il existe U1 , . . . , Us ∈ K[X] tels que U1 Q1 + · · · + Us Qs = 1, de sorte que
IdE = U1 (f ) ◦ Q1 (f ) + · · · + Us (f ) ◦ Qs (f ).

Pour tout i, on note Pi = Ui Qi et pi = Pi (f ). On a Id = si=1 pi (∗). Par ailleurs, pour tout
j = i, F divise Qi Qj donc
∀j = i, pi ◦ pj = Qi Qj (f ) ◦ Ui Uj (f ) = 0. (∗∗)
s
On déduit de (∗) que pour tout i, pi = i=1 pi ◦ pj et donc d'après (∗∗), pi = pi . Les pi sont
2

donc des projecteurs.


 Montrons que pour tout i, Im pi = Ni .
4. SOUS-ESPACES CARACTÉRISTIQUES - RÉDUCTION DE JORDAN 205

Soit y = pi (x) ∈ Im pi . On a
Miαi (f )(y) = Miαi (f ) ◦ Pi (f )(x) = Ui (f ) ◦ F (f )(x) = 0,

ce qui prouve que Im pi ⊂ Ker Miαi (f ) = Ni .


Il reste à montrer l'inclusion réciproque. Soit x ∈ Ni = Ker Miαi (f ). D'après (∗), x =
p1 (x) + · · · + ps (x). Or pour tout j = i, pj (x) = Uj (f ) ◦ Qj (f )(x) = 0 car Miαi divise Qj , donc
nalement x = pi (x) ∈ Im pi . Donc Im pi = Ni .
 Il ne reste plus qu'à montrer que pour tout i, Ker pi = ⊕j=i Nj .
α
Pour tout j = i, on a Nj ⊂ Ker pi car si x ∈ Nj , alors pi (x) = Ui (f ) ◦ Qi (f )(x) = 0 car Mj j
divise Qj . On en déduit que ⊕j=i Nj ⊂ Ker pi . 
Soit maintenant x ∈ Ker pi . D'après (∗), x = j=i pj (x) donc x ∈ ⊕j=i Nj . Finalement,
Ker pi = ⊕j=i Nj .
La démonstration est terminée puisque par construction, les projecteurs pi sont des polynômes
en f . 

 Théorème 3 (Décomposition de Dunford, bis). Soit un endomorphisme f ∈ L(E)


tel que son polynôme caractéristique Pf soit scindé sur K. Il existe un unique couple (d, n)
d'endomorphismes tel que
(i) d est diagonalisable, n est nilpotente.
(ii) f = d + n et d ◦ n = n ◦ d.
De plus, d et n sont des polynômes en f .

Démonstration. Existence. Écrivons Pf = (−1)n si=1 (X − λi )αi et pour tout i, notons Ni =
Ker(f −λi )αi . La proposition précédente s'applique avec F = Pf et pour tout i, Mi = (X −λi ). En
utilisant les notations précédentes,
 pour tout i, pi = Pi (f ) est le projecteur sur Ni parallèlement

à ⊕j=i Nj . Posons d = si=1 λi pi (ainsi construit, d est diagonalisable) et n = f − d = si=1 (f −
λi Id)pi . En utilisant le fait que les pi sont des projecteurs, que pi ◦ pj = 0 si i = j , et que les pi
commutent avec f (ce sont des polynômes en f ), on obtient facilement par récurrence sur q
s

∀q ∈ N∗ , nq = (f − λi Id)q pi .
i=1

Or si q = supi αi , on a (f − λiId)q pi = [(X − λi i ](f ) = 0 pour tout i car Pf divise (X − λi ) Pi ,


)q P q

donc n = 0.
q

Ainsi construits, d et n sont des polynômes en f vériant (i) et (ii).


Unicité. Soit (d , n ) un autre couple vériant (i) et (ii). Les endomorphismes d et n com-
mutent avec d + n = f donc avec d et n qui sont des polynômes en f . Ainsi, d et d sont
diagonalisables dans une même base, ce qui entraîne que d − d est diagonalisable. Comme
d − d = n − n est nilpotente (on montre ceci comme dans la démonstration du théorème 2), on
en déduit que d − d = n − n = 0. 

Calcul pratique de la décomposition de Dunford. Nous allons donner un moyen


pratique de calculer les endomorphismes d et n donnés par la décomposition de Dunford.
Nous allons pour cela calculer les projecteurs pi , et il sura ensuite d'écrire que
s

d= λi p i et n = f − d.
i=1

Commençons par remarquer que dans la démonstration du théorème précédent (partie


existence), on aurait pu remplacer Pf par n'importe quel polynôme F annulant f et ayant
les mêmes
 facteurs premiers que Pf , en particulier par le polynôme minimal Πf de f . Si
F = si=1 (X − λi )ri est un tel polynôme, on commence par décomposer 1/F en éléments
206 4. RÉDUCTIONS D'ENDOMORPHISMES

simples dans K(X) :


s
 r 
1   i
xi,j
= .
F i=1 j=1
(X − λi )j
ri

Pour tout i, on pose ensuite Ui = xi,j (X − λi )ri −j , de sorte que
j=1

 s s

1 Ui
= ou encore 1 = Ui Q i ,
F i=1
(X − λi )ri i=1

où Qi = j=i (X − λj )rj . Les projecteurs pi sont alors donnés par pi = Pi (f ) où Pi = Ui Qi
(voir la démonstration de la proposition 1).
Il est en général préférable de prendre pour le polynôme F le polynôme minimal Πf
de f (les degrés des polynômes intermédiaires sont moins élevés). Mais le calcul de Πf
peut être assez long, c'est pourquoi on choisit parfois de prendre F = Pf .
Application au calcul d'exponentielle. L'écriture f = d + n donnée par la décompo-
sition de Dunford est intéressante car d et n commutant, on peut utiliser la formule du
binôme pour calculer f p :
p  
 p
f p = (d + n)p = dk ◦ np−k .
k=0
k

Dans l'expression ci dessus, on peut retirer les termes de la somme pour lesquels p − k est
plus grand que l'indice de nilpotence de n.
Un autre intérêt est le calcul d'exponentielle. En eet, d et n commutant, on a exp(f ) =
exp(d+n) = exp(d) exp(n). Le calcul de exp(d) est simple si une base B de diagonalisation
de d est connue :
   
λ1 (0) eλ 1 (0)
si [d]B =  ... , [exp(d)]B = exp([d]B ) =  ... .
λn
(0) λn (0) e
q−1
 1 p
Quant à exp(n), il sut d'écrire exp(n) = n où q est l'indice de nilpotence de n.
p=0
p!
Dans la pratique, on calcule d et n grâce à la méthode décrite plus haut. Avec les
notations précédentes, rappelons que
s
 s

d= λi p i et n = (f − λi Id) pi .
i=1 i=1

 des projecteurs pi . En eet, les


On peut alors calculer exp(f ) sans diagonaliser d, à partir
relations sur les pi entraînent que pour tout p, dp = si=1 λpi pi donc
+∞ p
 s
+∞ 
 s
 +∞  s
 d  λpi   λp 
i
exp(d) = = pi = pi = e λi pi .
p=0
p! p=0 i=1
p! i=1 p=0
p! i=1

Par ailleurs,
+∞ p
 s
+∞ 
 s
r −1 
 n  (f − λi Id)p  i
(f − λi Id)p
exp(n) = = pi = pi .
p=0
p! p=0 i=1
p! i=1 p=0
p!
4. SOUS-ESPACES CARACTÉRISTIQUES - RÉDUCTION DE JORDAN 207

Finalement, on en déduit
s
r −1 
 i
(f − λi Id)p
λi
exp(f ) = exp(d) exp(n) = e pi .
i=1 p=0
p!

(Un calcul d'exponentielle de matrice est traité à l'exercice 1 page 209).


4.3. Réduction de Jordan
Nous allons maintenant donner une réduction encore plus poussée que la précédente,
appelée réduction de Jordan. En un certain sens, la réduction de Jordan est la plus poussée
que l'on puisse obtenir. Il existe cependant d'autres types de réduction qui ont aussi leurs
avantages et qui s'utilisent dans des circonstances diérentes (voir l'annexe B).
La réduction de Jordan ne gure pas au programme des classes de mathématiques
spéciales. Cependant, les techniques utilisées dans sa démonstration sont très classiques
et leurs connaissances permettent de répondre à beaucoup de problèmes.
Réduction de Jordan d'un endomorphisme nilpotent. Nous allons commencer par
donner la réduite de Jordan d'un endomorphisme nilpotent. Nous verrons par la suite que
la réduction d'un endomorphisme quelconque s'en déduit facilement.

Théorème 4 (Réduction de Jordan d'un endomorphisme nilpotent).


Soit u ∈ L(E) un endomorphisme nilpotent. Alors il existe une base B de E dans laquelle
la matrice de u a la forme
 
0 v1 (0)
 .. . . . ..
. 
 . 
[u]B =  . ..  avec ∀i, vi ∈ {0, 1}.
 .. . vn−1 
0 ··· ··· 0

Démonstration. Soit r ∈ N∗ l'indice de nilpotence de u, de sorte que ur−1 = 0 et ur = 0. Pour


tout i ∈ N, on note Fi = Ker(ui ).
1) Montrons que
(i) {0} = F0  F1  · · ·  Fr−1  Fr = E .
(ii) Pour tout i ∈ N, 1 ≤ i ≤ r, u(Fi ) ⊂ Fi−1 .
La partie (i) résulte de la dénition 2, car r n'est autre que l'indice de u (voir la remarque 1).
Montrons (ii). Soit i ∈ N, 1 ≤ i ≤ r. Pour tout x ∈ Fi , ui−1 [u(x)] = ui (x) = 0 donc
u(x) ∈ Fi−1 . Donc u(Fi ) ⊂ Fi−1 .
2) Nous allons maintenant montrer l'existence de s.e.v G1 , . . . , Gr et H1 , . . . , Hr−1 de E tels que
(i) ∀i, 1 ≤ i ≤ r, Fi = Gi ⊕ Fi−1 .
(ii) ∀i, 1 ≤ i ≤ r − 1, u applique injectivement Gi+1 dans Gi .
(iii) ∀i, 1 ≤ i ≤ r − 1, Gi = u(Gi+1 ) ⊕ Hi .
Soit Gr un supplémentaire de Fr−1 dans Fr , de sorte que Fr = Gr ⊕ Fr−1 . On a

(Ker u) ∩ Gr = F1 ∩ Gr ⊂ Fr−1 ∩ Gr = {0}
u(Gr ) ⊂ u(Fr ) ⊂ Fr−1

donc u applique injectivement Gr dans Fr−1 .


u(Gr ) ∩ Fr−2 = {0}. En eet, soit x ∈ u(Gr ) ∩ Fr−2 . Il existe y ∈ Gr tel que u(y) = x, et on
a 0 = ur−2 (x) = ur−1 (y), donc y ∈ Fr−1 ∩ Gr = {0}, donc y = 0, donc x = u(y) = 0.
On a donc u(Gr ) ⊕ Fr−2 ⊂ Fr−1 . Il existe donc un s.e.v Hr−1 tel que u(Gr ) ⊕ Fr−2 ⊕ Hr−1 =
Fr−1 . Si on pose Gr−1 = u(Gr )⊕Hr−1 , on a donc Fr−1 = Gr−1 ⊕Fr−2 , et u applique injectivement
Gr dans Gr−1 .
208 4. RÉDUCTIONS D'ENDOMORPHISMES

Ainsi (i), (ii) et (iii) sont démontrés pour i = r − 1. Pour montrer (i), (ii) et (iii) pour i ∈
{1, . . . , r − 2}, nous allons utiliser une récurrence descendante. Supposons le résultat prouvé pour
i + 1 ∈ {2, . . . , r − 1} et montrons le pour i.
On s'intéresse au comportement de u sur Gi+1 . On a

(Ker u) ∩ Gi+1 = F1 ∩ Gi+1 ⊂ Fi ∩ Gi+1 = {0}
u(Gi+1 ) ⊂ u(Fi+1 ) ⊂ Fi
donc u applique injectivement Gi+1 dans Fi .
u(Gi+1 ) ∩ Fi−1 = {0}. En eet, soit x ∈ u(Gi+1 ) ∩ Fi−1 . Il existe y ∈ Gi+1 tel que x = u(y).
Or x ∈ Fi−1 donc 0 = ui−1 (x) = ui (y), d'où y ∈ Fi ∩ Gi+1 = {0}, c'est-à-dire y = 0, donc
x = u(y) = 0.
On a donc u(Gi+1 )⊕Fi−1 ⊂ Fi . On peut donc trouver un s.e.v Hi tel que u(Gi+1 )⊕Fi−1 ⊕Hi =
Fi . On pose alors Gi = u(Gi+1 ) ⊕ Hi , de sorte que Fi = Gi ⊕ Fi−1 et u applique injectivement
Gi+1 dans Gi .
Les s.e.v Gr , . . . , G1 et Hr−1 , . . . , H1 sont ainsi construits de proche en proche. Les propriétés (i)
et (iii) à l'ordre 1 sont

Ker u = F1 = G1 ⊕ F0 = G1 ⊕ {0} = G1
.
G1 = u(G2 ) ⊕ H1
En résumé, la suite G1 , . . . , Gr vérie

 E = Gr ⊕ Gr−1 ⊕ · · · ⊕ G1
G1 = F1 = Ker u .

∀i, 2 ≤ i ≤ r, u applique injectivement Gi dans Gi−1

3) Partant d'une base εi,1 , . . . , εi,si de Gi , u(εi,1 ), . . . , u(εi,si ) est une famille libre de Gi−1 que
l'on peut compléter par εi−1,1 , . . . , εi−1,si−1 pour obtenir une base de Gi−1 . Nous obtenons en
réunissant toutes ces bases une base de E que nous pouvons écrire sous la forme du tableau à
double entrée suivant.
Gr er,1 ··· er,sr
Gr−1 u(er,1 ) ··· u(er,sr ) er−1,1 ··· er−1,sr−1
Gr−2 u2 (er,1 ) · · · u2 (er,sr ) u(er−1,1 ) ··· u(er−1,sr−1 ) er−2,1 ···
··· ··· ··· ··· ··· ··· ··· ··· ···
G1 ur−1 (e r,1 ) ··· ur−1 (e r,sr ) ur−2 (e r−1,1 ) ··· ur−2 (e r−1,sr−1 ) ur−3 (e r−2,1 ) · · · e1,1 · · · e1,s1

4) En lisant le tableau précédent colonne par colonne, de bas en haut puis de gauche à droite, nous
obtenons un nouvel ordre (e1 , . . . , en ) des vecteurs de cette base. On voit alors que u(ej ) = ej−1
si ej n'est pas situé sur la dernière ligne, u(ej ) = 0 si ej est situé sur la dernière ligne. La base
B = (e1 , . . . , en ) convient donc pour le théorème. 

Remarque 3. Une autre manière de voir les choses est de remarquer que [u]B est constituée
de blocs nuls et de blocs de la forme
 
0 1 (0)
 .. ... ... 
 . 
 .. ... 
 . 1 
0 ··· ··· 0
centrés sur sa diagonale principale.
 On peut aussi obtenir la réduction de Jordan d'un endomorphisme nilpotent dans le
cadre de la théorie des invariants de similitude (voir l'annexe B page 400).
4. SOUS-ESPACES CARACTÉRISTIQUES - RÉDUCTION DE JORDAN 209

Théorème 5 (Réduction de Jordan d'un endomorphisme). Soit f ∈ L(E) tel


que son polynôme caractéristique Pf soit scindé sur K :
s

Pf = (−1)n (X − λi )αi , (λi = λj si i = j).
i=1

Alors il existe une base B de E dans laquelle la matrice de f ait la forme


   
A1 λi vi,1 (0)
0  . 
 A2   0 λi . . 
[f ]B =  .. 
 , où ∀i, A i =  .. . . . .  ∈ Mαi (K)
0 .  . . . vi,αi −1 
As 0 ··· 0 λi
avec pour tout (i, j), vi,j ∈ {0, 1}.
Démonstration. Pour tout i, on note Ni = Ker(f − λi Id)αi les sous-espaces caractéristiques de
f . On a E = N1 ⊕ · · · ⊕ Ns et les Ni sont stables par f . Pour tout i, on pose fi = f|Ni . On a
fi ∈ L(Ni ) et (fi − λi Id)αi = 0, donc ni = fi − λi Id est nilpotent. D'après le théorème précédent,
il existe donc une base Bi de Ni telle que
   
0 vi,1 (0) λi vi,1 (0)
 .. ... ...   ... 
 .  0 λi
[ni ]Bi =  .. ...  donc [fi ]Bi = [λi IdNi +ni ]Bi = 
 . ... ...


 . vi,αi −1   .. vi,αi −1 
0 ··· ··· 0 0 ··· 0 λi
avec pour tout j , 1 ≤ j ≤ αi − 1, vi,j ∈ {0, 1}. Comme E = N1 ⊕ · · · ⊕ Ns , on voit que
B = (B1 , . . . , Bs ) est une base de E et que
 
[f1 ]B1 (0)

[f ]B =  ... 

(0) [fs ]Bs
d'où le résultat en posant, pour tout i, Ai = [fi ]Bi . 

Remarque 4. Ce théorème peut aussi s'interpréter comme suit : [f ]B est constituée de


blocs de taille 1 du type (λi ) ou de taille > 1 du type
 
λi 1 (0)
 ... 
 0 λi 
 .. ... ... 
 . 1 
0 ··· 0 λi
centrés sur sa diagonale principale.
4.4. Exercices
Exercice 1. Calculer l'exponentielle de la matrice
 
1 4 −2
M =  0 6 −3  ∈ M3 (R).
−1 4 0

Solution. Le polynôme caractéristique de M est PM = −(X − 2)2 (X − 3). Les valeurs propres
de M sont donc λ1 = 2 et λ2 = 3. Pour calculer l'exponentielle de M , nous allons utiliser la
méthode décrite page 206, en employant les mêmes notations. On part ici du polynôme annulateur
F = (X − 2)2 (X − 3). On a ici Q1 = (X − 3) et Q2 = (X − 2)2 . On recherche maintenant
210 4. RÉDUCTIONS D'ENDOMORPHISMES

U1 , U2 ∈ R[X] tels que U1 Q1 + U2 Q2 = 1. On eectue pour cela la décomposition de 1/F en


éléments simples. Après calculs, on trouve
1 1 1 1 1 1 X −1
= =− − + = −
F (X − 2)2 (X − 3) X − 2 (X − 2)2 X − 3 X − 3 (X − 2)2
donc (X −2)2 −(X −1)(X −3) = 1, et donc U1 = −(X −1) et U2 = 1 conviennent. Si maintenant
P1 = U1 Q1 = −(X − 1)(X − 3) et P2 = U2 Q2 = (X − 2)2 , les projecteurs p1 et p2 sont donnés
par p1 = P1 (M ) et p2 = P2 (M ). On sait alors que
 
λ1 1
exp(M ) = e I3 + (M − 2I3 ) p1 + eλ2 p2 = e2 (M − I3 )p1 + e3 p2 .
1!
Un calcul donne
 
−2 −4 6
p1 = P1 (M ) = −(M − I3 )(M − 3I3 ) =  −3 −3 6 
−3 −4 7
et  
3 4 −6
p2 = P2 (M ) = (M − 2I3 )2 =  3 4 −6  ,
3 4 −6
(au passage, on vérie que p1 + p2 = I3 ), donc
 
−6e2 + 3e3 −4e2 + 4e3 10e2 − 6e3
exp(M ) =  −6e2 + 3e3 −3e2 + 4e3 9e2 − 6e3  .
−7e2 + 3e3 −4e2 + 4e3 11e2 − 6e3

Exercice 2. Soit M ∈ Mn (C). Donner une condition nécessaire et susante sur la


matrice M pour que limt→+∞ etM = 0.
Solution. Nous allons montrer que limt→+∞ etM = 0 si et seulement si pour toute valeur propre
λ de M , la partie réelle (λ) de λ vérie (λ) < 0.
Condition nécessaire. Supposons que limt→+∞ etM = 0. Soit λ une valeur propre de M , et X un
vecteur propre associé. On a facilement
∀p ∈ N, M p X = λp X
donc
+∞ p
 +∞ p

t t
∀t ∈ R, etM X = M pX = λp X = etλ X.
p! p!
p=0 p=0
Ainsi, limt→∞ etλ = 0, ce qui entraîne (λ) < 0.
Condition susante. Supposons que pour toute  valeur propre λ de M , on ait (λ) < 0. Si
A = (ai,j )1≤i,j≤n ∈ Mn (C), on pose A = i,j |ai,j |. La norme  ·  est une norme d'algèbre
sur Mn (C).
D'après le théorème 2, on peut écrire M = D + N avec D diagonalisable, N nilpotente et
DN = N D. Comme D et N commutent, on a exp(M ) = exp(D) exp(N ). Soit P ∈ G n (C) tel
que  
λ1 (0)
P −1 
DP =  ...  
=D.
(0)
λn
Les λi sont les valeurs propres de M , et par hypothèse µ = supi (λi ) < 0. On a
 
etλ1 (0) n

∀t ∈ R,

exp(tD ) =  ... 
 donc  exp(tD ) =

|etλi | ≤ netµ .
(0) etλn i=1
4. SOUS-ESPACES CARACTÉRISTIQUES - RÉDUCTION DE JORDAN 211

Comme exp(tD) = P −1 exp(tD )P , ceci entraîne

 exp(tD) ≤ P −1  · netµ · P  = Ketµ , K = n P −1  · P  (∗)

Maintenant, N étant nilpotente, on a


n−1
 tk n−1
 tk
∀t ≥ 0, exp(tN ) = Nk donc  exp(tN ) ≤ N k = f (t).
k! k!
k=0 k=0

Avec (∗), on peut maintenant écrire

 exp(tM ) =  exp(tD) exp(tN ) ≤  exp(tD) ·  exp(tN ) ≤ Ketµ f (t).

Comme t → f (t) est polynomiale et µ < 0, on en déduit que limt→+∞ etM = 0.

Exercice 3. Soit M ∈ Mn (C). Donner une condition nécessaire et susante sur M pour
que M et 2M soient semblables.

Solution. Supposons M et 2M semblables. Alors si λ est valeur propre de M , 2λ est valeur


propre de 2M , donc de M (car M est semblable à 2M ). De même, 2(2λ) est valeur propre
de M . On itérant le procédé, on voit ainsi que pour tout p ∈ N, 2p λ est valeur propre de M .
M n'ayant qu'un nombre ni de valeurs propres, on doit donc avoir λ = 0 pour toute valeur
propre λ de M . Le corps de base C étant algébriquement clos, on en déduit que la seule racine
du polynôme caractéristique PM de M est 0, donc PM = (−1)n X n , et donc M est nilpotente
d'après le théorème de Cayley-Hamilton.
Réciproquement, supposons M nilpotente. Soit f l'endomorphisme de Cn dont la matrice
dans la base canonique B de Cn est M . On sait (théorème 4) qu'il existe une base B1 =
(e1 , . . . , en ) de Cn telle que
 
0 v1 (0)
 ... 
 0 0 
[f ]B1 =  .. ...  avec ∀i, vi ∈ {0, 1}.
 . vn−1 
0 ··· ··· 0

On note maintenant B2 la base B2 = (e1 , 2e2 , . . . , 2n−1 en ). Pour tout i ∈ {1, . . . , n − 1}, on a
f (ei+1 ) = vi ei donc f (2i ei+1 ) = (2vi )(2i−1 ei ), et donc
 
0 2v1 (0)
 ... 
 0 0 
[f ]B2 =  .. ...  = 2[f ]B1
 . 2vn−1 
0 ··· ··· 0

donc 2[f ]B1 et [f ]B1 sont semblables, donc 2M et M sont semblables.


En résumé, M et 2M sont semblables si et seulement si M est nilpotente.

Exercice 4 (Toute matrice est semblable à sa transposée). a) Soit une matrice


M ∈ Mn (C). Montrer que M et tM sont semblables (on pensera à la réduction de Jordan).
b) Que dire dans Mn (R) ?
212 4. RÉDUCTIONS D'ENDOMORPHISMES

Solution. a) D'après le théorème 5 et la remarque 4, il existe Q ∈ Gn (C) et des nombres


complexes αi tels que
 
  αi 1 (0)
M1 (0)  ... 

M  = Q−1 M Q =  ... 
 avec 
Mi = 
0 αi 
 ou (αi ).
 .. ... ...
(0) Mq . 1 
0 ··· 0 αi

Pour tout i, on va montrer que Mi et tM i sont semblables. Soit ni la taille de la matrice Mi . Si


ni = 1 on a Mi = (αi ) donc Mi = tM i donc Mi et tM i sont semblables. Si ni > 1, on considère
l'endomorphisme fi de Cni dont Mi est la matrice dans la base canonique B = (e1 , . . . , eni ) de
Cni . Soit B  la base (eni , . . . , e2 , e1 ) de Cni . On a facilement
 
αi 0 ··· 0
 ... ... .. 
 1 .  t
[fi ]B  =  ...  = [fi ]B
 αi 0 
(0) 1 αi

donc tM i = [fi ]B  est semblable à Mi = [fi ]B .


Pour tout i, on peut donc trouver une matrice Pi inversible telle que t
 M
−1
i = Pi  Mi Pi . La
 P1
0
−1
P1 0
matrice P = ... ∈ Mn (C) est inversible, son inverse est P −1 =  ...  et on a
0 Pq 0 Pq−1
   t

P1−1 M1 P1 0 M1 0

P −1 M  P =  ...  
= ...  t 
= M
t
0 Pq−1 Mq Pq 0 Mq

ce qui entraîne t(Q−1 M Q) = P −1 (Q−1 M Q)P donc tM = R−1 M R avec R = QP tQ.


b) Dans Mn (R), on ne peut plus procéder comme plus haut car le corps de base R n'est pas
algébriquement clos et donc on n'est pas assuré de la réduction de Jordan de M .
On s'en tire autrement. Si M ∈ Mn (R) ⊂ Mn (C) alors d'après a), il existe P ∈ Gn (C) tel
que tM = P −1 M P . On a vu au problème 14 page 167 que deux matrices réelles semblables dans
Mn (C) sont semblables sur Mn (R), autrement dit, il existe Q ∈ Gn (R) tel que tM = Q−1 M Q.
Remarque. Le résultat de a) reste vrai sur tout corps K dès que PM est scindé sur K.
On en déduit que pour tout corps K, M ∈ Mn (K) est semblable dans Mn (L) à tM où L
désigne le corps des racines de PM . Si K est inni, on en déduit (toujours grâce au résultat
du problème 14 page 167) que M et tM sont semblables dans Mn (K). (En fait, ceci est
vrai même si K est un corps ni  voir l'annexe B, partie 3.2.)

Exercice 5 (Logarithme d'une matrice inversible). 1/ a) Soit M ∈ Gn (C).


Montrer qu'il existe A ∈ Mn (C) telle que exp(A) = M .
b) Déterminer l'ensemble des matrices B ∈ Mn (C) telles que exp(B) = In .
2/ (Application). On se donne un entier p ≥ 2.
a) Soit A ∈ Gn (C). Montrer l'existence d'une matrice B telle que B p = A.
b) Lorsque A ∈ Mn (C) n'est pas inversible, existe-t-il toujours une matrice B telle que
A = Bp ?
3/ (Seconde application). Montrer que Gn (C) est connexe.
4. SOUS-ESPACES CARACTÉRISTIQUES - RÉDUCTION DE JORDAN 213

Solution. 1/ a) D'après la conséquence du théorème 2, M est semblable à une matrice de la


forme
   
B1 λ × ··· ×
 0   ... .. 
 B2   0 λ . 
M =  ... , les blocs Bi étant de la forme  .. ... ... .
 0   . × 
Bp 0 ··· 0 λ
Soit B ∈ Mm (C) un tel bloc. On a λ = 0 puisque M est inversible. On peut écrire B = λ(Im +N )
où N est une matrice nilpotente. Posons C = Im + N . Par analogie avec le fait que pour |t| < 1,
2 3
log(1 + t) = t − t2 + t3 + · · · , on pose

N2 N m−1
D=N− + · · · + (−1)m .
2 m−1
Comme on s'y attend, nous allons montrer que exp(D) = Im + N = C . Ceci peut se déduire
d'un calcul formel analogue au cas des séries entières sur C. Pour le lecteur non convaincu, nous
allons donner une autre démonstration. Pour tout t ∈ R, on pose
t2 2 tm−1 m−1
D(t) = tN − N + · · · + (−1)m N .
2 m−1
Par dérivation, on obtient D (t) = N − tN 2 + · · · + (−1)m tm−2 N m−1 , et comme N m = 0 (car N
est nilpotente), on a (Im + tN )D (t) = N . Si S(t) = exp[D(t)], comme D et D commutent on
a donc (Im + tN )S  (t) = N S(t) (∗), et en dérivant une nouvelle fois (Im + tN )S  (t) = 0, d'où
on tire S  (t) = 0 car (Im + tN ) est toujours inversible (son inverse est Im − tN + t2 N 2 + · · · +
(−1)m−1 M m−1 ). Pour tout t, S  (t) est donc une fonction constante, égale à S  (0) = N d'après (∗).
Or S(0) = Im donc pour tout t, S(t) = Im +tN . En particulier, C = S(1) = exp[D(1)] = exp(D).
Ceci étant, soit µ ∈ C tel que eµ = λ (si λ = |λ|eiθ , il sut de prendre µ = log |λ| + iθ).
Alors exp(µIm + D) = exp(µIm ) exp(D) = (λIm )C = B .
Ainsi, pour tout i, il existe une matrice Ai telle que exp(Ai ) = Bi . Si on note
   
A1 (0) exp(A1 ) (0)

A =  ... 
 on a 
exp(A ) =  ...  
=M .
(0) Ap (0) exp(Ap )

Si P est une matrice inversible telle que P −1 M  P = M , on voit que la matrice A = P −1 A P


vérie exp(A) = P −1 exp(A )P = M .
b) Considérons une matrice B ∈ Mn (C) telle que exp(B) = In . On peut écrire B = D + N où
D est une matrice diagonalisable, N une matrice nilpotente, avec DN = N D.
Nous allons montrer que N = 0. On a In = exp(B) = exp(D) exp(N ) donc exp(N ) =
exp(D)−1 = exp(−D). L'exponentielle d'une matrice diagonalisable étant diagonalisable (pour
s'en convaincre, se placer dans une base de diagonalisation et remarquer que l'exponentielle d'une
matrice diagonale est diagonale), exp(N ) = I + N + · · · + N n−1 /(n − 1)! = exp(−D) est donc
diagonalisable. Si on pose Q = 1+X +· · ·+X n−1 /(n−1)! ∈ R[X], on a exp(N ) = Q(N ). Comme
N est nilpotente, sa seule valeur propre est 0 donc la seule valeur propre de Q(N ) est Q(0) = 1
(voir la remarque 1 page 184). De plus, on a vu que Q(N ) = exp(N ) est diagonalisable ; elle est
donc semblable à l'identité, donc égale à I , et donc N + · · · + N n−1 /(n − 1)! = 0. Autrement
dit, le polynôme R = X + · · · + X n−1 /(n − 1)! annule N . Le polynôme minimal ΠN de N est
de la forme ΠN = X α puisque N est nilpotente. Comme R(N ) = 0, on a ΠN = X α | R, ce qui
entraîne que α = 1. Finalement, 0 = ΠN (N ) = N .
En résumé, on a montré que B = D est diagonalisable. Soit P ∈ Gn (C) tel que
 
λ1 (0)

P −1 BP =  ... 
.
(0) λn
214 4. RÉDUCTIONS D'ENDOMORPHISMES

On a  
eλ 1 (0)

In = P −1 exp(B)P = exp(P −1 BP ) =  ... 

(0) e λn
donc pour tout j , eλj = 1, c'est-à-dire λj ∈ 2iπZ. Réciproquement, si B est diagonalisable à
valeurs propres dans 2iπZ, on a facilement exp(B) = In . Les matrices B telles que exp(B) = In
sont donc les matrices diagonalisables à valeurs propres dans 2iπZ.
2/ a) Le résultat de la question 1/a) nous assure l'existence d'une matrice M telle que A =
exp(M ). En posant B = exp(M/p), on a B p = exp(M ) = A.
b) Non ! Considérons une matrice nilpotente A dont l'indice de nilpotence est n, i. e. vériant
An = 0 = An−1 . Une telle matrice existe, par exemple le bloc de Jordan
 
0 1 (0)
 .. ... ... 
 . 
A= .. ... .
 . 1 
0 ··· ··· 0
Si A = Bp, alorsAn = = 0 donc B est une matrice nilpotente, donc B n = 0 (en eet,
B np
d'après la remarque 6 page 187, PB = (−1)n X n donc B n = 0 d'après le théorème de Cayley-
Hamilton). Or 0 = An−1 = B p(n−1) , donc forcément p(n − 1) < n, ce qui est impossible dès que
n ≥ 2.
3/ Il sut de montrer que Gn (C) est connexe par arcs. Soient P, Q ∈ Gn (C). Il existe deux
matrices A et B telles que P = exp(A) et Q = exp(B). Le chemin ϕ : [0, 1] → Mn (C) t →
exp(tA + (1 − t)B) relie continûment Q = exp(B) à P = exp(A). De plus, pour tout t ∈ [0, 1],
ϕ(t) est l'exponentielle d'une matrice, donc inversible. Finalement, ϕ relie continûment P et Q
dans Gn (C), d'où le résultat.
Remarque. Une matrice réelle inversible, même de déterminant positif, n'est pas forcément
l'exponentielle d'une matrice réelle (voir l'exercice 2 page 196).

5. Problèmes
Problème 1. Soit un entier n ≥ 2 et
 
a b ··· b
 ... .. 
 b a . 
M = .. ... ...  ∈ Mn (R), avec b = 0.
 . b 
b ··· b a

a) Déterminer les valeurs propres de M et montrer que M est diagonalisable.


b) Lorsque M est inversible, calculer l'inverse de M .
c) Pour tout p ∈ N, calculer M p .
Solution. a) La matrice M −(a−b)In n'est constituée que de b, elle est donc de rang 1. Autrement
dit dim Ker[M − (a − b)In ] = n − 1, ce qui montre que a − b est valeur propre de M et que le
sous-espace propre correspondant est de dimension n − 1. Le polynôme caractéristique PM de M
s'écrit donc sous la forme
PM = (−1)n [X − (a − b)]n−1 (X − α), α ∈ R.
On sait que (n − 1)(a − b) + α = tr M = na, donc α = a + (n − 1)b = a − b, et α est valeur propre
de M . La somme des dimensions des sous-espaces propres trouvés est égal à n, ce qui prouve que
5. PROBLÈMES 215

M est diagonalisable, semblable à


 
a−b

 ... 0 

 .
 a−b 
0
a + (n − 1)b
Au passage, si b = 0, le polynôme minimal de M est ΠM = [X − (a − b)][X − (a + (n − 1)b)].
b) La matrice M est inversible si et seulement si il n'a aucune valeur propre nulle, autrement
dit si et seulement si a − b = 0 et a + (n − 1)b = 0. Dans ce cas, la relation
ΠM (M ) = 0 = M 2 − (2a + (n − 2)b)M + (a − b)(a + (n − 1)b)In
entraîne
M [M − (2a + (n − 2)b)In ] = (b − a)(a + (n − 1)b)In ,
donc
1
M −1 = [(2a + (n − 2)b)In − M ] .
(a − b)(a + (n − 1)b)
c) On commence par eectuer la division euclidienne de X p par ΠM . On sait que
(∃D ∈ R[X], ∃αp , βp ∈ R), X p = ΠM (X)D(X) + (αp X + βp ).
Dans cette dernière relation, en donnant à X les valeurs a − b et a + (n − 1)b, on obtient
(a − b)p = 0 + αp (a − b) + βp et (a + (n − 1)b)p = αp (a + (n − 1)b) + βp ,
d'où
(a + (n − 1)b)p − (a − b)p (a + (n − 1)b)(a − b)p − (a − b)(a + (n − 1)b)p
αp = et βp = .
nb nb
Finalement, on a
M p = D(M )ΠM (M ) + αp M + βp In = αp M + βp In .

Problème 2. Soit n ∈ N∗ . Déterminer les matrices A de Mn (C) telles que A commute


avec toutes ses matrices semblables.
Solution. Soit A ∈ Mn (C) une matrice qui commute avec toutes ses matrices semblables. Soit
λ ∈ C une valeur propre de A et Eλ l'espace propre associé. Pour toute matrice P ∈ Gn (C), A
commute avec P −1 AP , donc Eλ est stable par P −1 AP . Autrement dit, P −1 AP Eλ ⊂ Eλ , donc
AP Eλ ⊂ P Eλ . Ainsi, P Eλ est stable par A, et ceci pour toute matrice P ∈ Gn (C). En notant
k = dim Eλ , on en déduit que tout sous-espace vectoriel F de dimension k est stable par A (en
eet, on peut toujours trouver P ∈ Gn (C) tel que P Eλ = F ). Si k = n on a Eλ = Cn donc A
est une matrice scalaire. Si k < n on conclut avec le lemme suivant :
Lemme. Soit E un K-espace vectoriel de dimension nie n et f ∈ L(E), et
supposons qu'il existe k ∈ N∗ , k ≤ n − 1 tel que f stabilise tout sous-espace
vectoriel de dimension k. Alors f est une homothétie.
On prouve ce lemme par récurrence sur k ≥ 1. Pour k = 1, c'est la proposition 3 page 121. Soit k
tel que 2 ≤ k ≤ n − 1 et supposons le résultat vrai au rang k − 1. Soit H un sous-espace vectoriel
de dimension k − 1. Soient u et v deux vecteurs tels que u, v ∈ H et u et v forment une famille
libre (c'est possible car dim H ≤ n − 2). Alors F = H ⊕ Cu et G = H ⊕ Cv sont des sous-espaces
vectoriels de dimension k, donc stables par f . Donc F ∩ G est stable par f , et comme F ∩ G = H
est un sous-espace vectoriel de dimension k − 1, l'hypothèse de récurrence nous assure que f est
une homothétie.
En conclusion, les matrices répondant au problème sont les matrices scalaires.
216 4. RÉDUCTIONS D'ENDOMORPHISMES

Problème 3. a) Soit M ∈ M2 (Z) telle qu'il existe un entier m ∈ N∗ vériant M m = In .


Montrer que M 12
= I2 .
b) (Cas général). Soit n ∈ N∗ . On note Γ = {M ∈ Mn (Z) | ∃m ∈ N∗ , M m = In }. Montrer
l'existence de r ∈ N∗ tel que M r = In pour tout M ∈ Γ.
Solution. a) Regardons M comme une matrice de M2 (C). Le polynôme X m − 1 annule M et
comme il n'a que des racines simples dans C, M est diagonalisable dans M2 (C) :
 
α 0
∃P ∈ G2 (C), P −1 M P = =D avec α, β ∈ C.
0 β
Comme M m = I2 , on a Dm = I2 , donc αm = β m = 1. En particulier, |α| = |β| = 1 (∗).
On a α + β = tr D = tr M ∈ Z. De (*), on tire α + β ∈ {−2, −1, 0, 1, 2} (∗∗). Par ailleurs
det M ∈ Z donc d'après (*) on a det M = αβ ∈ {−1, 1}. Si αβ = −1 on a β = −1/α = −α donc
α + β = α − α ∈ iR, donc forcément α + β = 0 d'après (**). En résumé α et β sont solution de
l'équation du second degré z 2 − az + b = 0, avec a = α + β ∈ {−2, −1, 0, 1, 2} et b = αβ = 1 si
a = 0, b ∈ {−1, 1} si a = 0. Listant ces équations, on détermine les valeurs possibles de α, β :
z 2 + 2z + 1 = 0 =⇒ (α, β) = (−1, −1)
2
z +z+1=0 =⇒ (α, β) ∈ {(e−2iπ/3 , e2iπ/3 ), (e2iπ/3 , e−2iπ/3 )}
z2 + 1 = 0 =⇒ (α, β) ∈ {(i, −i), (−i, i)}
2
z −1=0 =⇒ (α, β) ∈ {(−1, 1), (1, −1)}
2
z −z+1=0 =⇒ (α, β) ∈ {(e−iπ/3 , eiπ/3 ), (eiπ/3 , e−iπ/3 )}
z 2 − 2z + 1 = 0 =⇒ (α, β) = (1, 1)
Dans tous les cas, on a α12 = β 12 = 1, ce qui prouve que D12 = I2 et donc M 12 = I2 .
b) On procède comme dans le cas n = 2. Si M ∈ Mn (Z) vérie M m = In , alors le polynôme
X m − 1 annule M et comme il n'a que des racines simples dans C, M est diagonalisable dans
Mn (C). Ses valeurs propres α1 , . . . , αn vérient toutes α1m = . . . = αnm = 1, donc |α1 | = . . . =
|αn | = 1. Notons PM = (−1)m (X n + a1 X n−1 + · · · + an−1 X + an ) le polynôme caractéristique
de M . L'expression des coecients d'un polynôme en fonction de ses racines entraîne
 
 
    
    n
∀k ∈ {1, . . . , n}, |ak | =  αj  ≤ 1= .
J⊂{1,...,n} j∈J  J⊂{1,...,n} k
 
|J|=k |J|=k

Ainsi les coecients de PM sont bornés indépendamment de m. Comme M est à coecients


entiers, on a PM = det(M − XIn ) ∈ Z[X], donc il n'y a qu'un nombre ni de polynômes
caractéristiques possibles des matrices M ∈ Γ. Donc il n'y a qu'un nombre ni de valeurs propres
possibles associées aux matrices M ∈ Γ, qui sont toutes des racines de l'unité. Notons r le ppcm
des ordres de toutes les valeurs propres α des matrices M ∈ Γ (l'ordre de α étant le plus petit
entier p > 0 tel que αp = 1). Pour M ∈ Γ, toute valeur propre α de M vérie αr = 1, et comme
M est diagonalisable on en déduit M r = In .

Problème 4. Soit E un C-e.v de dimension nie n ∈ N∗ .


1/ a) Soit f ∈ L(E) tel que ∀p, 1 ≤ p ≤ n, tr(f p ) = 0. Montrer que f est nilpotente.
b) Pour tout u, v ∈ L(E), on note [u, v] = uv − vu (crochet de Lie de u et v). Soient
f, g ∈ L(E) tels que [[f, g], f ] = 0. Montrer que [f, g] est nilpotente.
2/ Soient f, g ∈ L(E) tels que pour tout p ∈ {1, . . . , n}, tr(f p ) = tr(gp ). Montrer que f
et g ont même polynôme caractéristique. (On pourra utiliser le résultat de la remarque
de l'exercice 3 page 86.)
5. PROBLÈMES 217

Solution. 1/ a) Il sut de montrer que toutes les valeurs propres de M sont nulles (voir la
remarque 6 page 187).
Comme le corps C est algébriquement clos, il existe une base B qui trigonalise f . Notons
λ1 , . . . , λq les valeurs propres de f (distinctes deux à deux), et α1 , . . . , αq leur ordre de multiplicité
dans le polynôme caractéristique de f . Les termes de la diagonale principale de [f ]pB sont les
puissances p-ièmes des termes de la diagonale principale de [f ]B et on en déduit
q

∀p, 1 ≤ p ≤ n, αi λpi = tr(f p ) = 0.
i=1

Raisonnons par l'absurde et supposons que f ait au moins une valeur propre non nulle. Quitte à
renuméroter les λi , on peut supposer que les λi non nuls sont λ1 , . . . , λr (avec 1 ≤ r ≤ q ) ce qui
donne
r

∀p, 1 ≤ p ≤ r, αi λpi = 0.
i=1

Ceci s'écrit matriciellement sous la forme


 
  λ1 λ2 · · · λr
α1  λ 2 λ2 · · ·
 ..   1 2 λ2r 

M  .  = 0 avec M =  .. .. ..  ∈ Mr (C).
 . . . 
αr
λr1 λr2 · · · λrr

Ceci entraîne que M n'est pas injective et donc que det M = 0. Or


 
 1 1 1 
 
 λ1 λ ··· λr  
 2 
det M = λ1 · · · λr  .. .. ..  = λ1 · · · λ r (λj − λi )
 .
 r−1 . . 
 1≤i<j≤r
 λ λ r−1
··· λr−1
r

1 2

(on a aaire à un déterminant de Vandermonde). Comme det M = 0 et que les λi (1 ≤ i ≤ r)


sont distincts deux à deux, on en déduit qu'il existe i ≤ r tels que λi = 0, ce qui est absurde car
nous avions choisit les (λi )1≤i≤r non nuls. Les valeurs propres de f sont donc toutes nulles, et
donc f est nilpotente.
b) La trace d'un crochet de Lie est toujours nulle car si u, v ∈ L(E), tr[u, v] = tr(uv − vu) =
tr(uv) − tr(vu) = 0.
Ceci étant, d'après la question précédente, pour montrer le résultat il sut de montrer que
pour tout p, 1 ≤ p ≤ n, tr([f, g]p ) = tr[(f g − gf )p ] = 0. Fixons un tel entier p. On a
(f g − gf )p = (f g − gf )p−1 (f g − gf ) = (f g − gf )p−1 f g − (f g − gf )p−1 gf,

et comme f et (f g − gf ) commutent par hypothèse,


(f g − gf )p = f (f g − gf )p−1 g − (f g − gf )p−1 gf = [f, (f g − gf )p−1 g].

D'après la remarque précédente, on a donc tr[(f g − gf )p ] = 0, et ceci pour tout p, 1 ≤ p ≤ n,


d'où le résultat.
2/ Notons λ1 , . . . , λn les valeurs propres de f (répétées avec leur ordre de multiplicité). Comme
plus haut, on obtient, en trigonalisant f , que  tr(f ) = λ1 + · · · + λn . D'après les formules de
p p p

Newton (voir l'exercice 3 page 86), les σp = X1 · · · Xp , polynômes symétriques


n élémentaires de
C[X1 , . . . , Xn ], s'expriment en fonction des sommes
 de Newton S p = X
i=1 i
p
( 1 ≤ p ≤ n). On
peut donc exprimer les coecients du polynôme ni=1 (X − X i ) en fonction des Sp (1 ≤ p ≤ n).
On en déduit que les coecients
n du polynôme caractéristique ni=1 (X − λi ) de f s'expriment en
fonction des tr(f ) = i=1 λi (1 ≤ p ≤ n). Il en est de même pour g , et comme tr(f p ) = tr(g p )
p p

pour 1 ≤ p ≤ n, on a Pf = Pg .
218 4. RÉDUCTIONS D'ENDOMORPHISMES

Problème 5 (Endomorphismes de L(E)). Soit E un K-e.v de dimension nie n. Si


u, v ∈ L(E), on note Lu ∈ L(L(E)) l'endomorphisme déni sur L(E) par Lu (f ) = u ◦ f ,
et on note Rv ∈ L(L(E)) celui déni par Rv (f ) = f ◦ v .
1/ a) Calculer dim(Ker Lu ) et dim(Ker Rv ) en fonction de dim(Ker u) et de dim(Ker v).
b) Montrer que u (resp. v) est diagonalisable si et seulement si Lu (resp. Rv ) est diago-
nalisable.
c) Donner les matrices de Lu et Rv dans des bases commodes.
2/ On note Au,v = Lu − Rv ∈ L(L(E)).
a) Si u et v sont diagonalisables, montrer que Au,v est diagonalisable.
b) On suppose que Pu , le polynôme caractéristique de u, est scindé sur K. Si Au,u est
diagonalisable, montrer que u est diagonalisable.
Solution. 1/ a) On a
f ∈ Ker(Lu ) ⇐⇒ u ◦ f = 0 ⇐⇒ Im f ⊂ Ker u,
on en déduit Ker(Lu ) = L(E, Ker u), d'où dim(Ker Lu ) = n dim(Ker u).
Pour Rv , on a
f ∈ Ker(Rv ) ⇐⇒ f ◦ v = 0 ⇐⇒ Im v ⊂ Ker f.
Si S désigne un supplémentaire de Im v dans E , Ker Rv est donc isomorphe à L(S, E), d'où
dim(Ker Rv ) = n dim S = n(n − dim(Im v)) = n dim(Ker v).
b) Si P ∈ K[X], on vérie facilement que P (Lu ) = LP (u) . On a donc l'équivalence
P (u) = 0 ⇐⇒ ∀f, P (u) ◦ f = 0 ⇐⇒ LP (u) = 0 ⇐⇒ P (Lu ) = 0.
On en déduit que u et Lu ont même polynôme minimal. Donc d'après le théorème 2 page 185, u
est diagonalisable si et seulement si Lu est diagonalisable.
On procède de même pour Rv .
c) Soit B = (e1 , . . . , en ) une base de E . On dénit la base (ei,j )1≤i,j≤n de L(E) par

1 si j = k,
ei,j (ek ) = δj,k ei avec δj,k =
0 sinon.
Notons [u]B = (ai,j )1≤i,j≤n la matrice de u dans la base B . On a
n
 n

u ◦ ei0 ,j0 (ek ) = δj0 ,k u(ei0 ) = δj0 ,k ai,i0 ei = ai,i0 ei,j0 (ek ),
i=1 i=1
n
donc Lu (ei,j ) = k=1 ak,i ek,j . Dans la base
B1 = (e1,1 , . . . , en,1 ; e1,2 , . . . , en,2 ; . . . ; e1,n , . . . , en,n ),
la matrice de Lu s'écrit donc par blocs sous la forme
 
M (0)

[Lu ]B1 =  ... 
, où M = [u]B .
(0) M
n
Si on écrit [v]B = (bi,j )1≤i,j≤n , un calcul analogue donne Rv (ei,j ) = k=1 bj,k ei,k . Ceci entraîne
que dans la base
B2 = (e1,1 , . . . , e1,n ; e2,1 , . . . , e2,n ; . . . ; en,1 , . . . , en,n ),
la matrice de Rv s'écrit
 t

N (0)

[Rv ]B2 =  ... 
, où N = [v]B .
t
(0) N
5. PROBLÈMES 219

2/ a) On sait déjà que Lu et Rv sont diagonalisables d'après 1/b). Or


∀f ∈ L(E), Lu ◦ Rv (f ) = u ◦ f ◦ v = Rv (u ◦ f ) = Rv ◦ Lu (f ),

c'est-à-dire que Lu et Rv commutent. On peut donc les diagonaliser dans une même base, et
cette base diagonalise Au,v = Lu − Rv .
b) Comme Pu est scindé sur K, on peut écrire (décomposition de Dunford, voir la partie 4.2
page 203) u = d + n, d diagonalisable, n nilpotente, avec n ◦ d = d ◦ n. Pour alléger les notations,
on note, pour f ∈ L(E), Af = Af,f .
On a Au = Ad + An . Or il existe p ∈ N∗ tel que np = 0, ce qui entraîne (An )p = Anp = 0,
c'est-à-dire que An est nilpotent. D'après 2/ a), Ad est diagonalisable. Les endomorphismes d et
n commutant, Ld , Rd , Ln et Rn commutent, donc Ad et An commutent.
Au = Ad + An est donc l'unique décomposition de Dunford de Au . Comme Au est diagonali-
sable, on a donc An = 0, c'est-à-dire que pour tout f ∈ L(E), n◦f −f ◦n = 0. En d'autres termes,
n commute avec tous les éléments de L(E) ; c'est donc une homothétie. Or n est nilpotente, donc
n = 0, et donc u = d est diagonalisable.
Remarque. Une conséquence de 1/ a) est que pour tout λ, dim(Ker(Lu − λ Id)) =
n dim(Ker(u − λ Id)). Cette égalité permet également de montrer 1/b).
Avec 1/c), on aurait pu démontrer directement 1/a) et 1/b).

Problème 6 (Résultant de deux polynômes et application).


1/ Résultant de deux polynômes. a) Soient P et Q deux polynômes non constants de
C[X]. Montrer que P et Q ont un facteur commun non constant si et seulement si

(∃A, B ∈ C[X], A = 0, B = 0), AP = BQ avec deg(A) < deg(Q), deg(B) < deg(P ).

b) Pour tout r ∈ R, on note Γr = {P ∈ C[X] | deg P = r}. Pour tout m, n ∈ N∗ ,


déterminer une fonction continue

R : Γ m × Γn → C (P, Q) → R[P, Q]

vériant
(P et Q sont premiers entre eux ) ⇐⇒ (R[P, Q] = 0).

2/ Soit n ∈ N, n ≥ 2. On note D l'ensemble des matrices diagonalisables de Mn (C). Quel


est D̊, l'intérieur de D ?

Solution. 1/ a) Condition nécessaire. Supposons l'existence de R ∈ C[X], deg(R) ≥ 1, divisant


P et Q. Soient P1 et R1 ∈ C[X] tels que P = RP1 et Q = RQ1 . Si A = Q1 et B = P1 , on a
AP = RP1 Q1 = BQ avec deg(A) = deg(Q1 ) < deg(Q) et deg(B) = deg(P1 ) < deg(P ).
Condition susante. Supposons que P et Q n'aient aucun facteur commun non constant, c'est-
à-dire que P et Q sont premiers entre eux. Si AP = BQ, d'après le théorème de Gauss, on a
P | B . Comme B = 0, ceci entraîne deg(B) ≥ deg(P ), ce qui est absurde.
b) Soit P = a0 + a1 X + · · · + am X m ∈ Γm et Q = b0 + b1 X + · · · + bn X n ∈ Γn . D'après
la question précédente, P et Q ont un facteur premier non constant si et seulement il existe
A, B ∈ C[X] non nuls, deg(A) < deg(Q) et deg(B) < deg(P ) tels que AP = BQ, autrement dit
si et seulement si les vecteurs P, XP, . . . , X n−1 P et Q, XQ, . . . , X m−1 Q forment une famille liée
de C[X], c'est-à-dire si et seulement si

detB (P, XP, . . . , X n−1 P, Q, XQ, . . . , X m−1 Q) = 0,


220 4. RÉDUCTIONS D'ENDOMORPHISMES

où B désigne la base (1, X, . . . , X m+n−1 ) de Cm+n−1 [X]. En d'autres termes, P et Q ne sont pas
premiers entre eux si et seulement si le déterminant
 
 a0 a1 ··· am 0 ··· 0 
 .. 
 ...
 0 a0 a1 ··· am . 
 .. 
 ... ... ... ... 
 . 0 
 
 0 ··· 0 a0 a1 ··· am 
R[P, Q] =  
 b0 ··· bn−1 bn 0 ··· 0 
 ... .. 
 0 b0 ··· bn−1 bn . 


 .. ... ... ... ... 
 . 0 
 0 ··· 0 b0 ··· bn−1 bn 
est nul (ce déterminant est appelé résultant de P et Q). Ainsi dénie sur Γm × Γn , R est une
fonction continue de P et Q (car polynomiale en les coecients de P et Q), et vérie : P et Q
sont premiers entre eux si et seulement si R[P, Q] = 0.
2/ Un peu d'intuition nous guide. Nous allons montrer que D̊ = Γ, où Γ désigne l'ensemble des
matrices diagonalisables dont les valeurs propres sont toutes distinctes.
Montrons Γ ⊂ D̊. Soit M ∈ Γ. Dire que M ∈ Γ équivaut à dire que le polynôme caractéris-
tique PM de M n'a que des racines simples, ou encore que PM et PM  sont premiers entre eux,

ou encore R[PM , PM ] = 0. L'application





ϕ : Mn (C) → C M → R[PM , PM ]
est continue. On vient de voir que Γ = ϕ−1 (C∗ ), et donc Γ est ouvert (image réciproque d'un
ouvert par une fonction continue). Or Γ ⊂ D, donc Γ ⊂ D̊.
Montrons D̊ ⊂ Γ. Soit M ∈ D̊ et supposons M ∈ Γ. La matrice M est diagonalisable et
admet une valeur propre multiple λ, de sorte qu'il existe P ∈ Gn (C) telle que
   
X (0) λ 0
P −1 M P = où X = et Y est une matrice diagonale.
(0) Y 0 λ
Pour tout entier p > 0, on pose
   
Xp (0) λ 1/p
Np = où Xp = .
(0) Y 0 λ
Pour tout p, Np n'est pas diagonalisable, sinon la restriction Xp de Mp aux deux premiers
vecteurs de la base canonique de Cn serait diagonalisable, absurde car alors Xp serait semblable
à λI2 , donc égale à λI2 . Or M = limp→+∞ P Np P −1 , donc M est limite d'une suite de matrices
n'appartenant pas à D, donc M ∈ D̊. Ceci est absurde, et on a donc avoir M ∈ Γ. D'où le
résultat.
Remarque. On peut montrer (voir la démonstration de l'exercice 1 page 195) que Γ est
dense dans Mn (C).

Problème 7. Soit n ∈ N, n ≥ 2. 1/ Montrer qu'il n'existe pas de norme  ·  sur Mn (R)


qui soit invariante par similitude, c'est-à-dire telle que
∀(A, P ) ∈ Mn (R) × Gn (R), P −1 AP  = A. (∗)
2/ Déterminer les semi-normes sur Mn (R) invariantes par similitude.
Solution. 1/ Raisonnons par l'absurde en supposant qu'une telle norme existe. Donnons nous
i, j quelconques tels que 1 ≤ i, j ≤ n avec i = j . Choisissons la matrice A = Ei,j de la base
canonique de Mn (R) (tous les coecients de Ei,j sont nuls sauf celui d'indice (i, j) qui vaut 1) et
P la matrice diagonale dont le coecient d'indice (i, i) est 2i . On a P −1 Ei,j P = 2j−i Ei,j , donc
5. PROBLÈMES 221

P −1 Ei,j P  = 2i−j Ei,j  = 2j−i Ei,j . Si (*) est vérié ceci entraine Ei,j  = P −1 Ei,j P  =
2j−i Ei,j  et comme i = j on a forcément Ei,j  = 0 ce qui est impossible puisque Ei,j = 0.
2/ Soit N une semi-norme sur Mn (R) invariante par similitude. On reprend le raisonnement
précédent qui donne N(Ei,j ) = 0 dès que i = j . Ainsi pour toute matrice A = (ai,j )1≤i,j≤n ∈
Mn (R), l'écriture A = 1≤i,j≤n ai,j Ei,j entraîne, grâce à l'inégalité triangulaire,
  n

N (A) ≤ N (ai,j Ei,j ) = |ai,j |N (Ei,j ) = |ai,i |N (Ei,i ).
1≤i,j≤n 1≤i,j≤n i=1

Ainsi si A a ses coecients diagonaux nuls, on a N (A) = 0. Il est classique que toute matrice
de Mn (R) de trace nulle est similaire à une matrice dont tous les coecients diagonaux sont
nuls (voir l'exercice 6 page 131), ainsi pour toute matrice A de trace nulle on a N (A) = 0. Si
M ∈ Mn (R) est une matrice quelconque, la matrice A = M − αIn , avec α = tr(M )/n, est de
trace nulle, donc N (M ) = N (A + αIn ) ≤ N (A) + N (αIn ) = N (αIn ). On a aussi N (αIn ) =
N (M − A) ≤ N (M ) + N (A) = N (M ), donc N (M ) = N (αIn ) = |α|N (In ) = β| tr(M )|, avec
β = N (In )/n. Réciproquement, on vérie facilement que M → β |tr M | est une semi-norme
invariante par similitude sur Mn (R) dès que β ∈ R+ . En synthèse, les semi-normes sur Mn (R)
invariantes par similitude sont de la forme N (M ) = β |tr(M )| avec β ∈ R+ .

Problème 8 (Rayon spectral d'un endomorphisme continu). Soit E une algèbre


de Banach sur C, munie d'une norme d'algèbre  · .
1/ Soit u ∈ E , u = 0. Pour tout n ∈ N∗ , on note Un = un 1/n .
a) Soit m ∈ N∗ xé. Prouver que
∀ε > 0, ∃N ∈ N, ∀n ≥ N, Un ≤ Um (1 + ε).
b) Soit ρ(u) = inf{Un | n ∈ N∗ }. Montrer que limn→+∞ Un = ρ(u).
c) Pour tout u, v ∈ E , montrer que ρ(uv) = ρ(vu).

2/ Soit an z n une sérieentière de rayon de convergence R ∈ ]0, +∞]. Soit u 
∈ E . Si
ρ(u) < R, montrer que n
an u converge dans E . Si ρ(u) > R, montrer que n
an u
diverge.
3/ On considère ici le cas particulier où E = Mn (C). Soit A ∈ Mn (C). Montrer que
ρ(A) = sup{|λ| | λ valeur propre de A}. (Indication. On pourra utiliser le résultat a) de
l'exercice 5 page 198.)
Solution. 1/ a) Pour tout n ∈ N∗ , on considère n = q(n)m + r(n), 0 ≤ r(n) < m, la division
euclidienne de n par m. On a
∀n ∈ N∗ , Un = un 1/n = uq(n)m · ur(n) 1/n ≤ um q(n)/n · ur(n)/n . (∗)
Pour tout n, |r(n)| < m donc limn→+∞ r(n)/n = 0 et limn→+∞ q(n)/n = 1/m. Le terme de
droite de (∗) tend donc vers Um lorsque n tend vers l'inni, d'où a).
b) Soit ε > 0. Par dénition de ρ(u), il existe m ∈ N∗ tel que Um ≤ ρ(u) + ε. D'après a),
∃N ∈ N, ∀n ≥ N, Un ≤ Um (1 + ε) ≤ (ρ(u) + ε)(1 + ε)
donc
∀n ≥ N, ρ(u) ≤ Un ≤ (ρ(u) + ε)(1 + ε).
On en déduit que limn→+∞ Un = ρ(u).
c) Si u = 0 ou v = 0, c'est évident. Sinon, l'égalité (uv)n = u(vu)n−1 v entraîne
(uv)n 1/n = u(vu)n−1 v1/n ≤ u1/n (vu)n−1 1/n v1/n . (∗∗)
222 4. RÉDUCTIONS D'ENDOMORPHISMES

Or lim u1/n = lim v1/n = 1 et lim (vu)n−1 1/n = lim ((vu)n−1 1/(n−1) )(n−1)/n =
n→+∞ n→+∞ n→+∞ n→+∞
ρ(vu). En faisant tendre n vers l'inni dans (∗∗), on obtient donc ρ(uv) ≤ ρ(vu). Par symétrie,
on a de même ρ(vu) ≤ ρ(uv), d'ou l'égalité recherchée.

2/ Supposons
n ρ(u)k< R. Nous allons montrer que |an | · un  converge, ce qui entraînera que
la suite ( k=0 ak u )n∈N∗ est de Cauchy donc converge.
 Soit nµ  ∈ R tel que ρ(u) < µ < R. Comme R est le rayon de convergence de la série entière
n a n z , |an | µn converge (voir le tome d'analyse sur les séries entières). Or il existe N ∈ N∗ ,

tel que pour tout n ≥ N , un 1/n < µ, et donc un  < µn . On en déduit que n≥N |an | un 
converge et donc n∈N |an | un  converge.
Supposons maintenant ρ(u) > R. Alors la suite (|an | ρ(u)n ) n'est pas bornée. Comme ρ(u) =
inf{un 1/n } on a pour tout n, un  ≥ ρ(u)n et donc la suite (|an | un ) n'est pas bornée, ce
qui entraîne la divergence de la série an un .
3/ Notons µ(A) = sup{|λ| | λ valeur propre de A}. Remarquons ici que ρ(A) ne dépend pas de la
norme d'algèbre choisie sur Mn (C) (en eet, en dimension nie, les normes sont équivalentes et
pour tout x > 0, limp→+∞ x1/p = 1). Toute l'astuce va consister en le choix d'une bonne norme
d'algèbre pour montrer notre résultat.
Soit ε > 0. Montrons qu'il existe une norme d'algèbre · sur Mn (C) telle que A ≤ µ(A)+ε.
Munissons Cn de la norme (x1 , . . . , xn )∞ = supi |xi |. Pour tout M = (mi,j )1≤i,j≤n ∈ Mn (C),
M ∞ = supX∞ =1 M X∞ dénit une norme d'algèbre sur Mn (C). Un petit calcul donne
d'ailleurs facilement  

M ∞ = sup  |mi,j | . (∗∗∗)
i j

D'après la question a) de l'exercice 5 page 198, il existe P ∈ G


n (C) telle que P −1 AP = T = (ti,j )
soit triangulaire supérieure et vérie ∀i < j , |ti,j | < ε/n. Munissons Mn (C) de la norme d'algèbre
M  = P −1 M P ∞ . De (∗∗∗), on tire facilement A = T ∞ < supi |ti,i | + ε. Les ti,i étant les
valeurs propres de T donc de A, ceci s'écrit aussi A < µ(A) + ε. Donc
ρ(A) = {inf Ap 1/p , p ∈ N∗ } ≤ A < µ(A) + ε.
La matrice T = (ti,j ) étant triangulaire supérieure, les coecients de la diagonale principale de
la matrice T p sont les tpi,i et donc d'après (∗∗∗), pour tout p,
Ap  = T p ∞ ≥ sup |ti,i |p = µ(A)p ,
i

ce qui s'écrit aussi ≥ µ(A). En faisant tendre p vers l'inni. on obtient ρ(A) ≥ µ(A).
Ap 1/p
Finalement, on a montré que µ(A) ≤ ρ(A) ≤ µ(A) + ε, et ceci pour tout ε > 0, d'où l'égalité
recherchée.
Remarque. Les résultats de 1/ et 2/ restent vrais sur l'algèbre des endomorphismes
continus Lc (E) sur un espace de Banach E (on sait en eet que Lc (E) est une algèbre de
Banach). On a ainsi généralisé le résultat de la proposition 3 page 193.

Problème 9. 1/ Soit A une K-algèbre de dimension nie. Montrer qu'il existe d ∈ N∗


tel que A est isomorphe à une sous-algèbre de Md (K).
2/ Soit n ∈ N∗ et M ∈ Mn (C) possédant n valeurs propres distinctes. Montrer qu'il
n'existe qu'un nombre ni de sous-algèbres de Mn (C) contenant M .
Solution. 1/ A tout élément a ∈ A, on associe l'application ϕ(a) : A → A, x → ax. On
a ϕ(a) ∈ L(A), et l'application ϕ ainsi dénie est linéaire de A vers L(A). De plus, pour tout
a, b ∈ A on a
∀x ∈ A, ϕ(ab)(x) = (ab)x = aϕ(b)(x) = ϕ(a)ϕ(b)(x)
5. PROBLÈMES 223

donc ϕ(ab) = ϕ(a)ϕ(b). Ainsi ϕ est un morphisme d'algèbre. Il est injectif car si ϕ(a) = 0, on
a nécéssairement 0 = ϕ(a)(1A ) = a. Choisissons une base B = (e1 , . . . , ed ) de A, où d est la
dimension de A. L'application ψ : A → Md (K) dénie par ψ(a) = [ϕ(a)]B (matrice de ϕ(a)
dans la base B ) est un morphisme d'algèbre, injectif, et C = Im(ψ) = ψ(A) est une sous-algèbre
de Md (K). Ainsi ψ est un isomorphisme d'algèbre de A vers C .
2/ Les n valeurs propres de M étant distinctes, M est diagonalisable. Soit P ∈ Gn (C) telle
que M = P −1 DP , où D ∈ Mn (C) est une matrice diagonale, dont nous notons λ1 , . . . , λn ses
termes diagonaux. Nous allons montrer qu'il n'y a qu'un nombre ni de sous-algèbres de Mn (C)
contenant D, on conclura facilement pour M . Soit A une sous-algèbre de Mn (C) contenant
D. Notons (Ei,j )1≤i,j≤n la base canonique de Mn (C) (Ei,j est la matrice n × n dont tous les
coecients sont nuls sauf celui d'indice (i, j) qui vaut 1). Comme D ∈ A et que A est une algèbre,
tout polynôme en D est dansA. Choisissons en particulier les polynômes d'interpolation de
Lagrange dénis par Li (X) = j=i (X − λj )/(λi − λj ) et qui vérient Li (λj ) = 0 si j = i, = 1 si
j = i. On a Li (D) = Ei,i , dont Ei,i ∈ A pour 1 ≤ i ≤ n. Pour toute matrice N ∈ Mn (C), notons
N (i, j) son coecient d'indice (i, j). Supposons maintenant i = j et qu'il existe une matrice
N ∈ A tel que N (i, j) = 0. Alors Ei,j = (1/N (i, j))Ei,i N Ej,j ∈ A. Ainsi, l'ensemble d'indices
Γ = {(i, j) | ∃N ∈ A, N (i, j) = 0} vérie la propriété (i, j) ∈ Γ ⇐⇒ Ei,j ∈ A (c'est vrai aussi si
i = j car on a vu plus haut que les Ei,i sont dans A). Comme A est une algèbre on en déduit
A = Vect(Ei,j )(i,j)∈Γ . Comme il n'y a qu'un nombre ni de parties Γ de {1, . . . , n}2 , on en déduit
qu'il n'y a qu'un nombre ni de sous-algèbres A de Mn (C) qui contiennent D.
Revenons maintenant à la question initiale. Comme l'application θ : N → P N P −1 est
un automorphisme d'algèbre de Mn (C), B est une sous-algèbre de Mn (C) contenant M si et
seulement si A = P BP −1 = θ(B) est une sous-algèbre contenant D, donc il n'y a qu'un nombre
ni de sous-algèbres B de Mn (C) contenant M .

Problème 10. Soit E un C-e.v de dimension nie n ≥ 2. Soit A une sous-algèbre de


L(E), unitaire, (i. e. IdE ∈ A) et transitive (i. e. les seuls s.e.v de E stables par tous les
éléments de A sont {0} et E ).
a) Soit x ∈ E , x = 0. Montrer que {u(x) | u ∈ A} = E .
b) Soit u ∈ A, rg u ≥ 2. Montrer qu'il existe v ∈ A tel que uvu et u forment une famille
libre.
c) Montrer qu'il existe λ ∈ C et z ∈ Im u, z = 0, tels que uv(z) = λz .
d) Montrer que A contient au moins un élément de rang 1.
e) Conclure.
Solution. a) On pose Fx = {u(x) | u ∈ A}. Une sous-algèbre est un s.e.v de L(E), donc A est
un s.e.v de L(E). On en déduit que Fx est un s.e.v de E .
Pour tout v ∈ A, v(Fx ) = {vu(x) | u ∈ A} ⊂ Fx . En d'autres termes, Fx est stable par tous
les éléments de A. Or Fx = {0} puisque x ∈ Fx (l'algèbre A est unitaire), et donc Fx = E .
b) Comme rg u ≥ 2, il existe deux vecteurs e1 , e2 de E tels que u(e1 ) et u(e2 ) forment une famille
libre. En particulier, u(e1 ) = 0 donc d'après a), il existe v ∈ A tel que v[u(e1 )] = e2 . La famille
formée par uvu et u est donc libre car l'égalité λ(uvu) + µu = 0 entraîne λ(uvu)(e1 ) + µu(e1 ) =
0 = λu(e2 ) + µu(e1 ), et donc λ = µ = 0 puisque par construction, la famille u(e1 ), u(e2 ) est libre.
c) Le corps C est algébriquement clos et E est de dimension nie, l'endomorphisme uv admet
donc au moins une valeur propre λ. On traite deux cas.
Premier cas : l'endomorphisme uv admet au moins une valeur propre λ = 0 associé à un
vecteur propre z = 0. Alors z = λ1 uv(z) ∈ Im u et le résultat est montré.
Second cas : toutes les valeurs propres de uv sont nulles. Dans ce cas, uv est nilpotent. Soit
r ∈ N∗ tel que (uv)r = 0 et (uv)r−1 = 0. Soit z ∈ Im(uv)r−1 , z = 0. Alors uv(z) = 0 car
uv(z) ∈ Im(uv)r = {0}. Or r ≥ 2 car d'après b), uv = 0. Donc z ∈ Im(uv)r−1 ⊂ Im u. En
résumé, on a trouvé z ∈ Im u, z = 0, tel que uv(z) = 0.
224 4. RÉDUCTIONS D'ENDOMORPHISMES

d) L'algèbre A étant unitaire, il existe u ∈ A tel que rg u ≥ 2. On a alors trouvé v ∈ A, v = 0


tel que uvu et u forment une famille libre, et tel que (∃z ∈ Im u, z = 0, ∃λ ∈ C), uv(z) = λz.
Posons w = uvu − λu. On a w ∈ A car A est une algèbre, et w = 0 d'après b).
On a Ker u ⊂ Ker w car w = (uv − λ Id) ◦ u. Par ailleurs si y ∈ E est tel que z = u(y), on a
w(y) = uv(z) − λz = 0. L'inclusion Ker u ⊂ Ker w est donc stricte, car y ∈ Ker u et y ∈ Ker w.
Donc dim(Ker u) < dim(Ker w), et on conclue avec le théorème du rang que rg w < rg u.
Autrement dit, pour tout u ∈ A, rg u ≥ 2, il existe w ∈ A, 1 ≤ rg w ≤ rg u − 1. Ceci sut
pour conclure que A contient au moins un élément de rang 1.
e) On va montrer que A = L(E). Pour cela, il sut de montrer que A contient tous les éléments
de L(E) de rang 1. Le lemme suivant nous sera utile.
Lemme Soit u ∈ L(E), rg u = 1. Alors il existe a ∈ E , a = 0, et il existe
ϕ ∈ E ∗ (dual de E ), ϕ = 0, tels que ∀x ∈ E , u(x) = ϕ(x) · a.
En eet. Soit a ∈ E tel que Im u = Vect a. Pour tout x ∈ E , u(x) ∈ Im u donc il existe ϕ(x) ∈ C
tel que u(x) = ϕ(x) · a. La linéarité de u entraîne la linéarité de x → ϕ(x). Autrement dit, ϕ est
une application linéaire de E dans C, c'est-à-dire ϕ ∈ E ∗ .
Ceci étant, la question précédente assure l'existence de u0 ∈ A tel que rg u0 = 1. D'après notre
lemme, il existe a ∈ E , a = 0 et ϕ ∈ E ∗ , ϕ = 0, tels que u0 = ϕ · a. Soit v ∈ L(E) un autre
élément de rang 1. On veut montrer v ∈ A. Écrivons v = ψ · b, où b ∈ E et ψ ∈ E ∗ .
On a a = 0 donc d'après a), il existe w ∈ A tel que w(a) = b.
Considérons G = {ϕ ◦ u | u ∈ A}, s.e.v de E ∗ . Soit x appartenant à l'orthogonal G◦ de
G. Pour tout u ∈ A, (ϕ ◦ u)(x) = 0 donc pour tout u ∈ A, u(x) ∈ Ker ϕ. En d'autres termes,
Fx = {u(x) | u ∈ A} ⊂ Ker ϕ = E . D'après a), on doit donc avoir x = 0. Finalement, G◦ = {0}
et donc G = E ∗ .
Il existe donc t ∈ A tel que ϕ ◦ t = ψ . Alors pour tout x ∈ E , (wu0 t)(x) = w[(ϕ ◦ t)(x)a] =
ψ(x)w(a) = ψ(x)b = v(x), donc v = wu0 t ∈ A. L'ensemble A contient donc tous les éléments
de rang 1. Ceci sut pour conclure que A = L(E) (on montre en eet facilement que tout
endomorphisme est somme d'endomorphismes de rang 1).

Problème 11. Soit E un C-e.v de dimension nie, G un sous-groupe ni de G(E). Soit
F = {x ∈ E | ∀g ∈ G, g(x) = x}. Si q = Card(G), montrer

q · dim F = tr(g).
g∈G

Solution. Comme G est un groupe, pour tout h ∈ G, l'application G → G g → h ◦ g est


bijective. Ceci entraîne  
∀h ∈ G, g= h ◦ g,
g∈G g∈G

ce qui en posant f = g∈G g s'écrit f = h ◦ f , et ceci pour tout h ∈ G. On a donc
  
qf = f= h◦f =( h) ◦ f = f 2 .
h∈G h∈G h∈G
Le polynôme X(X − q) annule donc l'endomorphisme f . On en déduit que f est diagonalisable et
que ses valeurs propres sont éléments de {0, q}. SiEq désigne le sous-espace propre de f associé
à la valeur propre q , on a alors q dim Eq = tr f = g∈G tr g .
L'exercice sera donc résolu si on prouve Eq = F . On a déjà F ⊂ Eq . En eet,
 
∀x ∈ F, ∀g ∈ G, g(x) = x donc f (x) = g(x) = x = qx.
g∈G g∈G

On conclut avec l'inclusion réciproque : si x ∈ Eq et g ∈ G, g ◦ f (x) = g(qx) = qg(x). Or


g ◦ f = f , donc (g ◦ f )(x) = f (x) = qx, ce qui entraîne qg(x) = qx, et donc x ∈ F .
5. PROBLÈMES 225

Problème 12. Soit E un C-e.v de dimension quelconque, et u, v ∈ L(E) vériant


uv − vu = α IdE , α ∈ C.
1/a) Si E est de dimension nie, montrer α = 0.
b) Si E est normé et u et v continus, montrer α = 0.
c) Si v admet un polynôme minimal, montrer α = 0.
2/a) Exhiber deux endomorphismes u et v vériant uv − vu = IdE .
b) Soit p un nombre premier. On suppose ici que E est K-e.v de dimension p, avec
K = Z/pZ. Soit v ∈ L(E) déni sur une base (e1 , . . . , ep ) de E par v(ek ) = ek+1 pour
1 ≤ k ≤ p − 1 et v(ep ) = e1 . Montrer que l'ensemble Γv = {u ∈ L(E) | uv − vu = IdE }
est non vide et déterminer Γv .
Solution. 1/a) Si uv − vu = α IdE , alors tr(uv − vu) = α tr(IdE ) = α dim E . Or tr(uv − vu) =
tr(uv) − tr(vu) = 0, donc α dim E = 0, ce qui entraîne α = 0.
b) Une récurrence facile donne la propriété
∀k ∈ N∗ , uv k − v k u = kαv k−1 . (∗)
Ceci étant, soit · la norme d'algèbre sur Lc (E) issue de la norme sur E (u = supx=1 u(x)).
D'après (∗), on a
∀k ∈ N∗ , k|α| · v k−1  ≤ uv k  + v k u ≤ 2u · v k  ≤ 2u · v · v k−1 . (∗∗)
Si pour tout k, = 0 alors (∗∗) entraîne k|α| ≤ 2u · v pour tout k , donc α = 0. Sinon, il
vk
existe k ∈ N∗ tel que v k = 0 et v k−1 = 0. L'identité (∗) entraîne alors kα = 0, donc α = 0.
c) Soit P le polynôme minimal de v. Par linéarité, l'identité (∗) entraîne
0 = uP (v) − P (v)u = αP  (v).
Or P  (v) = 0 car P est le polynôme minimal de v . Donc α = 0.
2/a) Les questions précédentes montrent déjà que l'on doit se placer en dimension innie, consi-
dérer des endomorphismes non continus et n'admettant pas de polynôme minimal.
On choisit u et v ∈ L(C[X]) dénis par u(P ) = P  et v(P ) = XP . Alors pour tout P ∈ C[X],
(uv − vu)(P ) = u(XP ) − v(P  ) = (P + XP  ) − XP  = P,
donc uv − vu = IdC[X] .
b) L'endomorphisme v étant xé, l'équation uv − vu = IdE est une équation linéaire d'inconnue
u ∈ L(E). On en cherche une solution particulière u0 , et on obtiendra les autres solutions en
additionnant à u0 les solutions de l'équation homogène uv = vu, qui est le commutant de v (voir
l'exercice 6 page 191). Par commodité notons e0 = ep , de sorte que v(ek ) = ek+1 pour 0 ≤ k < p.
Pour avoir u0 v − vu0 = IdE , on a nécessairement
∀k ∈ {0, . . . , p − 1}, u0 (ek+1 ) = (u0 v)(ek ) = v(u0 (ek )) + ek .
Il est naturel de chercher u0 (ek+1 ) de la forme λk ek . Si ce choix convient, l'égalité précédente
entraîne, pour 0 < k < p, λk ek = u0 (ek+1 ) = λk−1 v(ek−1 ) + ek = (λk−1 + 1)ek , ce qui impose
λk = λk−1 + 1. On choisit λk = k , donc u0 (ek+1 ) = kek pour 0 ≤ k < p. Réciproquement soit u0
déni sur la base (e1 , . . . , ep ) par u0 (ek ) = (k − 1)ek−1 , pour 1 ≤ k ≤ p. On a
∀k ∈ {1, . . . , p − 1}, (u0 v − vu0 )(ek ) = u0 (ek+1 ) − v((k − 1)ek−1 ) = kek − (k − 1)ek = ek ,
et (u0 v − vu0 )(ep ) = u0 (e1 ) − v((p − 1)ep−1 ) = 0 − (p − 1)ep = ep ,
la dernière égalité découlant du fait que K est de caractéristique p. On a donc bien u0 ∈ Γv . Il
nous reste à dénir les solutions u de l'équation homogène uv = vu. Remarquons que la matrice
de v dans la base (e1 , . . . , ep ) est une matrice circulante, de polynôme minimal X p − 1, de degré
p = dim E . La dernière question de l'exercice 6 page 191 arme que le commutant de v est
formé des polynômes en v , nous allons redémontrer ce résultat dans notre cas particulier. Soit u
commutant avec v . Comme v k (e1 ) = ek+1 pour 0 ≤ k < p, la famille (v k (e1 ))0≤k<p est une base
226 4. RÉDUCTIONS D'ENDOMORPHISMES

de E donc il existe P ∈ K[X], deg P < p, tel que u(e1 ) = P (v)(e1 ). On en déduit, pour tout
k ∈ {1, . . . , p},
u(ek ) = u(v k−1 (e1 )) = v k−1 u(e1 ) = v k−1 P (v)(e1 ) = P (v)(v k−1 (e1 )) = P (v)(ek ).
Donc u et P (v) sont égaux sur chaque vecteur de la base (e1 , . . . , ep ) donc u = P (v). Récipro-
quement tout polynôme en v commute avec v . Donc le commutant de u est {P (v) | P ∈ K[X]},
et nalement Γv = u0 + {P (v) | P ∈ K[X]}.
Remarque. Il n'y a aucun lien entre la continuité et
 le fait d'admettre un polynôme
minimal. Munissons par exemple R[X] de la norme  nk=0 ak xk  = supk |ak |.
L'endomorphisme v de R[X] déni sur la base canonique de R[X] par v(X n ) =
X /(n + 1) est continu mais il admet une innité de valeurs propres, donc pas de poly-
n

nôme minimal. L'endomorphisme v de R[X] déni par v(X 2n ) = nX 2n+1 et v(X 2n+1 ) = 0
n'est pas continu mais admet un polynôme minimal car v 2 = 0.

Problème 13. Soit K un corps commutatif et E un K e.v de dimension n ≥ 2. Soient


u, v ∈ L(E) et w = uv − vu tel que rg(w) = 1.
a) Soit x ∈ Im w. Montrer que pour tout k ∈ N, uk (x) ∈ Ker w.
b) En déduire que le polynôme caractéristique Pu de u n'est pas irréductible dans K[X].
Solution. a) Commençons par remarquer que w est nilpotent (ceci découle de l'exercice 2
page 180, car rg(w) = 1 et tr(w) = tr(uv) − tr(vu) = 0). Ceci étant, soit k ∈ N. On a
wuk = u(vuk ) − (vuk )u donc tr(wuk ) = 0.
Si wuk = 0, alors wuk (x) = 0, c'est-à-dire uk (x) ∈ Ker w.
Sinon, rg(wuk ) ≥ 1. Or Im(wuk ) ⊂ Im w, donc rg(wuk ) ≤ 1. On a donc rg(wuk ) = 1, de
sorte que comme tr(wuk ) = 0, wuk est nilpotente. Comme x ∈ Im w, que wuk (x) ∈ Im w et que
dim(Im w) = 1, on voit que x est vecteur propre de wuk . L'endomorphisme wuk étant nilpotent,
on en déduit que wuk (x) = 0, i. e. uk (x) ∈ Ker w.
b) L'idée est de trouver un s.e.v strict de E stable par u. Fixons x ∈ Im w, x = 0. Soit F =
{uk (x) | k ∈ N}. Le s.e.v G = Vect F est stable par u. Comme x = 0, on a même G = {0}. Par
ailleurs, d'après a), on a G ⊂ Ker w. En notant p = dim G, on en déduit
1 ≤ p ≤ dim Ker w = n − rg w = n − 1.
Soit (e1 , . . . , ep ) une base de G complétée en une base (e1 , . . . , en ) de E . On a
 
A B
[u]B = , A ∈ Mp (K), C ∈ Mn−p (K),
0 C
donc Pu = PA · PC n'est pas irréductible dans K[X].

Problème 14. Soient A et B ∈ Mn (C). a) Montrer que


(∃P ∈ Mn (C), P = 0), AP = P B
si et seulement si A et B ont au moins une valeur propre commune.
b) Soit r ∈ N, 0 < r ≤ n. Montrer que s'il existe P ∈ Mn (C) avec rg P = r tel
que AP = P B , alors les polynômes caractéristiques PA et PB de A et B vérient
deg(pgcd (PA , PB )) ≥ r. La réciproque est elle vraie ?

Solution. a) Remarquons déjà que si P est inversible, AP = P B s'écrit P −1 AP = B , donc A


et B sont semblables et le résultat est évident. Le cas général est plus délicat.
Condition nécessaire. Donnons deux méthodes.
5. PROBLÈMES 227

Première méthode. Par récurrence sur k ∈ N, on a facilement Ak P = P B k , donc pour tout


polynôme F ∈ C[X], F (A)P = P F (B). (∗)
Ceci étant, supposons que A et B n'ont aucune valeur propre commune. Alors les polynômes
caractéristiques PA et PB de A et B n'ont aucune racine commune dans C et sont donc premiers
entre eux. D'après le théorème de Bezout, il existe donc U, V ∈ C[X] tels que U PA + V PB = 1.
On a alors U (B)PA (B) = In , et donc PA (B) est inversible. Or PA (A)P = P PA (B) d'après (∗),
donc P PA (B) = 0, et comme PA (B) est inversible, ceci entraîne P = 0. Ceci est absurde, d'où
la condition nécessaire.
Seconde méthode. Soit
 (e1 , . . . , en ) une base de C qui triangularise la matrice B . Pour tout j ,
n

on a Bej = λj ej + i<j bi,j ei . Soit j le plus petit indice tel que P ej = 0 (j existe, sinon P = 0).
Alors  

AP ej = P Bej = P λj ej + bi,j ei  = λj P ej ,
i<j

donc λj est valeur propre de A (un vecteur propre associé est P ej ), donc valeur propre commune
à A et B .
Condition susante. Trigonalisons A supérieurement et B inférieurement, en supposant que λ ∈
C est valeur propre commune à A et B : il existe P1 , P2 ∈ Gn (C) tels que
   
λ × ··· × λ 0 ··· 0
 ... ..   ... .. 
 0 × .  × × . 
T = P1−1 AP1 =  . ... ...  et S = P2−1 BP2 = 
 . ... ... .
 .. ×   .. 0 
0 ··· 0 × × ··· × ×
En désignant par Y la matrice dont tous les coecients sont nuls sauf celui d'indice (1, 1) qui
vaut 1, on a T Y = λY et Y S = λY . Ainsi, (P1−1 AP1 )Y = Y (P2−1 BP2 ), et en multipliant à
gauche par P1 et à droite par P2−1 on obtient AP = P B avec P = P1 Y P2−1 = 0.
b) Le cas r = 1 est une conséquence du résultat de la question précédente, et lorsque r = n c'est
immédiat car les matrices A et B sont alors semblables, donc ont même polynôme caractéristique.
Pour traiter
 le cas général, on se ramène au cas plus simple où la matrice P est de la forme
Jr = I0r 00 . Comme la matrice P est de rang r, elle est équivalente à la matrice Jr ce qui s'écrit
P = QJr R avec Q, R ∈ Gn (C). On a donc
A(QJr R) = (QJr R)B donc A Jr = Jr B  , avec A = Q−1 AQ et B  = RBR−1 .
La matrice A est semblable à A donc PA = PA , de même
 PB = PB . En écrivant les matrices
A A B B
A et B  par blocs sous la forme A = A0 A1 et B  = B0 B1 (avec A0 et B0 dans Mr (C))
2 3 2 3
l'égalité A Jr = Jr B  s'écrit
         
A0 A1 Ir 0 Ir 0 B0 B1 A0 0 B0 B1
= donc =
A2 A3 0 0 0 0 B2 B3 A2 0 0 0
ce qui entraîne A0 = B0 , A2 = 0 et B1 = 0. En notant S = A0 = B0 , on a donc
   
S A1 S 0
A = 
et B = 
.
0 A3 B2 B3
Ceci montre que PA = PS PA3 et PB  = PS PB3 , donc le polynôme PS divise PA = PA et
PB = PB  , et comme deg(PS ) = r ceci entraîne bien deg(pgcd (PA , PB )) ≥ r.
La réciproque est vraie lorsque r = 1 (on a exhibé une matrice P de rang 1 vériant AP = P B
dans la solution de la question précédente), mais fausse dans le cas général. Par exemple, lorsque
r = n avec n ≥ 2, on peut avoir PA = PB sans que A et B vérient AP = P B avec rg(P ) = n,
car ceci impliquerait que P est inversible, donc A et B seraient semblables. Or deux matrices
ayant même polynôme caractéristique ne sont pas forcément semblables, comme le montre le
contre-exemple où A = 0 et B une matrice nilpotente non nulle.
228 4. RÉDUCTIONS D'ENDOMORPHISMES

Problème 15. Soit A ∈ Mn (C). Montrer que det(I + AA) ∈ R+ . (Indication : si U est
un vecteur propre de AA associé à une valeur propre λ ∈ R+ , montrer que V = AU est
aussi un vecteur propre de AA, et que la famille (U, V ) est libre).
Solution. Nous procédons par récurrence sur n. Si n = 1 le résultat est immédiat. Supposons
maintenant n ≥ 2. Si toutes les valeurs propres (λi ) de
AA sont des nombres réels positifs, alors
en trigonalisant AA on s'aperçoit que det(I + AA) = i (1 + λi ), donc a bien det(I + AA) ∈ R+ .
Sinon, la matrice AA a au moins une valeur propre λ ∈ R+ . Soit U un vecteur propre associé.
Le vecteur V = AU vérie
AAV = AAAU = A(AAU ) = AλU = λV.
La famille (U, V ) est bien libre, car si on avait V = µU avec µ ∈ C, alors on aurait
λU = AAU = AV = µAU = µV = |µ|2 U
donc λ = |µ|2 ce qui est impossible puisque λ ∈ R+ . Si n = 2, la famille (U, V ) est une base de
vecteurs propres de AA associés aux valeurs propres λ et λ, et en diagonalisant AA on obtient
det(I +AA) = (1+λ)(1+λ) = |1+λ|2 ∈ R+ . Sinon n > 2, et on complète la famille (U, V ) en une
base B de Cn . Notons P la matrice de passage
 de
 la base canonique (E1 , . . . , En ) de C à la base
n
λ 0 ×
B . On a la forme par blocs P −1 AAP = 0 λ mais pour appliquer l'hypothèse de récurrence,
(0) ×
il faut montrer que le bloc inférieur droit est de la forme M M , ce qui n'est pas immédiat a priori.
An de montrer ce résultat, on remarque que P −1 AAP = BB où B = P −1 AP . Les matrices
BB et AA sont semblables, donc I + BB et I + AA également, d'où det(I + BB) = det(I + AA).
Comme P E1 = U et P E2 = V et que les vecteurs E1 et E2 ont leurs coordonnées réelles, on a
BE1 = P −1 AP E1 = P −1 AU = P −1 V = E2 ,
BE2 = P −1 AP E2 = P −1 AV = P −1 AAU = λP −1 U = λE1 .
Ceci montre que la matrice B a la forme par blocs
   
0 λ λ 0
C   E 
B= 1 0 donc BB =  0 λ .
0 D 0 DD

Cette écriture entraîne det(I + BB) = |1 + λ|2 det(I + DD), et ceci est bien un nombre réel
positif d'après l'hypothèse de récurrence appliquée à la matrice DD.
Remarque. D'après l'exercice 3 page 197, le polynôme caractéristique de AA est égal
à celui de AA. Ceci entraîne PAA = PAA = PAA , donc PAA a ses coecients réels. En
particulier, det(I + AA) = PAA (−1) ∈ R, mais ceci est un résultat moins fort que det(I +
AA) ∈ R+ .

Problème 16. Soit p un nombre premier. On considère la matrice


 
a0 a1 · · · ap−2 ap−1
 ap−1 a0 a1 ap−2 
 . .. 
 . ... 
A= . ap−1 a0 . 
 . . . 
 .. .. .. a1 
a1 · · · · · · ap−1 a0
avec pour tout i, ai ∈ Z. Montrer que det A ≡ a0 + a1 + · · · + ap−1 (mod p).
5. PROBLÈMES 229

Solution. Cela ressemble à l'exercice 4 page 190. On commence de la même manière. Soit
 
0 1 (0)
. .
 . .. .. . 
 . 
J = ...  ∈ Mn (R).
 0 1 
1 0 ··· 0
On avait montré à l'exercice 4 page 190 que le polynôme caractéristique de J est PJ = (−1)p (X p −
1), et que A = Q(J), où Q = a0 + a1 X + · · · + ap−1 X p−1 ∈ Z[X]. Regardons A et J comme
des matrices à valeurs dans Z/pZ. Dans Z/pZ, PJ = (−1)p (X p − 1̇) = (−1)p (X − 1̇)p . Comme
A = Q(J), on a alors PA = (−1)p [X − Q(1̇)]p (pour s'en rendre compte, trigonaliser J dans
Mn (Z/pZ)  voir la remarque 1 page 184), donc det A ≡ PA (0) ≡ Q(1)p ≡ Q(1) ≡ a0 +· · ·+ap−1
(mod p).

Problème 17. Le polynôme caractéristique PA d'une matrice A ∈ Mn (C) peut s'écrire


 
PA = (−1)n X n + f1 (A)X n−1 + · · · + fn−1 (A)X + fn (A) ,
où les fi (A) sont des polynômes en les coecients de A.
a) Montrer que pour toutes matrices A, B ∈ Mn (C), on a fi (AB) = fi (BA) pour tout i.
b) Réciproquement, soit Q : Mn (C) → C A = (ai,j )1≤i,j≤n → Q(A) une fonction
polynôme en les coecients ai,j de A. Si pour toutes matrices A, B ∈ Mn (C), on a
Q(AB) = Q(BA), montrer qu'il existe un polynôme F ∈ C[X1 , . . . , Xn ] tel que
∀A ∈ Mn (C), Q(A) = F (f1 (A), . . . , fn (A)).

Solution. a) Il s'agit de prouver que PAB = PBA pour tous A, B ∈ Mn (C), ce qui est précisément
le résultat démontré dans l'exercice 3 page 197.
b) C'est plus délicat. Commençons par noter que deux matrices semblables prennent la même
valeur par Q (si B = P −1 AP avec P ∈ Gn (C), on a Q(B) = Q((P −1 A)P ) = Q(P (P −1 A)) =
Q(A)). Cette remarque va nous permettre de traiter aisément le cas des matrices diagonalisables,
puis de toutes les matrices par densité (les matrices diagonalisables forment un ensemble dense
dans Mn (C), voir l'exercice 1 page 195).
Pour tout n-uplet (λ1 , . . . , λn ) de Cn , on note D(λ1 , . . . , λn ) la matrice diagonale dont le
coecient d'indice (i, i) est λi . L'application Cn → C (λ1 , . . . , λn ) → Q(D(λ1 , . . . , λn )) est une
fonction polynôme en les λi que l'on note Π.
Supposons maintenant A diagonalisable et notons λ1 , . . . , λn ses valeurs propres. Pour toute
permutation σ ∈ Sn , A est semblable à la matrice diagonale Aσ = D(λσ(1) , . . . , λσ(n) ), ce qui
prouve que
Q(A) = Q(Aσ ) = Π(λσ(1) , . . . , λσ(n) ).
Ceci étant vrai pour tout σ ∈ Sn et pour toute matrice diagonalisable A, on en déduit que
Π est un polynôme symétrique en ses n variables. On peut donc l'écrire comme un polynôme
F en les polynômes symétriques élémentaires Σ1 , . . . , Σn (voir le théorème 1 page 84). On sait
que la valeur σi prise
 par Σi au point (λ1 , . . . , λn ) est (−1) αi où αi est le coecient de X
i i

dans le polynôme ni=1 (X − λi ). Ce dernier polynôme étant égal à (−1)n PA , on en déduit que
σi = (−1)i fi (A). Finalement,
Q(A) = F (σ1 , . . . , σn ) = F (−f1 (A), . . . , (−1)n fn (A)). (∗)
Cette égalité est vraie pour toute matrice diagonalisable A. Les matrices diagonalisables formant
un ensemble dense dans Mn (C), les applications de l'égalité (∗) étant des fonctions continues
de A (ce sont des fonctions polynômes), on en déduit que (∗) est vrai pour toute matrice A de
Mn (C).
230 4. RÉDUCTIONS D'ENDOMORPHISMES

Problème 18 (Dérivée d'un déterminant, algorithme de Faddéev). Le but


du problème est de proposer une méthode pratique ecace pour calculer le polynôme
caractéristique d'une matrice.
1/ (Dérivée d'un déterminant ). On considère
A : R → Mn (R) t → A(t) = (ai,j (t))1≤i,j≤n
une application dérivable sur R. Montrer que l'application ϕ : t → det(A(t)) est dérivable
sur R et que
n

ϕ (t) = det(C1 (t), . . . , Ci−1 (t), Ci (t), Ci+1 (t), . . . , Cn (t)),
i=1

où C1 (t), . . . , Cn (t) désignent les vecteurs colonnes de la matrice A(t).


2/ (Méthode de Faddéev pour le calcul du polynôme caractéristique ). Soient K un corps
commutatif et une matrice A ∈ Mn (K). On note χA = det(XIn − A).
a) Montrer que χA = tr(com(XIn −A)) où com(XIn −A) désigne la comatrice de XIn −A.
b) On dénit des matrices B0 , . . . , Bn−1 ∈ Mn (K) par
tr(ABk−1 )
B0 = I n et ∀k, 1 ≤ k ≤ n − 1, Bk = ABk−1 − In .
k
Montrer
tr(AB1 ) n−2 tr(ABn−1 )
χA (X) = X n − tr(AB0 )X n−1 − X − ··· − ,
2 n
et si A est inversible,
n
A−1 = Bn−1 .
tr(ABn−1 )

Solution. 1/ L'expression

ϕ(t) = det A(t) = ε(σ) aσ(1),1 (t) · · · aσ(n),n (t)
σ∈Sn
montre que ϕ est dérivable et permet d'obtenir, par dérivation,
 n

 

ϕ (t) = ε(σ) aσ(1),1 (t) · · · aσ(k−1),k−1 (t) aσ(k),k (t) aσ(k+1),k+1 (t) · · · aσ(n),n (t)
σ∈Sn k=1
ce qui, en échangeant l'ordre des signes sommes, est précisément le résultat demandé.
2/a) Le résultat de la question 1/ reste valable pour les polynômes dérivés (la démonstration
peut être reprise telle quelle). En l'appliquant au polynôme dérivé de χA (X) = det(XIn − A), on
s'aperçoit que χA (X) est la somme des cofacteurs des éléments diagonaux de XIn −A, autrement
dit χA (X) = tr(com(XIn − A)).
b) Écrivons χA = X n + a1 X n−1 + · · · + an−1 X + an . Chaque cofacteur de la matrice XIn − A
est un polynôme en X de degré au plus n − 1, ce qui montre l'existence de matrices B0 , . . . , Bn−1
telles que
t
com(XIn − A) = B0 X n−1 + B1 X n−2 + · · · + Bn−1 .
L'égalité χA = tr(com(XIn − A)) = tr( tcom(XIn − A)) entraîne
(n − 1)a1 = tr(B1 ), ..., 1 · an−1 = tr(Bn−1 ). (∗)
Ceci étant, la relation (XIn − A) com(XIn − A) = det(XIn − A) In s'écrit
t

B0 X n + (B1 − AB0 )X n−1 + · · · + (Bn−1 − ABn−2 )X − ABn−1 = χA (X) In ,


ce qui en identiant les coecients donne
B 0 = In , B1 − AB0 = a1 In , ..., Bn−1 − ABn−2 = an−1 In , −ABn−1 = an In , (∗∗)
5. PROBLÈMES 231

donc en prenant la trace


na1 = tr(B1 ) − tr(AB0 ), ..., nan−1 = tr(Bn−1 − ABn−2 ), nan = − tr(ABn−1 ).
En retranchant à chacune de ces égalités celles de (∗), on obtient
1 · a1 = − tr(AB0 ), ..., (n − 1)an−1 = − tr(ABn−2 ), nan = − tr(ABn−1 ). (∗∗∗)
Ainsi, on a ak = − tr(ABk−1 )/k, et en reportant ceci dans (∗∗) on obtient
tr(AB0 ) tr(ABn−2 )
B 0 = In , B1 = AB0 − In , ..., Bn−1 = ABn−2 − In .
1 n−1
relations qui permettent de dénir les matrices Bk par récurrence, et on obtient avec (∗∗∗) la
première partie du résultat.
Lorsque A est inversible, la dernière égalité de (∗∗) entraîne
1 n
A−1 = − Bn−1 = Bn−1 .
an tr(ABn−1 )

Remarque. Cet algorithme permet en particulier d'obtenir le déterminant (−1)n an de A.


C'est une méthode beaucoup plus rapide que celle consistant à calculer det A en dévelop-
pant récursivement les déterminants par rapport à une ligne ou une colonne, technique
qui demande d'eectuer n! opérations (ce qui est très coûteux lorsque n est grand).

Problème 19. 1/ Soit n ∈ N∗ et Ω le sous-ensemble de Mn (R) des matrices M telles


que ΠM (polynôme minimal de M ) égale, au signe près, PM (le polynôme caractéristique
de M ). Montrer que Ω est ouvert dans Mn (R).
2/ Soit M ∈ Ω et (Mm )m∈N une suite de matrices de Mn (R) tendant vers M et telle que
pour tout m, Mm est diagonalisable dans Mn (R).
a) Montrer qu'il existe  ∈ N tel que pour tout m ≥ , Mm a n valeurs propres distinctes
deux à deux.
b) Montrer qu'il existe K > 0 tel que pour tout m et pour toute valeur propre λ de Mm ,
|λ| ≤ K .
c) Pour tout m ≥ , on note λ1 (m) < · · · < λn (m) les n valeurs propres de Mm . Pour
tout i ∈ {1, . . . , n} montrer que λi = limm→∞ λi (m) existe. Montrer également que λ1 ≤
· · · ≤ λn et que PM = (−1)n (X − λ1 ) · · · (X − λn ).

Solution. 1/ Dire que ΠM = (−1)n PM équivaut à dire que deg ΠM = n (car ΠM divise PM ),
ou encore que (In , M, . . . , M n−1 ) forme une famille libre de Mn (R).
Soit M ∈ Ω. La famille (In , M, . . . , M n−1 ) étant libre, on peut la compléter en une base
B0 = (In , M, . . . , M n−1 , En+1 , . . . , En2 ) de Mn (R). Fixons une base B de Mn (R). On dénit
l'application
ϕ : Mn (R) → R N → detB (In , N, . . . , N n−1 , En+1 , . . . , En2 ).
L'application ϕ est continue et par construction, ϕ(M ) = 0. Il existe donc un voisinage V de
M dans Mn (R) tel que pour tout N ∈ V , ϕ(N ) = 0. Ceci entraîne que pour tout N ∈ V ,
(In , N, . . . , N n−1 ) forme une famille libre de Mn (R), et donc V ⊂ Ω. L'ensemble Ω est donc
ouvert.
2/a) On a M ∈ Ω et M est la limite de la suite (Mm ). Comme Ω est ouvert, il existe  ∈ N
tel que pour tout m ≥ , Mm ∈ Ω. Pour tout m, Mm est diagonalisable dans Mn (R) et ΠMm
est donc scindé sur R, à racines toutes simples. Or pour m ≥ , deg ΠMm = n, ΠMm a donc n
racines distinctes qui sont les valeurs propres de Mm , d'où le résultat.
b) Soit  .  une norme d'algèbre sur Mn (R). La suite (Mm )m∈N converge donc est bornée, i. e.
il existe K > 0 tel que pour tout m ∈ N, Mm  ≤ K . D'après la proposition 1 page 193, pour
tout m ∈ N et pour toute valeur propre λ de Mm , on a |λ| ≤ Mm  ≤ K .
232 4. RÉDUCTIONS D'ENDOMORPHISMES

c) Montrons d'abord que PM est scindé sur R. La suite


(λ(m))m≥ = [(λ1 (m), . . . , λn (m))]m≥
prend ses valeurs dans le compact [−K, K]n . On peut donc en extraire une sous-suite convergente
λ(ϕ(m))m∈N . Soit λ = (λ1 , . . . , λn ) = limn→∞ λ(ϕ(n)). Pour tout m,
n

PMϕ(m) = (−1)n [X − λi (ϕ(m))]
i=1

donc PM = limm→∞ PMϕ(m) = (−1)n ni=1 (X − λi ) est scindé sur R. Comme pour tout m,
λ1 (ϕ(m)) < · · · < λn (ϕ(m)), on obtient en passant à la limite λ1 ≤ · · · ≤ λn .
Montrons maintenant que la suite (λ(m))m≥ converge. Cette suite étant à valeur dans
un compact, il sut de montrer qu'elle n'admet qu'une seule valeur d'adhérence. Soit µ =
(µ1 , . . . , µn ) une valeur d'adhérence de (λ(m))m≥ . Il existe une sous-suite (λ(ψ(m)) convergeant
vers µ. On a µ1 ≤ · · · ≤ µn et
n

PM = lim PMψ(m) = (−1)n (X − µi ).
m→∞
i=1
Des relations
n
 n

(X − λi ) = (X − µi ), λ1 ≤ · · · ≤ λn et µ1 ≤ · · · ≤ µn ,
i=1 i=1
on tire µ1 = λ1 , . . . , µn = λn , i. e. λ = µ. L'élément λ est donc la seule valeur d'adhérence de
(λ(m))m≥ , donc cette suite étant à valeur dans un compact,  elle converge vers λ. Pour tout i,
on a donc λi = limn→∞ λi (m) et on a vu que PM = (−1)n ni=1 (X − λi ), d'où le résultat.
Remarque. La méthode utilisée tout au long de 2/ est à retenir. On procède souvent ainsi
lorsqu'un polynôme est limite d'une suite de polynômes.

Problème 20. Soit n ∈ N∗ et Γ = {M ∈ Mn (C) | ∃p ∈ N∗ , M p = In }. Déterminer


l'adhérence Γ de Γ dans Mn (C).
Solution. Notons γ = {M ∈ Mn (C) | pour toute valeur propre λ de M, |λ| = 1}. Nous allons
montrer que Γ = γ .
Montrons d'abord Γ ⊂ γ . Soit M ∈ Γ. On peut trouver une suite (Mp )p∈N de Γ telle que
limp→∞ Mp = M . Pour tout p, il existe q ∈ N∗ tel que Mpq = In , i. e. le polynôme X q − 1 annule
Mp . Toute valeur propre de Mp est donc racine de ce polynôme, donc de module 1. Pour tout p,
on note λ1 (p), . . . , λn (p) les racines de PMp (polynôme caractéristique de Mp ). Pour tout i, on a
vu que |λi (p)| = 1, la suite λ(p) = (λ1 (p), . . . , λn (p)) est donc à valeurs dans le compact C n , où
C désigne le cercle unité complexe. On peut donc en extraire une sous-suite convergente λ(ϕ(p))
convergeant vers λ = (λ1 , . . . , λn ) ∈ C n . Pour tout i, on a |λi | = limp→∞ |λi (p)| = 1, et comme
M = limp→∞ Mϕ(p) ,
n
 n

PM = lim PMϕ(p) = lim [X − λi (ϕ(p))] = (−1)n (X − λi ).
p→∞ p→∞
i=1 i=1
Les valeurs propres de M sont donc les λi et ont leur module égal à 1. Donc M ∈ γ .
Montrons maintenant l'inclusion réciproque γ ⊂ Γ. Soit M ∈ γ . Il existe une matrice Q ∈
G n (C) telle que
 
λ1 × ··· ×
 ... .. 
 0 λ2 . 
Q−1 M Q =  .. ... ... .
 . × 
0 ··· 0 λn
5. PROBLÈMES 233

Pour tout i, λi est valeur propre de M donc |λi | = 1 car M ∈ γ . En rééchissant un peu, on voit
qu'il existe une suite µp = (µ1 (p), . . . , µn (p)) de Cn vériant, pour tout p ∈ N :
 Pour tout j et pour tout p, il existe r ∈ Q tel que µj (p) = exp(2iπr).
 Les (µi (p))1≤i≤n sont distincts deux à deux.
 Pour tout i, limp→∞ µi (p) = λi .
Pour tout p, on pose
 
µ1 (p) × ··· ×
 ... .. 
 0 µ2 (p) . 
Mp =  .. ... ... 
 . × 
0 ··· 0 µn (p)

(où la partie triangulaire supérieure est celle de Q−1 M Q). Les µi (p)1≤i≤n étant distincts, Mp est
diagonalisable, donc semblable à la matrice diagonale Dp dont les éléments diagonaux sont ceux
de Mp . Pour une valeur de p donnée, pour tout j , 1 ≤ j ≤ n, on peut écrire µj (p) = exp(2iπaj /bj )
où (aj , bj ) ∈ Z × N∗ . Si q = ppcm (b1 , . . . , bn ), on a µj (p)q = 1 pour tout j , donc Dpq = In , donc
Mpq = In , c'est-à-dire pour tout p, Mp ∈ Γ. Or par construction, M = limp→∞ QMp Q−1 . Comme
pour tout p, QMp Q−1 ∈ Γ, on en déduit M ∈ Γ.

Problème 21 (Théorème de Perron, matrices stochastiques). Si A = (ai,j ) ∈


Mn (R) est une matrice, on note A ≥ 0 si ai,j ≥ 0 pour tout (i, j), et on note A > 0
si ai,j > 0 pour tout (i, j). Pour un vecteur X ∈ Rn , on dénit de la même manière les
notations X ≥ 0 et X > 0. Si X, Y sont deux vecteurs de Rn , on note X ≥ Y (resp.
X > Y ) lorsque X − Y ≥ 0 (resp. X − Y > 0).
1/ (Théorème de Perron). Soit une matrice A ∈ Mn (R) telle que A > 0.
a) On note S l'ensemble des vecteurs X = (xi ) ∈ Rn tels que X ≥ 0 et ni=1 xi = 1 (de
tels vecteurs sont appelés vecteurs de probabilité ). Montrer que l'ensemble

Λ = {λ ∈ R | (∃X ∈ S), AX ≥ λX}

est majoré et que sa borne supérieure λ0 est une valeur propre de A strictement positive
associée à un vecteur propre X > 0.
b) Montrer que pour toute valeur propre complexe λ = λ0 de A, on a |λ| < λ0 (on dit
alors que λ0 est valeur propre dominante de A).
c) Montrer que le sous-espace propre Eλ0 de A associé à la valeur propre λ0 est de
dimension 1.
d) Montrer que λ0 est racine simple du polynôme caractéristique de A (on dit alors que
λ0 est valeur propre simple de A). (Indication : raisonner par l'absurde en considérant
deux vecteurs indépendants X et Y tels que X > 0 avec AX = λ0 X et AY = λ0 Y + αX ,
puis considérer Ak Y ).
2/ (Matrices stochastiques
 ) Soit A = (ai,j ) ∈ Mn (R) une matrice vériant A ≥ 0 et telle
que pour tout i, on a nj=1 ai,j = 1 (on dit que A est une matrice stochastique).
a) Si A > 0, montrer que 1 est valeur propre simple et dominante de A.
b) S'il existe k ∈ N∗ tel que Ak > 0 (on dit alors que A est régulière), montrer que 1 est
valeur propre simple et dominante de A.
c) Si A est régulière, montrer que la suite de matrices (Ak ) converge, et que sa limite est
un projecteur de rang 1.

Solution.1/ a) L'ensemble Λ est non vide (car 0 ∈ Λ) et évidemment majoré (par exemple par
la somme des éléments de A).
234 4. RÉDUCTIONS D'ENDOMORPHISMES

Par dénition de λ0 , il existe une suite (Xn ) de S et (γn ) de Λ telle que


lim γn = λ0 et ∀n, AXn ≥ γn Xn .
n→∞
L'ensemble S est un fermé borné de Rn , donc compact, de sorte que l'on peut extraire de la suite
(Xn ) une sous-suite convergente (Xϕ(n) ). Notons X ∈ S sa limite. Comme AXϕ(n) ≥ γϕ(n) Xϕ(n)
pour tout n, on obtient en passant à la limite sur chaque composante la relation AX ≥ λ0 X . Si
AX = λ0 X , en composant par A à gauche, on obtient, du fait que A > 0, l'inégalité AY > λ0 Y ,
où Y = AX . Il existe donc ε > 0 susamment petit tel que AY > (λ0 + ε)Y , ce qui contredit la
dénition de λ0 car quitte à multiplier Y par une constante positive non nulle, on peut supposer
Y ∈ S.
Ainsi, AX = λ0 X avec X ∈ S . Le fait que A > 0 entraîne AX > 0, donc λ0 X > 0 et on en
déduit X > 0 et λ0 > 0.
b) Soit λ une valeur propre de A, et notons Z un vecteur propre associé. Les (zi ) désignant les
composantes de Z , on a
n
 n

∀i, ai,j zj = λzi donc ∀i, ai,j |zj | ≥ |λ| · |zi |.
j=1 j=1

En d'autres termes, A|Z| ≥ |λ| |Z| où |Z| désigne le vecteur dont les composantes sont les |zi |, ce
qui prouve que |λ| ∈ Λ (car quitte à multiplier |Z| par une constante non nulle, on peut supposer
|Z| ∈ S ), et donc |λ| ≤ λ0 par dénition de λ0 .
Il nous reste à prouver que si λ = λ0 , alors |λ| < λ0 . Supposons |λ| = λ0 . Comme A > 0,
il existe δ > 0 susamment petit tel que Aδ = A − δIn > 0. Comme λ0 est la plus grande
valeur propre réelle positive de A, λ0 − δ est la plus grande valeur propre réelle positive de
Aδ . En répétant l'argument précédent à la matrice Aδ et à la valeur propre λ − δ , on obtient
|λ − δ| ≤ λ0 − δ . Mais
λ0 = |λ| = |λ − δ + δ| ≤ |λ − δ| + δ ≤ λ0 ,
de sorte que |λ| = |λ − δ| + δ , ce qui n'est possible que si λ est un réel positif. Donc λ = |λ| = λ0 ,
ce qui contredit le fait que λ = λ0 . Donc |λ| < λ0 .
c) D'après a), il existe X > 0 tel que X ∈ Eλ0 . Supposons dim Eλ0 ≥ 2, de sorte qu'il existe un
vecteur réel Y ∈ Eλ0 tel que la famille (X, Y ) soit libre. Choisissons µ tel que X − µY ≥ 0 et
X −µY > 0 (on a µ = inf{xi /yi | yi = 0}). Comme (X, Y ) est une famille libre, X −µY n'est pas
nul, et comme A > 0 et X −µY ≥ 0, on a facilement A(X −µY ) > 0, c'est-à-dire λ0 (X −µY ) > 0
(c'est le même argument que dans a)), donc X − µY > 0. Ceci est en contradiction avec le choix
de µ. Ainsi, dim Eλ0 = 1.
d) Supposons que λ0 est racine d'ordre ≥ 2 de PA . D'après 1/a), il existe un vecteur propre
X ≥ 0 de A vériant AX = λ0 X . Complétons X en une base B = (X, X2 , . . . , Xn ) de Rn et
notons P la matrice dont les vecteurs colonnes sont ceux de B. On a
 
λ0 × · · · ×
 0 
 
P −1 AP =  .  avec B ∈ Mn−1 (R).
 .. B 
0
L'égalité PA = (λ0 − X)PB montre que λ0 est racine du polynôme caractéristique PB de B
(car λ0 est racine d'ordre ≥ 2 de PA par hypothèse), donc valeur
  propre de B . Ainsi, il existe
Z ∈ Rn−1 non nul tel que BZ = λ0 Z , donc le vecteur Y = P Z0 vérie AY = λ0 Y + αX avec
α ∈ R (en d'autres termes, on a commencé à triangulariser la matrice A à partir de la valeur
propre λ0 , et on a considéré les deux premiers vecteurs X et Y de la base correspondante).
On a forcément α = 0 sinon Y serait un vecteur propre de A, et comme la famille (X, Y ) est
libre, ceci est impossible compte tenu du résultat obtenu précédemment. Maintenant, l'égalité
AY = λ0 Y + αX donne facilement Ak Y = λk0 Y + kαλk−1 0 X pour tout k ∈ N . Comme A ≥ 0,
∗ k

on en déduit
Ak |Y | ≥ |Ak Y | = |λk0 Y + kαλk−1 k−1 k k−1
0 X| ≥ |kαλ0 X| − |λ0 Y | = λ0 (k|αX| − λ0 |Y |).
5. PROBLÈMES 235

Comme α = 0 et X > 0, il existe k ∈ N∗ tel que k|αX| − λ0 |Y | > λ0 |Y |, ce qui entraîne


Ak |Y | > λk0 |Y |. Comme Ak > 0, ceci entraîne, d'après le résultat de la question 1/a), que Ak
a une valeur propre > λk0 . Or les valeurs propres de Ak sont les puissances k-ièmes des valeurs
propres de A, et ces dernières sont de module ≤ λ0 d'après 1/b), ce qui est absurde. Ainsi, λ0
est bien racine simple de PA .
2/a) La matrice A vériant A > 0, on peut lui appliquer les résultats précédents. Soit X =
(xi )1≤i≤n ∈ S un vecteur
 de probabilité.
 Soit k tel que xk = supi xi . Soit Y = (yi ) le vecteur
Y = AX . On a yk = nj=1 ak,j xj ≤ nj=1 ak,j xk = xk . Ainsi, si AX ≥ λX avec λ ∈ R, alors en
extrayant la k-ième composante on en déduit yk ≥ λxk , donc λ ≤ 1 car yk ≤ xk . En reprenant les
notations de la question 1/a), nous avons montré que sup Λ ≤ 1, donc la valeur propre λ0 vérie
λ0 ≤ 1. Maintenant on remarque que le vecteur X0 dont toutes les coordonnées sont égales à 1
vérie AX0 = X0 , donc 1 est valeur propre de A, donc on a forcément λ0 ≥ 1. Ainsi, on a λ0 = 1,
D'après le résultat de la question 1/b), on en déduit que 1 est valeur propre dominante de A, et
d'après 1/c), que cette valeur propre est simple.
b) Remarquons qu'une matrice A ≥ 0 est stochastique si et seulement si elle vérie AX0 = X0 , où
X0 est le vecteur dont toutes les coordonnées sont égales à 1. Ainsi, si A et B sont deux matrices
stochastiques, le produit AB vérie AB ≥ 0 (c'est immédiat) et de plus ABX0 = AX0 = X0
donc AB est stochastique. On en déduit que Ak est une matrice stochastique. Comme de plus
Ak > 0 par hypothèse, le résultat de la question précédente entraîne que 1 est valeur propre
simple et dominante de Ak .
L'égalité AX0 = X0 montre que 1 est valeur propre de A. Si λ = 1 est une autre valeur
propre de A associée à un vecteur propre X1 , alors λk est valeur propre de Ak associée au même
vecteur propre, donc |λk | < 1 ou λk = 1. Si λk = 1 alors Ak X1 = X1 , donc 1 serait valeur propre
non simple de Ak (on a également Ak X0 = X0 et les vecteurs X0 et X1 sont bien indépendants
car associés à des valeurs propres distinctes de A), ce qui est absurde. Donc |λk | < 1, ce qui
montre que 1 est bien valeur propre dominante de A.
Enn, 1 est bien valeur propre simple de A, car en triangularisant A, on s'aperçoit que les
valeurs propres de Ak (en comptant leur multiplicité dans le polynôme caractéristique) sont les
puissances k-ièmes de celles de A. Ainsi, si 1 n'était pas valeur propre simple de A, 1 ne serait
pas valeur propre simple de Ak .
c) Comme 1 est valeur propre simple de A, la décomposition de Dunford assure l'existence d'une
matrice P ∈ Gn (C) telle que
 
1 0 ··· 0
 0 
 
T = P −1 AP =  .  avec B ∈ Mn−1 (R),
 .. B 
0

où B = D +N , avec D une matrice diagonale et N une matrice nilpotente, telles que DN = N D.


Comme 1 est valeur propre dominante de A, les valeurs diagonales (λi )1≤i≤n−1 de D vérient
|λi | < 1. Comme les matrices D et N commutent, on a

k  
 n  

k k
∀k ≥ n, B k = (D + N )k = Dk−j N j = Dk−j N j ,
j j
j=0 j=0

car N j = 0 pour j > n. Choisissons une norme quelconque de l'espace des vecteurs, et normons
l'espace des matrices par la norme d'algèbre M  = supX=1 M X. On a D < 1 car D
est le maximum des modules |λi | de ses termes diagonaux. L'égalité précédente entraîne
n  
 n  
 n

k k
B k  ≤ Dk−j N j ≤ Dk−n N j ≤ Dk−n k j N j .
j j
j=0 j=0 j=0
236 4. RÉDUCTIONS D'ENDOMORPHISMES

Ainsi, B k  est majoré par Dk−n F (k) où F est une fonction polynôme. Comme D < 1 ceci
entraîne limk→∞ B k = 0. On a
   
1 0 ··· 0 1 0 ··· 0
 0   0 
  −1   −1
Ak = P  . P donc lim Ak = π, π=P . P .
 .. Bk  k→∞  .. 0 
0 0
La matrice π est de rang 1 et vérie π 2 = π , c'est donc bien un projecteur.
Remarque. Le théorème de Perron s'étend au cas où A ≥ 0, avec des résultats plus
faibles. Il est également vrai sous des hypothèses diérentes (théorème de Frobenius sur
les matrices irréductibles). Les matrices stochastiques apparaissent dans l'étude des chaînes
de Markov à espace d'états nis.

Problème 22 (Endomorphismes semi-simples). Soit E un K-e.v de dimension nie.


On dit que f ∈ L(E) est semi-simple si pour tout s.e.v F de E stable par f , il existe
un supplémentaire S de F stable par f . Une matrice M ∈ Mn (K) est dite semi-simple
si l'endomorphisme f de Kn dont M est la matrice dans la base canonique de Kn est
semi-simple.
1/ Soit f ∈ L(E). On note Πf son polynôme minimal. Soit Πf = M1α1 · · · Mrαr la décom-
position de Πf en facteurs irréductibles de K[X].
a) Soit F un s.e.v stable par f . Montrer que
r

F = [Ker Miαi (f ) ∩ F ] .
i=1

b) Si Πf est irréductible, montrer que f est semi-simple.


c) Dans le cas général, montrer que f est semi-simple si et seulement si Πf = M1 M2 · · · Mr
est produit de polynômes irréductibles unitaires distincts deux à deux.
d) Que dire si K est algébriquement clos ?
2/ Soit M ∈ Mn (R). a) Montrer que M est semi-simple (dans Mn (R)) si et seulement
si M est diagonalisable dans Mn (C).
b) On suppose M semi-simple. Montrer que M est semblable dans Mn (R)à une matrice
de la forme ( D0 B0 ), avec D diagonale et B constituée de blocs de la forme αβ −β
α centrés
sur sa diagonale principale.
Solution. 1/ a) Pour tout i, on note Fi = Ker Miαi (f ). On sait que E = F1 ⊕ · · · ⊕ Fr . Pour tout
i ∈ {1, . . . , r}, on note pi la projection sur Fi parallèlement à ⊕j=i Fj . On a vu à la proposition 1
page 204 que pour tout i, pi est un polynôme en f . Comme F est stable par f , F est donc stable
par pi , ce qui s'écrit pi (F ) ⊂ F . On a aussi pi (F ) ⊂ pi (E) = Fi . Finalement, on a pi (F ) ⊂ Fi ∩ F ,
et comme IdE = p1 + · · · + pr ,
F ⊂ p1 (F ) + · · · + pr (F ) = p1 (F ) ⊕ · · · ⊕ pr (F ) ⊂ (F1 ∩ F ) ⊕ · · · ⊕ (Fr ∩ F ).
L'inclusion réciproque est facile puisque pour tout i, Fi ∩F ⊂ F donc (F1 ∩F )⊕· · ·⊕(Fr ∩F ) ⊂ F .
b) Soit F un s.e.v stable par f . Il s'agit de montrer l'existence d'un supplémentaire S de F dans
E stable par f .
Si F = E , c'est terminé avec S = {0}.
Sinon, soit x1 ∈ E  F . On considère Ex1 = {P (f )(x1 ) | P ∈ K[X]}. Le s.e.v Ex1 est stable
par f . Nous allons montrer que Ex1 ∩ F = {0}.
Soit Ix1 = {P ∈ K[X] | P (f )(x1 ) = 0}. C'est un idéal de K[X], non réduit à {0} car
Πf ∈ Ix1 , donc il existe un polynôme unitaire Πx1 tel que Ix1 = (Πx1 ) = Πx1 K[X]. Comme
5. PROBLÈMES 237

Πf ∈ Ix1 , le polynôme Πx1 divise Πf , et Πf étant irréductible, Πx1 = Πf . Le polynôme Πx1 est
donc irréductible.
Soit y ∈ Ex1 ∩ F . Il existe un polynôme P ∈ K[X] tel que y = P (f )(x1 ). Si y = 0, alors
P ∈ Ix1 = (Πx1 ), donc Πx1 ne divise pas P , et Πx1 étant irréductible, Πx1 et P sont premiers
entre eux. D'après le théorème de Bezout, il existe donc U, V ∈ K[X] tels que U P + V Πx1 = 1,
donc
x1 = U (f ) ◦ P (f )(x1 ) + V (f ) ◦ Πx1 (f )(x1 ) = U (f )(y).
Or y ∈ F et F est stable par f , donc x1 = U (f )(y) ∈ F . Ceci est absurde par construction de
x1 . On a donc y = 0 et Ex1 ∩ F = {0}.
On vient de montrer que Ex1 et F sont en somme directe et Ex1 stable par f . Si F ⊕Ex1 = E ,
on choisit S = Ex1 et c'est terminé. Sinon, on choisit x2 ∈ E  (F ⊕ Ex1 ) et on recommence
en remplaçant cette fois ci F par F ⊕ Ex1 . Itérant ainsi le procédé, on voit qu'au bout d'un
nombre ni d'itérations (E est de dimension ni), on aura trouvé des vecteurs x1 , . . . , xk tels que
E = F ⊕ Ex1 ⊕ · · · ⊕ Exk et pour tout i, Exi stable par f . Le s.e.v S = Ex1 ⊕ · · · ⊕ Exk est donc
stable par f et vérie F ⊕ S = E .
c) Condition nécessaire. Supposons f semi-simple. Soit Πf = M1α1 · · · Mrαr la décomposition de
Πf en facteurs irréductibles unitaires de K[X]. Il s'agit de montrer que pour tout i, αi = 1.
Supposons au contraire qu'il existe i tel que αi ≥ 2. Notons M = Mi , de sorte qu'il existe
N ∈ K[X] tel que Πf = M 2 N .
Soit F = Ker M (f ). Le s.e.v F est stable par f semi-simple donc il existe un supplémentaire
S de F stable par f .
Montrons que M N (f ) s'annule sur S . Si x ∈ S , alors M N (f )(x) ∈ F car M (f )[M N (f )(x)] =
Πf (f )(x) = 0, et M N (f )(x) ∈ S car S est stable par f . Donc M N (f )(x) ∈ F ∩ S = {0}, et
donc M N (f )(x) = 0.
L'endomorphisme M N (f ) s'annule donc sur S . Il s'annule aussi sur F car si y ∈ F =
Ker M (f ), alors M N (f )(y) = N [M (f )(y)] = 0. Comme F ⊕ S = E , M N (f ) s'annule sur E tout
entier, i. e. M N (f ) = 0. Ceci contredit la minimalité du degré du polynôme minimal Πf = M 2 N .
D'où la condition nécessaire.
Condition susante. Supposons Πf = M1 · · · Mr avec les Mi irréductibles unitaires et distincts
deux à deux. Soit F un s.e.v de E stable par f . Pour tout i, notons Fi = Ker Mi (f ). On a
E = F1 ⊕ · · · ⊕ Fr , et on a vu à la question a) que F = ⊕ri=1 [F ∩ Fi ].
Pour tout i, Fi est stable par f . Notons fi ∈ L(Fi ) la restriction de f à Fi . On a Mi (fi ) = 0
et Mi est irréductible, ce qui prouve que le polynôme minimal de fi est Mi . D'après b), fi est
donc semi-simple. Or F ∩ Fi est stable par fi , donc il existe un s.e.v Si stable par fi (donc par
f ) tel que (Fi ∩ F ) ⊕ Si = Fi . Si maintenant on pose S = S1 ⊕ · · · ⊕ Sr , on a
r
 r r

E = F1 ⊕ · · · ⊕ Fr = [(Fi ∩ F ) ⊕ Si ] = [ (Fi ∩ F )] ⊕ [ Si ] = F ⊕ S,
i=1 i=1 i=1

et S est stable par f . L'endomorphisme f est donc semi-simple.


d) Si K est algébriquement clos, les polynômes irréductibles de K[X] sont les polynômes de
degré 1. D'après c), f est donc semi-simple si et seulement si Πf n'a que des racines simples dans
K, i. e. si et seulement si f est diagonalisable.
2/a) Condition nécessaire. Supposons M semi-simple. D'après 1/c), ΠM peut s'écrire ΠM =
M1 · · · Mr où les Mi sont irréductibles dans R[X], unitaires et distincts deux à deux. Montrons
que ΠM n'a que des racines simples dans C. Soit α ∈ C une racine de ΠM . Il existe i tel que
Mi (α) = 0, par exemple M1 (α) = 0. Comme M1 est irréductible dans R[X], α est racine simple
de M1 (en eet, M1 étant irréductible dans R[X], M1 et M1 sont premiers entre eux dans R[X]
donc il existe U, V ∈ R[X] tels que U M1 + V M1 = 1. Cette relation appliquée à α montre que
M1 (α) = 0). Par ailleurs, si i = 1, Mi (α) = 0 (en eet, M1 et Mi sont irréductibles dans R[X],
unitaires et distincts, donc premiers entre eux dans R[X], donc il existe U, V ∈ R[X] tels que
U M1 +V Mi = 1. Cette relation appliquée à α montre que Mi (α) = 0). En dénitive, on a montré
que α est racine simple de ΠM .
238 4. RÉDUCTIONS D'ENDOMORPHISMES

Condition susante. Soit ΠM = M1α1 · · · Mrαr la décomposition de ΠM en facteurs irréductibles


unitaires de R[X]. D'après 1/c), il sut de montrer que pour tout i, αi = 1. Comme M est
diagonalisable dans Mn (C), ΠM n'a que des racines simples dans C (le polynôme minimal de
M dans C[X] est le même que dans R[X] car si M p + a1 M p−1 + · · · + ap In = 0 avec les ai ∈ C,
alors M p + (a1 ) M p−1 + · · · + (ap ) In = 0). Ceci sut à montrer que pour tout i, αi = 1.
b) On regarde M comme un endomorphisme de Rn . Démontrons le résultat par récurrence sur
n ∈ N∗ . Pour n = 1, c'est évident. Supposons le résultat vrai jusqu'au rang n − 1 et montrons
le au rang n. Si ΠM est scindé sur R, c'est immédiat car alors ΠM est à racines simples d'après
1/c) et donc M est diagonalisable dans Mn (R).
Sinon ΠM a au moins un facteur irréductible dans R[X] de degré 2 de la forme [(X −α)2 +β 2 ],
α ∈ R et β > 0. On peut écrire ΠM = [(X − α)2 + β 2 ] Q avec Q ∈ R[X]. Posons E =
Ker[(M − α In )2 + β 2 In ]. On a E = {0}, sinon (M − α In )2 + β 2 In est inversible et donc
Q(M ) = 0, ce qui contredit la minimalité du degré de ΠM .
Soit e1 ∈ E , e1 = 0. Les vecteurs e1 et M e1 sont linéairement indépendants. En eet, s'il
existe λ ∈ R tel que M e1 = λe1 , alors
0 = (M − α In )2 (e1 ) + β 2 e1 = (λ − α)2 e1 + β 2 e1 = [(λ − α)2 + β 2 ] e1 = 0,
ce qui est impossible.
Si on pose e2 = β1 [M e1 − αe1 ], la famille (e1 , e2 ) est donc libre. Remarquons que M e1 =
αe1 + βe2 et comme e1 ∈ Ker[(M − αIn )2 + β 2 In ], on a
1
M e2 = (M − α In )(e2 ) + αe2 = (M − αIn )2 (e1 ) + αe2 = −βe1 + αe2 .
β
En résumé, F = Vect(e1 , e2 ) est stable par M et
M e1 = αe1 + βe2 , M e2 = −βe1 + αe2 . (∗)
La matrice M étant semi-simple, on peut trouver un s.e.v G de stable par M tel que F ⊕ G =
Rn
Rn . Le restriction M|G de M à G est semi-simple (son polynôme minimal vérie 1/c) car il divise
ΠM ). Or dim G = n − dim F = n − 2, donc d'après l'hypothèse de récurrence  0  il existe une base
B = (f1 , . . . , fn−2 ) de G dans laquelle la matrice de M|G ait la forme D 0 B avec D diagonale
 
et B constituée de blocs de la forme ab −b a
centrés
 sur sa
 diagonale principale. Dans la base
D (0)  
B  = (B, e1 , e2 ), la matrice de M a donc la forme B , où C = α −β
β α d'après (∗). D'où
(0) C
le résultat.
Remarque. - On peut montrer facilement que la réciproque de 2/b) est vraie.
 On aurait pu montrer 2/b) en diagonalisant M dans Mn (C) et en travaillant sur les
parties réelles et imaginaires de ses vecteurs propres.
 La semi-simplicité peut être vue comme une généralisation de la diagonalisabilité, dans
le cas des corps non algébriquement clos. Dans cette idée, on peut montrer que si K est un
corps commutatif quelconque, toute matrice M ∈ Mn (K) peut s'écrire M = S + N avec
SN = N S , S ∈ Mn (K) semi-simple et N ∈ Mn (K) nilpotente (résultat à rapprocher de
la décomposition de Dunford, voir la partie 4.2 page 203).
Chapitre 5

Espaces euclidiens

L a notion de forme quadratique naît avec l'étude des coniques par Fermat au dix-
septième siècle puis celle des quadriques par Euler au dix-huitième siècle. C'est
Cauchy qui en 1826, en vue de son enseignement à l'École Polytechnique, unie
les résultats concernant la réduction des formes quadratiques. C'est d'ailleurs
sans doute à cette occasion qu'il se pose le problème de la recherche des valeurs
propres d'une matrice symétrique (en langage moderne) et démontre la réalité
des racines du polynôme obtenu.
Ainsi est née la théorie des espaces euclidiens. Le passage à la dimension
innie s'eectue à la n du dix-neuvième siècle notamment grâce à Hilbert,
puis par Schmidt et Fréchet en 1908.
Les espaces euclidiens et hermitiens ont beaucoup de propriétés communes, et pour
cette raison, nous les étudierons parallèlement.

1. Formes quadratiques - Formes hermitiennes


Dans toute cette section, K désigne un corps commutatif.
1.1. Généralités
On dénit d'abord les formes bilinéaires.
Définition 1 (Forme bilinéaire). Soient E et F deux K-e.v et une application
ϕ: E×F →K (x, y) → ϕ(x, y).
On dit que ϕ est une forme bilinéaire si pour tout x ∈ E , l'application ϕ(x, ·) : y → ϕ(x, y)
est linéaire et si pour tout y ∈ F , l'application ϕ(·, y) : x → ϕ(x, y) est linéaire.
Les formes sesquilinéaires sont dénies lorsque le corps de base est C.
Définition 2 (Forme sesquilinéaire). Soient E et F deux C-e.v et une application
ϕ: E×F →C (x, y) → ϕ(x, y).
On dit que ϕ est une forme sesquilinéaire si pour tout x ∈ E , l'application ϕ(x, ·) est
linéaire et si pour tout y ∈ F , l'application ϕ(·, y) est antilinéaire (i.e. pour tout x1 , x2 ∈
E , ϕ(x1 + x2 , y) = ϕ(x1 , y) + ϕ(x2 , y) et pour tout λ ∈ C, pour tout x ∈ E , ϕ(λx, y) =
λ ϕ(x, y)).
Remarque 1.  Dans toute la suite, les espaces E et F seront les mêmes.
 Toute forme sesquilinéaire sur E × F est une forme bilinéaire lorsque les e.v E et
F sont considérés comme des R-e.v.
Exemple 1. Si E désigne le C-e.v des fonctions continues de [0, 1] dans C, l'application
 1
ϕ : E2 → C (f, g) → f (t)g(t) dt
0
dénit une forme sesquilinéaire sur E 2 .
Dans toute la suite de cette section, E désigne un K-e.v
240 5. ESPACES EUCLIDIENS

Écriture en dimension nie. Supposons E 


de dimension nie
n et xons une base
B = (e1 , . . . , en ) de E . Alors pour tout x =
n n
i=1 xi ei et y = j=1 yj ej dans E , la
bilinéarité de ϕ entraîne

ϕ(x, y) = xi yj ϕ(ei , ej ) = tXM Y
1≤i,j≤n

où M est la matrice deMn(K) dénie


 y1 par
 M = (ϕ(ei , ej ))1≤i,j≤n et où X et Y sont les
x1
vecteurs colonne X = ... , Y = ... . La matrice M est appelée matrice de ϕ dans
xn yn
la base B .
Avec les mêmes notations, si E est un C-e.v et ϕ une forme sesquilinéaire sur E , on a
 t
ϕ(x, y) = xi yj ϕ(ei , ej ) = XM Y,
1≤i,j≤n

où X désigne le vecteur conjugué de X (i.e les composantes de X sont les conjuguées de


celles de X ). On dit que M est la matrice de ϕ dans la base B .
L'application qui à ϕ associe sa matrice dans une base xée de E est un isomorphisme.
En particulier, l'ensemble des formes bilinéaires (ou sesquilinéaires) sur E est un K-espace
vectoriel de dimension n2 (où n = dim E ).
Lorsque K = R ou K = C, l'écriture précédente entraîne qu'en dimension nie, les
formes quadratiques et sesquilinéaires (pour K = C) sont des fonctions continues.
Changement de base. On suppose toujours que E est de dimension nie. Soient B et
B  deux bases de E , P la matrice de passage de B à B  . Si ϕ est une forme bilinéaire
(resp. sesquilinéaire) sur E , et si M désigne sa matrice dans la base B , M  dans la base
B  , alors
t
M  = tP M P (resp. M  = P M P ).
On dit que les matrices M et M  sont congrues. Les matrices M et M  sont alors équi-
valentes, donc de même rang. Ce rang s'appelle le rang de ϕ. Le rang de ϕ est aussi la
dimension du s.e.v des formes linéaires {ϕ(x, ·) | x ∈ E} dans le dual de E .
Symétries dans les formes bilinéaires et sesquilinéaires.
Définition 3. Soit ϕ une forme bilinéaire sur E . On dit que
 ϕ est symétrique si pour tout (x, y) ∈ E 2 , ϕ(x, y) = ϕ(y, x),
 ϕ est antisymétrique si pour tout (x, y) ∈ E 2 , ϕ(x, y) = −ϕ(y, x).
Remarque 2.  Si K est de caractéristique 2, l'antisymétrie équivaut à la symétrie.
 Si E est de dimension nie et si B est une base de E , une forme bilinéaire ϕ sur E
est symétrique (resp. antisymétrique) si et seulement si sa matrice dans la base B
est symétrique (resp. antisymétrique).
 Si la caractéristique de K est diérente de 2, une forme bilinéaire ϕ est antisymé-
trique si et seulement si ϕ(x, x) = 0 pour tout x ∈ E (cas particulier du théorème 1
page 141 dans le cas bilinéaire).
 Si la caractéristique de K est diérente de 2, si on désigne par Sn (resp. An ) le
s.e.v des matrices symétriques (resp. antisymétriques) de Mn (K), on a Sn ⊕ An =
Mn (K). En eet,
Sn ∩ An = {0} car si A = tA = − tA, alors A = 0 donc A = 0.
t

1 1
Sn + An = Mn (K) car ∀A ∈ Mn (K), A = (A + tA) + (A − tA) .
2   2  
∈Sn ∈An
1. FORMES QUADRATIQUES - FORMES HERMITIENNES 241

De plus, dim Sn = n(n + 1)/2 et dim An = n(n − 1)/2 (si Ei,j désigne la matrice
dont tous les coecients sont nuls sauf celui d'indice (i, j) qui vaut 1, la famille
((Ei,i )1≤i≤n , (Ei,j + Ej,i )1≤i<j≤n ) est une base de Sn , la famille (Ei,j − Ej,i )1≤i<j≤n
est une base de An ).
 En conséquence, si la caractéristique de K est diérente de 2, l'ensemble S (resp. A)
des formes bilinéaires symétriques (resp. antisymétriques) sur E (avec dim E = n)
est un K-e.v de dimension n(n + 1)/2 (resp. n(n − 1)/2). De plus, si B désigne le
K-e.v des formes bilinéaires sur E , on a S ⊕ A = B .
Définition 4. Soit ϕ une forme sesquilinéaire sur un C-e.v E . On dit que ϕ est à symétrie
hermitienne si pour tout (x, y) ∈ E 2 , ϕ(x, y) = ϕ(y, x).
Remarque 3.  Si ϕ est à symétrie hermitienne, alors pour tout x ∈ E , ϕ(x, x) ∈ R
(ceci car ϕ(x, x) = ϕ(x, x)).
 Si E est de dimension nie sur C et si B est une base de E , alors une forme
sesquilinéaire ϕ sur E est à symétrie hermitienne si et seulement si sa matrice M
t
dans la base B vérie M = M . On dit alors que M est une matrice hermitienne.
Toute matrice hermitienne M ∈ Mn (C) peut s'écrire de manière unique sous la
forme M = S + iA, où S, A ∈ Mn (R) avec S symétrique et A antisymétrique.
L'ensemble des matrices hermitiennes de Mn (C) forme un R-e.v de dimension n2
(mais attention, ce n'est pas un C-e.v).
Formes quadratiques. On suppose ici que la caractéristique de K est diérente de 2.
Définition 5. On appelle forme quadratique sur E toute application q de la forme
q: E→K x → ϕ(x, x)
où ϕ est une forme bilinéaire symétrique sur E .
Proposition 1. Soit q une forme quadratique sur E . Il existe une unique forme bilinéaire
symétrique ϕ telle que pour tout x ∈ E , q(x) = ϕ(x, x). La forme bilinéaire ϕ s'appelle la
forme polaire de q et on a
1 1
∀(x, y) ∈ E 2 , ϕ(x, y) = [q(x + y) − q(x) − q(y)] = [q(x + y) − q(x − y)].
2 4
Exemple 2.  Si ϕ(x, y) = i,j ai,j xi yj , la forme quadratique associée à ϕ est
 
q(x) = ai,i x2i + (ai,j + aj,i ) xi xj .
i i<j
 
 Réciproquement, si q(x) = 2
i ai,i xi + i<j ai,j xi xj , alors q est une forme quadra-
tique et sa forme polaire est
 1
ϕ(x, y) = ai,i xi yi + ai,j (xi yj + xj yi ).
i
2 i<j
Définition 6. Soit q une forme quadratique sur E , où E est de dimension nie, et B
une base de E . On appelle matrice de q dans la base B la matrice de la forme polaire ϕ
de q dans la base B , et rang de q le rang de cette matrice. Le rang de q est aussi le rang
de sa forme polaire.
Exemple 3. On se place dans R3 et on y dénit la forme quadratique q par
u = (x, y, z) → q(u) = 3x2 + y 2 + 2xy − 3xz.
Alors la matrice de q dans la base canonique de R3 est
 
3 1 − 32
A =  1 1 0 .
− 32 0 0
242 5. ESPACES EUCLIDIENS

Formes hermitiennes.
Définition 7. On appelle forme hermitienne sur un C-e.v E toute application de la
forme
Φ: E→R x → ϕ(x, x)
où ϕ est une forme sesquilinéaire à symétrie hermitienne.
Proposition 2. Soit Φ une forme hermitienne. Il existe une unique forme sesquilinéaire
à symétrie hermitienne ϕ telle que pour tout x ∈ E , Φ(x) = ϕ(x, x). La forme ϕ s'appelle
la forme polaire de Φ, et on a
1
∀(x, y) ∈ E 2 , ϕ(x, y) = [Φ(x + y) − Φ(x − y) + iΦ(x − iy) − iΦ(x + iy)].
4
Définition 8. Soit Φ une forme hermitienne sur un C-e.v E de dimension nie et B
une base de E . On appelle matrice de Φ dans la base B la matrice de sa forme polaire ϕ
dans B , et rang de Φ le rang de cette matrice. Le rang de Φ est aussi le rang de sa forme
polaire.
Exemple 4. Sur C2 , si Φ : u = (x, y) → xx − 2yy + 32 yx + 32 yx, alors Φ est une forme
hermitienne de forme polaire
3 3
ϕ(u1 , u2 ) = x1 x2 − 2y1 y2 + y1 x2 + x1 y2 ,
2 2
 
1 3
et la matrice de Φ dans la base canonique de R2 est 3 2 , son rang est 2.
2
−2
1.2. Orthogonalité
E désigne toujours un K-e.v (ou un C-e.v lorsque l'on parle de forme hermitienne).
On se xe une forme quadratique (resp. hermitienne) Φ sur E , de forme polaire ϕ.
Définition 9. On appelle cône isotrope de Φ l'ensemble CΦ = {x ∈ E | Φ(x) = 0}. On
dit que Φ est dénie si CΦ = {0}. Un vecteur x ∈ E est dit isotrope (pour Φ) si Φ(x) = 0,
i.e. x ∈ CΦ .
Définition 10. Deux vecteurs x et y de E sont dit orthogonaux selon Φ (ou selon ϕ) si
ϕ(x, y) = 0 (ce qui équivaut à ϕ(y, x) = 0).
Soit A ⊂ E . On appelle orthogonal de A selon Φ (ou ϕ) l'ensemble
A⊥ = {y ∈ E | ∀x ∈ A, ϕ(x, y) = 0}.
Deux sous-ensembles A et B de E sont dit orthogonaux selon Φ (ou selon ϕ) si pour
tout x ∈ A et pour tout y ∈ B , ϕ(x, y) = 0. On note alors A ⊥ B .
Remarque 4.  Si A ⊂ E , A⊥ est un s.e.v de E et on a A⊥ = (Vect A)⊥ .
 Si B désigne le sous-ensemble de E ∗ (dual de E ) déni par B = {ϕ(x, ·) | x ∈ A},
A⊥ est l'orthogonal (au sens dual) de B , i. e. A⊥ = B ◦ (voir la partie 4.3 page 134).
Proposition 3. On parle d'orthogonalité au sens de Φ.
(i) Si F ⊂ E, F ⊂ F ⊥⊥ (ii) Si A ⊂ B ⊂ E, B ⊥ ⊂ A⊥ .
Définition 11. On appelle noyau de Φ le s.e.v de E noté Ker Φ déni par
Ker Φ = E ⊥ = {x ∈ E | ∀y ∈ E, ϕ(x, y) = 0}.
La forme Φ est dite non dégénérée si Ker Φ = {0}, dégénérée si Ker Φ = {0}.
Proposition 4. On a Ker Φ ⊂ CΦ . En particulier, si Φ est dénie, alors Φ est non
dégénérée.
1. FORMES QUADRATIQUES - FORMES HERMITIENNES 243

Remarque 5. La réciproque est fausse. Par exemple, si Φ(u) = Φ(x, y) = x2 − y 2 , Φ est


non dégénérée mais n'est pas dénie puisque pour tout x, Φ(x, x) = Φ(x, −x) = 0.
Notation. Pour unier les notations, pour toute matrice M à coecients dans K, on
note M ∗ la transposée de M . Lorsque le corps de base est C et que l'on parle de forme
t
hermitienne, la notation M ∗ désigne la transconjuguée de M (i.e. M ∗ = M ). Ainsi en
dimension nie, si A désigne la matrice de ϕ dans une base B de E , on a A∗ = A et pour
tout x, y , ϕ(x, y) = X ∗ AY . Cette notation est avantageuse puisqu'elle permet de traiter
en même temps le cas des formes quadratiques et des formes hermitiennes.
Proposition 5. Supposons E de dimension nie. Soit B une base de E . En identiant
les vecteurs de E et leur représentation en vecteurs colonne dans la base B , on a Ker Φ =
Ker A, où A désigne la matrice de Φ dans la base B .
Démonstration. On a x ∈ Ker Φ ⇐⇒ ∀y ∈ E , ϕ(x, y) = 0 ⇐⇒ ∀Y, X ∗ AY = 0 ⇐⇒ X ∗ A = 0
⇐⇒ (X ∗ A)∗ = A∗ X = AX = 0 ⇐⇒ X ∈ Ker A. 

Bases Φ-orthogonales.
Définition 12. Une base B de E est dite Φ-orthogonale si pour tout couple d'éléments
distincts (e, e ) de B , on a ϕ(e, e ) = 0.
Remarque 6. En dimension nie, si B = (e1 , . . . , en ) est une base Φ-orthogonale, alors
 n  n
 
∀(xi ) ∈ Kn , Φ xi e i = x2i Φ(ei ).
i=1 i=1
Autrement dit, la matrice de Φ dans la base B est diagonale.
Théorème 1. Si E est de dimension nie, il existe une base Φ-orthogonale de E .
Démonstration. On procède par récurrence sur la dimension n de E . Pour n = 1, il n'y a rien à
montrer. Supposons le résultat vrai au rang n−1 et montrons le au rang n. Si Φ est identiquement
nulle, alors toute base de E est Φ-orthogonale. Sinon, il existe v ∈ E tel que Φ(v) = 0. Dans ce
cas, l'application f = ϕ(v, ·) dénie par f (x) = ϕ(v, x) est une forme linéaire non nulle sur E . Son
noyau H est un hyperplan de E , et comme v ∈ H , on a E = H ⊕Vect(v). Comme dim H = n−1,
d'après l'hypothèse de récurrence, il existe une base (e1 , . . . , en−1 ) de H orthogonale pour Φ|H .
On voit alors facilement que (e1 , . . . , en−1 , v) est une base Φ-orthogonale. 

Corollaire 1. Soit A ∈ Mn (K) telle que A∗ = A. Il existe une matrice inversible


P ∈ Gn (K) telle que P ∗ AP soit une matrice diagonale.
Démonstration. L'application Φ dénie sur Kn par Φ(X) = X ∗ AX est une forme quadratique
(resp. hermitienne) dont la forme polaire est ϕ : (X, Y ) → X ∗ AY . D'après le théorème précédent,
il existe une base B de Kn qui est Φ-orthogonale. La matrice M de Φ dans B est diagonale, et
si P désigne la matrice de passage de la base canonique de Kn à B , on a M = P ∗ AP , d'où le
résultat. 

Remarque 7. Lorsque K = R (où K = C dans le cas hermitien), un résultat plus fort


fait l'objet du corollaire 1 page 256, qui arme que l'on peut choisir pour P une matrice
orthogonale (ou unitaire dans le cas hermitien). L'intérêt du résultat précédent est qu'il
est valable pour n'importe quel corps K.
Si Φ est une forme quadratique, le théorème 1 assure en dimension nie l'existence
d'une base (e1 , . . . , en ) Φ-orthogonale. En posant λi = Φ(ei ), on a
 n
 n
 
∀x ∈ E, Φ(x) = Φ e∗i (x) ei = λi (e∗i (x))2 .
i=1 i=1
244 5. ESPACES EUCLIDIENS

En d'autres termes, on a écrit Φ comme combinaison linéaire de carrés de formes linéaires


indépendantes. Dans la pratique, ces formes linéaires peuvent être calculées grâce à la
méthode qui suit.
Méthode de Gauss. Donnons nous une forme quadratique
n
 
Φ(x1 , . . . , xn ) = ai,i x2i + ai,j xi xj .
i=1 1≤i<j≤n

En procédant par récurrence, nous allons écrire Φ comme combinaison linéaire de carrés
de formes linéaires indépendantes. Il y a deux cas.
Premier cas. Il existe au moins un indice i tel que ai,i = 0, par exemple a = a1,1 = 0.
On peut écrire Φ sous la forme
Φ(x1 , . . . , xn ) = a x21 + x1 B(x2 , . . . , xn ) + C(x2 , . . . , xn ),

où B est une forme linéaire en (x2 , . . . , xn ) et C une forme quadratique en (x2 , . . . , xn ).


On réécrit Φ comme
 2  
B(x2 , . . . , xn ) B(x2 , . . . , xn )2
Φ(x1 , . . . , xn ) = a x1 + + C(x2 , . . . , xn ) − .
2a 4a
En d'autres termes, on a écrit Φ comme la somme d'une constante multipliée par le carré
d'une forme linéaire (ici a[x1 + B/(2a)]2 ) et d'une forme quadratique en x2 , . . . , xn (ici,
C − B 2 /(4a)). On itère alors la méthode de Gauss en partant cette fois de C − B 2 /(4a) ,
et on obtient nalement la réduction souhaitée.
Second cas. Pour tous les indices i, ai,i = 0. Si Φ est nulle, c'est terminé, sinon il existe
au moins un ai,j non nul (avec i < j ), par exemple a = a1,2 = 0. On peut écrire Φ sous la
forme
Φ(x1 , . . . , xn ) = a x1 x2 + x1 B(x3 , . . . , xn ) + x2 C(x3 , . . . , xn ) + D(x3 , . . . , xn ),

où B et C sont des formes linéaires et D une forme quadratique en (x3 , . . . , xn ). On réécrit


Φ comme
    
C B BC
Φ(x1 , . . . , xn ) = a x1 + x2 + + D−
a a a
 2  2   
a B+C C −B BC
= x 1 + x2 + − x1 − x2 + + D− .
4 a a a

Les deux premiers termes du dernier membre de cette égalité sont les carrés de formes
linéaires, et on itère la méthode de Gauss en partant cette fois de D − BC/a, forme
quadratique en (x3 , . . . , xn ).
Remarque 8.  Il existe bien sûr d'autres moyens d'écrire une forme quadratique
comme combinaison linéaire de carrés de formes linéaires. L'avantage de la méthode
de Gauss est qu'elle assure l'indépendance des formes linéaires obtenues (résultat
non démontré ici, mais facile à obtenir).
 Le cas des formes hermitiennes se traite de manière analogue, en remplaçant les
carrés par les carrés des modules. Par exemple la forme hermitienne
1
Φ(x, y) = xy + xy se réduit en Φ(x, y) = (|x + y|2 − |x − y|2 ).
2
1. FORMES QUADRATIQUES - FORMES HERMITIENNES 245

La forme hermitienne
Φ(x, y, z) = xx + yy − 2ixy + 2ixy + 2yz + 2yz se réduit en
 2
 2z  4

Φ(x, y, z) = (x − 2iy)(x + 2iy) − 3yy + 2yz + 2yz = |x − 2iy| − 3 y −  + |z|2 . 2
3 3
Propriétés des orthogonaux selon Φ. La lettre Φ désigne toujours une forme quadra-
tique (resp. hermitienne) sur E et lorsque l'on parlera d'orthogonal, ce sera par rapport
à Φ.
Proposition 6. Supposons E de dimension nie. Tout s.e.v F de E vérie
(i) dim F + dim F ⊥ = dim E + dim(F ∩ Ker Φ).
(ii) F ⊥⊥ = F + Ker Φ.
Démonstration. (i). On considère l'application ψ : F → E ∗ x → ϕ(x, ·). Cette application est
linéaire, donc dim(Ker ψ) + dim(Im ψ) = dim F . Or Ker ψ = F ∩ Ker Φ et (Im ψ)◦ = F ⊥ (voir
la remarque 4). Comme d'après le théorème 3 page 134, on a dim(Im ψ)◦ = dim E − dim(Im ψ),
on en déduit
dim F ⊥ = dim E − (dim F − dim(Ker ψ)) = dim E − dim F + dim(F ∩ Ker Φ),
d'où (i).
(ii). On a F ⊂ F ⊥⊥ et Ker Φ ⊂ F ⊥⊥ , donc F + Ker Φ ⊂ F ⊥⊥ . Pour prouver l'égalité, nous
allons prouver l'égalité des dimensions. En appliquant (i) à F ⊥ , on a
dim F ⊥ + dim F ⊥⊥ = dim E + dim Ker(F ⊥ ∩ Ker Φ) = dim E + dim(Ker Φ)
(comme Ker Φ ⊂ F ⊥ , F ⊥ ∩ Ker Φ = Ker Φ). En retranchant (i) à cette égalité, on obtient
dim F ⊥⊥ − dim F = dim(Ker Φ) − dim(F ∩ Ker Φ)
donc dim F ⊥⊥ = dim(F + Ker Φ) et le résultat. 

Proposition 7. Soit F un s.e.v de dimension nie de E (mais E de dimension quel-


conque). Alors
(i) Si la restriction Φ|F de Φ à F est dénie, on a F ⊕ F ⊥ = E .
(ii) Si Φ est dénie, on a F = F ⊥⊥ .
Démonstration. (i). Si x ∈ F ∩ F ⊥ , alors ϕ(x, x) = 0 et comme la restriction de Φ à F est dénie
par hypothèse, on a forcément x = 0. Autrement dit, F ∩ F ⊥ = {0} (∗).
D'après le théorème 1, il existe une base (e1 , . . . , ep ) de F , orthogonale pour la restriction

de
Φ à F . Soit x ∈ E . On cherche à écrire x = y + z avec y ∈ F et z ∈ F ⊥ . Écrivons y = pi=1 λi ei .
Alors z = x − y ∈ F ⊥ si et seulement si pour tout j ∈ {1, . . . , p}, ϕ(ej , z) = 0, i.e. si pour tout j ,
ϕ(ei , x)
ϕ(ej , x) − λj ϕ(ej , ej ) = 0. En choisissant λi = , on voit donc que x = y + z , avec y ∈ F
ϕ(ei , ei )
et z ∈ F ⊥ . Donc F + F ⊥ = E d'où (i) avec (∗).
(ii). On sait (voir proposition 3) que F ⊂ F ⊥⊥ . Montrons l'inclusion réciproque. Soit x ∈
F . D'après (i), il existe y ∈ F et z ∈ F ⊥ tels que x = y+z . Or ϕ(x, z) = 0 = ϕ(y, z)+ϕ(z, z) =
⊥⊥

ϕ(z, z), donc z ∈ CΦ et Φ étant dénie, z = 0. Donc x = y ∈ F , d'où F ⊥⊥ ⊂ F . 

Loi d'inertie de Sylvester. Dans toute la suite, Φ représente soit une forme quadratique
sur un R-e.v E , soit une forme hermitienne sur un C-e.v E .
Supposons E de dimension nie n. D'après le théorème
1, il existe une base (e1 , . . . , en )
qui est Φ-orthogonale. Ceci entraîne que pour tout x = ni=1 xi ei ,
n
 n

Φ(x) = |xi |2 Φ(ei ) = λi |e∗i (x)|2 , où λi = Φ(ei ) ∈ R.
i=1 i=1
246 5. ESPACES EUCLIDIENS

Chaque λi est soit positif, soit négatif, soit nul. Supposons par exemple
λ1 , . . . , λp > 0, λp+1 , . . . , λp+q < 0 et λp+q+1 = · · · = λn = 0.
Pour i, 1 ≤ i ≤ p, on peut écrire λi = ωi2 et pour i, p + 1 ≤ i ≤ p + q , on peut écrire
λi = −ωi2 , où les ωi sont réels non nuls. En posant fi = ωi e∗i , on a
Φ(x) = |f1 (x)|2 + · · · + |fp (x)|2 − |fp+1 (x)|2 − · · · − |fp+q (x)|2 , (∗)
et f1 , . . . , fp+q sont des formes linéaires linéairement indépendantes.
 Théorème 2 (Sylvester). Quelle que soit la décomposition de Φ du type (∗)
Φ(x) = |g1 (x)| + · · · + |gp (x)|2 − |gp +1 (x)|2 − · · · − |gp +q (x)|2 ,
2
(∗∗)
où g1 , . . . , gp +q sont des formes linéaires linéairement indépendantes, on a p = p et 

q  = q . Le couple (p, q) s'appelle la signature de Φ, et le rang de Φ est égal à p + q .


Démonstration. Supposons p = p, par exemple p > p. Complétons g1 , . . . , gp +q en une base
g1 , . . . , gn de E ∗ . Les formes linéaires f1 , . . . , fp , gp +1 , . . . , gn sont au nombre de p + n − p < n,
et donc
∃x = 0, f1 (x) = · · · = fp (x) = gp +1 (x) = · · · = gn (x) = 0.
Ceci entraîne Φ(x) ≤ 0 d'après l'expression (∗) de Φ. Au moins l'un des gi (x) pour 1 ≤ i ≤ p
est non nul, car sinon on aurait g1 (x) = · · · = gp (x) = gp +1 (x) = · · · = gn (x) = 0 et donc
x = 0 car (gi )1≤i≤n est une base de E ∗ . Donc Φ(x) > 0 d'après l'expression (∗∗) de Φ, ce qui est
contradictoire. Ainsi p = p . On montrerait de même que q = q  .
Quant au rang de Φ, il sut de remarquer que la matrice de Φ dans la base Φ-orthogonale
Ip 0 0
(e1 , . . . , en ) est 0 −Iq 0 , donc de rang p + q . 
0 0 0

Remarque 9. Si on trouve trois s.e.v F + , F − , F 0 de E qui sont Φ-orthogonaux deux à


deux, tels que F + ⊕ F − ⊕ F 0 = E , Φ(x) > 0 sur F +  {0}, Φ(x) < 0 sur F −  {0} et
Φ(x) = 0 sur F 0 , alors la signature de Φ est (dim F + , dim F − ). En eet, si (e1 , . . . , ep )
(resp. (ep+1 , . . . , ep+q ), (ep+q+1 , . . . , en )) est une base orthogonale pour la restriction de Φ
à F + (resp. à F − , à F 0 ), alors (e1 , . . . , en ) est une base de E , et on peut écrire
p p+q
 
Φ(x) = Φ(ei ) |e∗i (x)|2 + Φ(ei ) |e∗i (x)|2
i=1 i=p+1

avec Φ(ei ) > 0 pour 1 ≤ i ≤ p et Φ(ei ) < 0 pour p + 1 ≤ i ≤ p + q .


1.3. Formes quadratiques et hermitiennes positives
Ici aussi, Φ désigne une forme quadratique sur un R-e.v E ou une forme hermitienne
sur un C-e.v E , associé à la forme polaire ϕ. On dira que Φ est positive si pour tout
x ∈ E , Φ(x) ≥ 0. En dimension nie, la signature d'une forme positive est de la forme
(p, 0).
 Théorème 3 (Inégalité de Schwarz). Si Φ est positive, alors
2
∀(x, y) ∈ E , |ϕ(x, y)|2 ≤ Φ(x)Φ(y). (∗)
Si de plus Φ est dénie, il y a égalité si et seulement si x et y forment une famille liée.
Démonstration. Même si Φ est une forme hermitienne, on peut supposer ϕ(x, y) ∈ R, quitte à
multiplier x par eiθ avec θ ∈ R bien choisi. On a
∀λ ∈ R, Φ(λx + y) = λ2 Φ(x) + 2λϕ(x, y) + Φ(y) ≥ 0. (∗∗)
Si Φ(x) = 0, pour tout λ ∈ R, (∗∗) s'écrit 2λϕ(x, y) + Φ(y) ≥ 0, ce qui entraîne ϕ(x, y) = 0.
Sinon Φ(x) = 0, et le trinôme du second degré (∗∗) en λ a un discriminant négatif, ce qui
s'écrit ϕ(x, y)2 − Φ(x)Φ(y) ≤ 0, d'où l'inégalité.
1. FORMES QUADRATIQUES - FORMES HERMITIENNES 247

Supposons Φ dénie et x = 0 (le cas x = 0 est trivial). Alors Φ(x) = 0, de sorte que (∗) est une
égalité si et seulement si le discriminant de (∗∗) est nul, c'est à dire si et seulement s'il existe
λ0 ∈ R tel que Φ(λ0 x + y) = 0, ce qui équivaut à λ0 x + y = 0 puisque Φ est dénie, c'est-à-dire
que la famille (x, y) est liée. 
Conséquence. Si Φ est positive, alors CΦ = Ker Φ, CΦ désignant le cône isotrope de Φ. En
particulier, une forme positive Φ est dénie si et seulement si elle est non dégénérée.
Corollaire 2 (Inégalité de Minkowsky) . Si Φ est positive, alors
  
∀(x, y) ∈ E 2 , Φ(x + y) ≤ Φ(x) + Φ(y).
L'inégalité de Minkowsky est une conséquence
 immédiate de l'inégalité de Schwarz.
Elle exprime que si Φ est positive, S(x) = Φ(x) dénit une semi-norme. Si de plus Φ
est dénie, S est une norme (on dit alors que ϕ est un produit scalaire, voir la section 2).
1.4. Exercices
Exercice 1. Décomposer sous forme de somme de carrés les formes quadratiques ou
hermitiennes suivantes ; en déduire leur signature et leur rang.
a) Φ(x, y, z, t) = xy + yz + zt + tx, (x, y, z, t) ∈ R4 .
b) Φ(x, y, z) = x2 − 2y2 + xz + yz , (x, y, z) ∈ R3 .
c) Φ(x, y, z) = xx + yy + zz + xy + xy − yz − yz , (x, y, z) ∈ C3 .
Solution. On va appliquer la méthode de Gauss, garantissant ainsi l'indépendance linéaire des
formes linéaires obtenues, ce qui nous permettra de calculer la signature de la forme correspon-
dante.
a) Il sut d'écrire
1
Φ(x, y, z, t) = (x + z)(y + t) = [(x + z + y + t)2 − (x + z − y − t)2 ].
4
La signature de Φ est donc (1,1), son rang 1 + 1 = 2.
b) On a
 z 2 z 2  z 2  z 2 z 2 z 2
Φ(x, y, z) = x + − − 2y 2 + yz = x + −2 y− + −
2 4 2 4 8 4
 
z 2  z 2 z 2
= x+ −2 y− − .
2 4 8
La signature de Φ est donc (1, 2), son rang est 3.
c) On a
Φ(x, y, z) = (x + y)(x + y) + zz − yz − yz
= (x + y)(x + y) + (z − y)(z − y) − yy = |x + y|2 + |z − y|2 − |y|2 .
La signature de Φ est donc (2, 1) et son rang est 3.

Exercice 2. Soit n ∈ N∗ . On note Cn [X] = {P ∈ C[X] | deg(P ) ≤ n}. Démontrer que


l'application
 1
Φ : Cn [X] → C P → P (x)P (−x) dx
−1

est une forme hermitienne et calculer sa signature.


248 5. ESPACES EUCLIDIENS

Solution. La forme sesquilinéaire


 1
ϕ : Cn [X]2 → C (P, Q) → P (x)Q(−x) dx
−1

est à symétrie hermitienne (on le vérie facilement en eectuant le changement de variable


x → −x dans l'intégrale), et Φ est sa forme hermitienne associée.
Notons P (resp. I ) le s.e.v des fonctions paires (resp. impaires) de Cn [X]. On a P ⊕I = Cn [X]
puisque
si P ∈ P ∩ I, P (−X) = P (X) = −P (X) donc P = 0, ainsi P ∩ I = {0}
et
P (X) + P (−X) P (X) − P (−X)
∀P ∈ Cn [X], P (X) = + , donc P + I = Cn [X].
 2
   2
 
∈P ∈I

Si P ∈ P , P = 0, est une fonction paire, alors


 1  1
Φ(P ) = P (x)P (x) dx = |P (x)|2 dx > 0,
−1 −1
et si P ∈ I , P = 0, est impaire,
 1  1
Φ(P ) = P (x)(−P (x)) dx = − |P (x)|2 dx < 0.
−1 −1
De plus, P et I sont Φ-orthogonaux car
 1  1  1
∀(P, Q) ∈ P × I, P (x)Q(−x) dx = P (−x)(−Q(x)) dx = − P (x)Q(−x) dx,
−1 −1 −1

donc ϕ(P, Q) = 0. Avec la remarque 9 page 246, on en conclue que la signature de Φ est
(dim P, dim I) = ([n/2] + 1, [(n + 1)/2]) (où la notation [x] désigne la partie entière de x).

Exercice 3 (Quelques formes quadratiques sur Mn (R)). Montrer que les appli-
cations suivantes sont des formes quadratiques et calculer leur signature.
a) q1 : Mn (R) → R A → (tr A)2 .
b) q2 : Mn (R) → R A → tr( tAA).
c) q3 : Mn (R) → R A → tr(A2 ).
d) q4 : Mn (R) → R A → tr(SA tA), où S ∈ Mn (R) est une matrice symétrique xée.
Solution. Tout au long de l'exercice, nous aurons besoin du résultat suivant :

Si P = (pi,j )1≤i,j≤n et Q = (qi,j )1≤i,j≤n ∈ Mn (R), on a tr(P Q) = pi,j qj,i . (∗)
1≤i,j≤n

La preuve
 est simple, il sut de remarquer que l'élément d'indice (i, i) dans la produit P Q est
égal à nj=1 pi,j qj,i .
a) L'application q1 est bien une forme quadratique, sa forme polaire étant ϕ1 : (A, B) →
tr(A) tr(B).
L'application trace est une forme linéaire sur Mn (R). Son noyau H est donc un hyperplan
de Mn (R). Soit S un supplémentaire de H dans Mn (R), de sorte que dim S = 1 et ∀A ∈ S{0},
tr A = 0. Ainsi,
∀A ∈ H, q1 (A) = 0 et ∀B ∈ S{0}, q1 (B) > 0. (∗∗)
De plus, pour tout couple (A, B) ∈ H × S , ϕ1 (A, B) = tr(A) tr(B) = 0, donc H et S sont
q1 -orthogonaux. Avec (∗∗) et d'après la remarque 9 page 246, ceci sut pour conclure que la
signature de q1 est (1, 0).
1. FORMES QUADRATIQUES - FORMES HERMITIENNES 249

b) On a bien aaire à une forme quadratique, la forme polaire associée étant ϕ2 : (A, B) →
tr( tAB). Maintenant, en appliquant le principe (∗), on voit que toute matrice A = (ai,j )1≤i,j≤n ∈
Mn (R) vérie q2 (A) = i,j a2i,j , ce qui sut à prouver que q2 est une forme dénie positive,
donc de signature (n2 , 0) (en d'autres termes, c'est un produit scalaire sur Mn (R)).
c) La forme polaire associée à q3 est ϕ3 : (A, B) → tr(AB).
 La relation (∗) prouve que si A ∈ S (s.e.v des matrices symétriques de Mn (R)), q3 (A) =
a 2 donc la restriction q de q à S est dénie positive. Si A ∈ A (s.e.v des matrices
i,j i,j 3 |S 3

antisymétriques), (∗) montre que q3 (A) = − i,j a2i,j , ce qui prouve que q3 |A est dénie négative.
De plus, S ⊕ A = Mn (R) (voir la remarque 2) et S et A sont ϕ3 -orthogonaux puisque si S ∈ S
et A ∈ A,
ϕ3 (S, A) = tr(SA) = tr( t(SA)) = tr( tA tS) = tr(−AS) = − tr(SA) = −ϕ3 (S, A),
donc ϕ3 (S, A) = 0. D'après la remarque 9, ceci sut pour conclure que la signature de q3 est
(dim S, dim A) = (n(n + 1)/2, n(n − 1)/2).
d) Remarquons tout d'abord que q4 (A) = tr(SA tA) = tr( tASA). La forme polaire de q4 est
ϕ4 : (A, B) → tr( ASB).
t

La matrice S est symétrique. L'application Rn → R X → tXSX est une forme quadratique.


 
Ip 0 0
Si on note (p, q) sa signature, on s'aperçoit que S est congrue à la matrice J = 0 −Iq 0 ,
0 0 0
autrement dit  
Ip 0 0
t
∃P ∈ Gn (R), P SP = J =  0 −Iq 0  .
0 0 0
Maintenant, on se donne B ∈ Mn (R) et on écrit B = P A avec A = (ai,j )1≤i,j,≤n ∈ Mn (R). Un
peu d'attention montre que
p 
 n p+q 
 n
q4 (B) = q4 (P A) = tr( tA tP SP A) = tr( tAJA) = a2i,j − a2i,j . (∗∗∗)
j=1 i=1 j=p+1 i=1

Les applications fi,j : B → ai,j où ai,j est le coecient d'indice (i, j) dans A = P −1 B formant
une famille libre de formes linéaires de Mn (R)∗ , l'expression (∗∗∗) montre que la signature de
q4 est (np, nq).

Exercice 4. Soit E un R-e.v de dimension nie et Φ une forme quadratique sur E . Si Φ


est dénie, montrer que Φ est soit positive soit négative.
Solution. Soit (p, q) la signature de Φ (au passage, on a p + q = dim E car Φ étant dénie, Φ
est non dégénérée, c'est à dire rg Φ = p + q = dim E ). Il s'agit de montrer que p = 0 ou q = 0.
Nous allons raisonner par l'absurde en supposant p = 0 et q = 0. On peut écrire
p
 q

Φ(x) = ϕi (x)2 − ψi (x)2 ,
i=1 i=1
où ϕ1 , . . . , ϕp , ψ1 , . . . , ψq sont des formes linéaires (on peut même les supposer linéairement in-
dépendantes, mais nous n'en aurons pas besoin).
Les formes linéaires ϕ1 −ψ1 , ϕ2 , . . . , ϕp , ψ2 , . . . , ψq sont au nombre de p+q −1 < dim E , donc
si F désigne le sous-espace de E ∗ (dual de E ) engendré par ces formes linéaires, on a dim F < n,
et donc l'orthogonal F ◦ de F (au sens dual) est diérent de {0}. En particulier, il existe x ∈ E ,
x = 0, tel que
ϕ1 (x) − ψ1 (x) = ϕ2 (x) = · · · = ϕp (x) = ψ2 (x) = · · · = ψq (x) = 0,
ce qui entraîne ϕ1 (x) = ψ1 (x) et
Φ(x) = ϕ1 (x)2 − ψ1 (x)2 = 0,
250 5. ESPACES EUCLIDIENS

ce qui est contraire aux hypothèses puisque Φ est dénie.


Remarque. Une autre approche consiste à passer par un argument topologique de conti-
nuité. Si Φ n'est ni positive ni négative, il existe x = 0 et y = 0 tels que Φ(x) > 0 et
Φ(y) < 0. On considère alors l'application
f : [0, 1] → R λ → Φ(λx + (1 − λ)y).
Comme Φ est quadratique, f est une fonction polynôme de degré ≤ 2 donc est continue. Or
f (0) = Φ(y) < 0, f (1) = Φ(x) > 0 donc d'après le théorème des valeurs intermédiaires, il
existe λ ∈ ]0, 1[ tel que f (λ) = 0 = Φ(λx+(1−λ)y), et Φ étant dénie, on a λx+(1−λ)y =
0, donc y = βx avec β = −λ/(1 − λ). Ceci entraîne Φ(y) = Φ(βx) = β 2 Φ(x) > 0, ce qui
est absurde, donc notre résultat est prouvé. Cette dernière démonstration montre que le
résultat de l'exercice est vrai en dimension innie.
 Le même type de résultats vaut pour les formes hermitiennes.

Exercice 5 (Sous-espaces totalement isotropes). Soit Φ une forme quadratique


sur un K-e.v E de dimension nie n ∈ N∗ . On appelle sous-espace totalement isotrope
(en abrégé SETI) un s.e.v F de E tel que pour tout x ∈ F , Φ(x) = 0, ce qui équivaut
à F ⊂ F ⊥ . On appelle SETI maximal (en abrégé SETIM) un SETI F tel que pour tout
SETI G vériant F ⊂ G, on a G = F .
1/ a) Soit F un SETI. Montrer que dim F ≤ n − r/2, où r est le rang de Φ.
b) Montrer que tout SETI est inclus dans un SETIM.
2/ On suppose dorénavant que Φ est non dégénérée.
a) Soient F1 et F2 deux SETIM. On pose F = F1 ∩ F2 , S1 un supplémentaire de F dans
F1 , S2 un supplémentaire de F dans F2 , de sorte que F ⊕ S1 = F1 et F ⊕ S2 = F2 . Montrer
que S1 ∩ S2⊥ = S1⊥ ∩ S2 = {0}. En déduire dim F1 = dim F2 .
Les SETIM ont donc tous même dimension ; cette dimension est appelée indice de Φ.
b) On suppose ici K = R et Φ de signature (p, q). Quel est l'indice de Φ ?
Solution. 1/ a) On a F ⊂ F ⊥ , donc dim F ≤ dim F ⊥ , et avec la proposition 6 page 245,
2 dim F ≤ dim F + dim F ⊥ = n + dim(F ∩ Ker Φ) ≤ n + dim(Ker Φ) = 2n − r,
d'où le résultat.
b) Soit F un SETI et Γ l'ensemble des SETI contenant F . On pose m = sup{dim G, G ∈ Γ}. Par
construction, il existe un SETI G tel que F ⊂ G et dim G = m. Le s.e.v G est alors un SETIM
(si H est un SETI et si G ⊂ H , alors F ⊂ H de sorte que H ∈ Γ et donc dim H ≤ m, ce qui
entraîne dim H = m = dim G et G = H ).
2/a) Soit x ∈ S1 ∩ S2⊥ .
On a déjà x ∈ F2⊥ . En eet, comme F2 = F ⊕ S2 , on a F2⊥ = F ⊥ ∩ S2⊥ , et il sut de montrer
que x ∈ F ⊥ . Ceci est vrai car x ∈ F1 ⊂ F1⊥ ⊂ F ⊥ (la première inclusion provient du fait que F1
est un SETI et la seconde est une conséquence de ce que F ⊂ F1 ).
Poursuivons. On a x ∈ S1 ⊂ F1 donc x est isotrope. Considérons le s.e.v G = F2 + Kx. Soit
z = y + kx ∈ G (y ∈ F2 , k ∈ K). En notant ϕ la forme polaire de Φ, on a
Φ(z) = Φ(y) + k 2 Φ(x) + 2kϕ(x, y). (∗)
On a y ∈ F2 donc Φ(y) = 0 ; on a vu que Φ(x) = 0, et on a montré plus haut que x ∈ F2⊥ ,
de
sorte que ϕ(x, y) = 0, et donc (∗) entraîne Φ(z) = 0. Ceci étant vrai pour tout z ∈ G, on en
déduit que G est un SETI. Comme F2 ⊂ G et que F2 est un SETIM, ceci entraîne G = F2 et
donc x ∈ F2 . Or x ∈ S1 ⊂ F1 , donc x ∈ F1 ∩ F2 = F , donc x ∈ S1 ∩ F = {0}, ce qui entraîne
x = 0.
1. FORMES QUADRATIQUES - FORMES HERMITIENNES 251

 Nous venons de montrer S1 ∩ S2⊥ = {0}, c'est à dire que S1 et S2⊥ sont en somme directe,
ce qui entraîne dim S1 + dim S2⊥ ≤ dim E = n. La forme quadratique Φ étant non dégénérée,
la proposition 6 entraîne dim S2⊥ = n − dim S2 , donc nalement dim S1 + n − dim S2 ≤ n, i.e
dim S1 ≤ dim S2 . Par symétrie, on a également dim S2 ≤ dim S1 , d'où dim S1 = dim S2 et
dim F1 = dim(F ⊕ S1 ) = dim F + dim S1 = dim F + dim S2 = dim(F ⊕ S2 ) = dim F2 .

b) La non dégénérescence de Φ entraîne p + q = n. Notons  k = inf{p, q}. Il existe une base


Ip 0
(e1 , . . . , en ) de E dans laquelle la matrice de Φ a la forme . Posons F = Vect(e1 +
0 −Iq
ep+1 , . . . , ek + ep+k ). Pour tout i, 1 ≤ i ≤ k , Φ(ei + ep+i ) = Φ(ei ) + Φ(ep+i ) = 1 − 1 = 0. Les
vecteurs ei étant de plus deux à deux orthogonaux, on en déduit que F estun SETI.
Soit G un SETI tel que F ⊂ G. Donnons nous x ∈ G, et écrivons x = i λi ei . On a
p
 n

Φ(x) = 0 = λ2i − λ2i . (∗∗)
i=1 i=p+1

En désignant toujours par ϕ la forme polaire de Φ, on a


1
∀i, 1 ≤ i ≤ k, [Φ(x + ei + ep+i ) − Φ(x) − Φ(ei + ei+p )] = 0 = λi − λi+p ,
ϕ(x, ei + ep+i ) =
2

ce qui entraîne λi = λp+i pour 1 ≤ i ≤ k. Avec (∗∗) on a donc x = ki=1 λi (ei + ep+i ) ∈ F ,
et ceci pour tout SETI G contenant F . Le s.e.v F est donc un SETIM et l'indice de Φ est
dim F = k = inf{p, q}.

Exercice 6. Soit E un K-e.v de dimension nie, soit ϕ : E ×E → K une forme bilinéaire


vériant la propriété suivante : ∀(x, y) ∈ E 2 tel que ϕ(x, y) = 0, on a ϕ(y, x) = 0. Montrer
que ϕ est symétrique ou antisymétrique.
Solution. Supposons dans un premier temps ϕ non dégénérée (i.e pour tout x = 0, ϕ(x, ·) = 0).
L'hypothèse sur ϕ entraîne que pour tout x ∈ E , les formes linéaires
ϕ(x, ·) : y → ϕ(x, y) et ϕ(·, x) : y → ϕ(y, x)
ont même noyau. Comme elles sont non nulles, il existe λx ∈ K tel que ϕ(x, ·) = λx ϕ(·, x) (voir
la proposition 5 page 135).
On considère maintenant les applications
f : E → E∗ x → ϕ(x, ·) et g : E → E ∗ x → ϕ(·, x).
Ces applications sont linéaires, injectives (car ϕ est non dégénérée), donc bijectives (car dim E =
dim E ∗ ). Or, comme on a vu plus haut, pour tout x ∈ E , f (x) = λx g(x), ou encore f ◦ g −1 (x) =
λx x avec λx ∈ K. D'après la proposition 3 page 121, f ◦ g −1 est donc une homothétie, autrement
dit il existe λ ∈ K tel que f ◦ g −1 = λ Id ou encore f = λg . Ceci s'écrit aussi
∀x ∈ E, ϕ(x, ·) = λϕ(·, x)
et donc
∀x, y ∈ E, ϕ(x, y) = λϕ(y, x) = λ2 ϕ(x, y).
On en déduit que λ2 = 1, donc que λ ∈ {−1, 1}. La forme bilinéaire ϕ est donc symétrique ou
antisymétrique.
 Traitons maintenant le cas général. On considère Ker ϕ = {x ∈ E | ϕ(x, ·) = 0}. Soit F un
s.e.v de E tel que Ker ϕ ⊕ F = E . Comme F ∩ Ker ϕ = {0}, la restriction de ϕ à F est non
dégénérée, de sorte que l'on peut appliquer ce que l'on vient de montrer :
(∃ε ∈ {−1, 1}), ∀(x, y) ∈ F 2 , ϕ(x, y) = εϕ(y, x).
252 5. ESPACES EUCLIDIENS

Ceci étant, on se donne (x, y) ∈ E 2 et on écrit x = x1 + x2 , y = y1 + y2 (x1 , y1 ∈ Ker ϕ,


x2 , y2 ∈ F ). On a
ϕ(x, y) = ϕ(x1 , y1 + y2 ) + ϕ(x2 , y1 + y2 ) = ϕ(x2 , y1 + y2 ) = ϕ(x2 , y2 ) = εϕ(y2 , x2 ) = εϕ(y, x),
d'où le résultat.

2. Espaces préhilbertiens
2.1. Généralités
Soit Φ une forme quadratique (resp. hermitienne) sur un R-e.v (resp. un C-e.v) E . On
rappelle que Φ est positive si pour tout x ∈ E , Φ(x) ≥ 0.
Supposons Φ dénie positive. Sa forme polaire ϕ s'appelle un produit scalaire (resp.
un produit scalaire hermitien ). On note souvent ϕ(x, y) = x · y (ou (x|y), ou encore x, y).
On a x · y = y · x (resp. x · y = y · x). On écrit souvent x2 pour x · x.
Dans ce cas, l'inégalité
 de Minkowsky

(voir le corollaire 2 de la partie précédente)
montre que x = Φ(x) = x · x dénit une norme sur E . Cette norme s'appelle
norme euclidienne (resp. norme hermitienne) et fait de E un e.v normé.
Un R-e.v muni d'un produit scalaire s'appelle un espace préhilbertien réel (s'il est de
plus complet  pour la norme issue du produit scalaire  on dit que c'est un espace
hilbertien réel). S'il est de dimension nie, on l'appelle également espace euclidien. Sauf
mention explicite, la norme utilisée sur un espace préhilbertien est la norme euclidienne.
Un C-e.v muni d'un produit scalaire hermitien s'appelle un espace préhilbertien com-
plexe. S'il est de dimension nie, on l'appelle également espace hermitien.
L'inégalité de Schwarz
∀x, y ∈ E, |x · y| ≤ x · y
entraîne la continuité du produit scalaire dans l'espace préhibertien E . Si E est un espace
préhilbertien réel, cette inégalité entraîne
x·y
∀x, y ∈ E, x = 0, y = 0, ∃!θ ∈ [0, π], cos θ = .
x · y
Le nombre réel θ s'appelle l'écart angulaire de x et y .
Remarque 1. On ne dénit pas l'écart angulaire dans un espace préhilbertien complexe.
Dans toute la suite, nous utiliserons ces notations.
2.2. Orthogonalité
L'orthogonalité dénie pour une forme quadratique ou hermitienne s'applique en par-
ticulier pour un produit scalaire. Ainsi, deux vecteurs x et y sont dit orthogonaux si et
seulement si x · y = 0 (ou encore si et seulement si y · x = 0).
Une famille de vecteurs non nuls (ei )i∈I est dite orthogonale si elle vérie ei · ej = 0
dès que i = j (et c'est alors une famille libre). Si de plus on a ei  = 1 pour tout i ∈ I ,
la famille est dite orthonormale (ou orthonormée).
On peut ainsi parler de base orthogonale ou orthonormale. Si E est un espace euclidien
(resp. hermitien) et si (e1 , . . . , en ) est une base orthonormée de E , alors
n
 n
 n
 n

∀x = xi ei ∈ E, ∀y = yi ei ∈ E, x·y = xi yi (resp. x · y = xi yi ).
i=1 i=1 i=1 i=1

Les coordonnées (xi ) de x dans la base orthonormale (ei ) de E vérient xi = ei · x.


2. ESPACES PRÉHILBERTIENS 253

Proposition
 1. Si (ei )i∈I est une famille nie orthogonale de vecteurs de E , on a l'égalité
 i∈I e i 2 = i∈I ei 2 .
Remarque 2. Dans un espace préhilbertien réel, si x + y2 = x2 + y2 , alors x et y
sont orthogonaux. Ceci est faux dans un espace préhilbertien complexe (par exemple, si
x = 0, x + ix2 = |1 + i|2 x2 = 2x2 = x2 + ix2 et pourtant x et ix ne sont pas
orthogonaux).

Théorème 1 (de la médiane). Pour tout couple (x, y) ∈ E 2 , on a


x + y2 + x − y2 = 2(x2 + y2 ).
Remarque 3.  On peut montrer réciproquement que si une norme vérie cette rela-
tion, c'est une norme euclidienne (resp. hermitienne)  voir l'exercice 9 page 263.
 Le théorème de la médiane est encore appelé identité du parallélogramme .
Procédé d'orthogonalisation de Schmidt. Nous allons construire, en partant d'une
famille libre nie (e1 , . . . , en ) de vecteurs de E , une base orthogonale (u1 , . . . , un ) de
Vect(e1 , . . . , en ) telle que pour tout k , uk ∈ Vect(e1 , . . . , ek ). On procède par récurrence.
• On prend u1 = e1 .
• On cherche u2 sous la forme e2 + λ1,2 u1 . On veut que u1 · u2 = 0, ce qui sera réalisé
si et seulement si
u1 · e 2
λ1,2 = − .
u1 2
• Les vecteurs u1 , . . . , uk−1 étant construits, on cherche uk sous la forme ek +λ1,k u1 +
· · · + λk−1,k uk−1 . On veut que ui · uk = 0 pour 1 ≤ i ≤ k − 1, ce qui sera réalisé si
et seulement si on prend
ui · e k
λi,k = − .
ui 2
En normant les vecteurs ui , on obtient même une base orthonormée.
Remarque 4. La matrice de passage de la famille (ei ) à la famille (uj ) est de la forme
 
1 × ··· ×
 . . . .. 
 0 1 . 
P = . . . .
 .. . . . . ×
0 ··· 0 1
Théorème 2. Soit E un espace préhilbertien (réel ou complexe) et F un s.e.v de E . Alors
(i) F ⊂ F ⊥⊥
(ii) Si F est de dimension nie, on a E = F ⊕ F ⊥ et F = F ⊥⊥ .
Démonstration. L'assertion (i) résulte de la proposition 3 de la section 1 et la (ii) est une appli-
cation de la proposition 7 page 245. 

Remarque 5. L'assertion (ii) reste vraie en dimension innie si F est complet mais est
fausse dans le cas général (voir l'exercice 11 page 265).
Projection et symétrie orthogonale.
Définition 1. Soit E un espace préhilbertien et F un s.e.v de E de dimension nie. Le
théorème précédent dit que F ⊕ F ⊥ = E .
 On appelle projection orthogonale sur F la projection sur F parallèlement à F ⊥ .
 On appelle symétrie orthogonale par rapport à F la symétrie par rapport à F
parallèlement à F ⊥ .
254 5. ESPACES EUCLIDIENS

Remarque 6. Si (e1 , . . . , en ) est une


 base orthonormale de F , alors la projection orthogo-
nale de x sur F est égale à y = ni=1 λi ei avec λi = ei · x.
Proposition 2. Soit E un espace préhilbertien et F un s.e.v de E de dimension nie.
Soit x ∈ E et p la projection orthogonale sur F . Alors la distance de x à F vérie
d(x, F ) = x − p(x).
Démonstration. Soit y ∈ F . On a x−y = (x−p(x))+(p(x)−y). Or x−p(x) ∈ F ⊥ et p(x)−y ∈ F ,
donc x − y2 = x − p(x)2 + p(x) − y2 , donc inf y∈F x − y2 = x − p(x)2 , d'où le résultat.


Remarque 7. Comme x − p(x) est orthogonal à p(x), la relation x = (x − p(x)) + p(x)


entraîne x2 = x − p(x)2 + p(x)2 , donc d(x, F )2 = x
2
− p(x)2 . Si (e1 , . . . , en ) est
une base orthonormale de F , on a donc d(x, F ) = x − ni=1 |λi |2 , où λi = ei · x.
2 2

2.3. Isométries et endomorphismes unitaires


Définition 2. Soit E un espace préhilbertien et f ∈ L(E) telle que pour tout x ∈ E ,
f (x) = x.
 Si E est préhilbertien réel, f est appelé isométrie (on dit aussi endomorphisme
orthogonal).
 Si E est préhilbertien complexe, f est appelé endomorphisme unitaire .
Proposition 3. Soit E un espace préhilbertien et f une application de E dans E . Alors
f est une isométrie (resp. un endomorphisme unitaire) si et seulement si
∀(x, y) ∈ E 2 , f (x) · f (y) = x · y. (∗)
Remarque 8. Noter que la propriété (∗) implique la linéarité de f .
Proposition 4. Si f ∈ L(E) est une isométrie (resp. un endomorphisme unitaire) alors
f est injective. Si de plus E est de dimension nie alors f est bijective.
Proposition 5.  L'ensemble des isométries d'un espace euclidien E est un groupe
(muni de la loi ◦ de composition), appelé groupe orthogonal de E et noté O(E).
 L'ensemble des endomorphismes unitaires d'un espace hermitien E est un groupe
appelé groupe unitaire de E et noté U(E).
Propriétés matricielles des isométries et des endomorphismes unitaires.
Proposition 6. Soit E un espace euclidien (resp. hermitien) et f ∈ L(E). Alors f
est une isométrie (ou un endomorphisme unitaire) si et seulement si l'image d'une base
orthonormale de E par f est une base orthonormale de E .
Conséquence. Soit B une base orthonormale de E et f ∈ L(E). Soit A la matrice de f
dans B . Alors f une isométrie (resp. un endomorphisme unitaire) si et seulement si
t t
t
AA = A tA = In (resp. AA = A A = In ).
t
On en déduit que det tA · det A = 1 = (det A)2 (resp. det A · det(A) = 1 = | det A|2 ).
 Si f est une isométrie, on a donc (det f )2 = 1, ou encore det f ∈ {−1, 1}.
 Si f est un endomorphisme unitaire, on a |det f |2 = 1, donc |det f | = 1.
Définition 3.  Si A ∈ Mn (R) vérie tAA = In , A s'appelle une matrice orthogo-
nale.
t
 Si A ∈ Mn (C) vérie AA = In , A s'appelle une matrice unitaire.
 L'ensemble des matrices orthogonales de Mn (R) constitue un groupe noté On , celui
des matrices unitaires de Mn (C) est un groupe noté Un .
2. ESPACES PRÉHILBERTIENS 255

Définition 4.  Soit f une isométrie d'un espace euclidien E . On dit que f est une
isométrie directe si det f = 1, une isométrie indirecte si det f = −1.
 L'ensemble {f ∈ O(E) | det f = 1} est un sous-groupe distingué de O(E) appelé
groupe spécial orthogonal de E et noté O+ (E) (on le note encore SO(E)).
 Si E est hermitien, l'ensemble {f ∈ U(E) | det f = 1} est un sous-groupe distingué
de U (E) noté SU(E).
 Pour les matrices, on note également
SOn = On+ = {A ∈ On | det A = 1} et SUn = {A ∈ Un | det A = 1}.
L'ensemble SOn est un sous-groupe distingué de On , SUn un sous-groupe distingué
de Un .
Remarque 9. La réduction des endomorphismes orthogonaux ou unitaires fait l'objet de la
partie 3.1. Dans le cas particulier du plan ou de l'espace, on trouve les résultats classiques
suivant :
 La matrice d'une isométrie
 θ −directe  du plan s'écrit dans toute base orthonormale B
sous la forme R(θ) = cos sin θ
sin θ cos θ avec θ ∈ R (rotation d'angle θ).  
cos θ − sin θ 0
 La matrice d'une isométrie directe de l'espace s'écrit sous la forme sin θ cos θ 0
0 0 1
dans une base orthonormale B bien choisie (rotation d'angle θ autour du dernier
vecteur de la base B ).
2.4. Endomorphismes adjoints
Définition 5 (Adjoint). Soit E un espace euclidien (resp. hermitien) et f et g ∈ L(E).
Les endomorphismes f et g sont dits adjoints si
∀(x, y) ∈ E 2 , f (x) · y = x · g(y). (∗)
L'endomorphisme f étant donné, il existe au plus un endomorphisme g vériant (∗).
Lorsqu'il existe, on l'appelle adjoint de f et on le note f ∗ . Lorsque f = f ∗ , f est dit
autoadjoint.

Remarque 10.  L'adjoint f ∗ d'un endomorphisme f n'existe pas toujours (nous ver-
rons cependant qu'en dimension nie, et plus généralement dans un espace hilber-
tien lorsque f est continu, l'adjoint de f existe).
 Lorsque f ∗ existe, (f ∗ )∗ = f ∗∗ existe et on a f ∗∗ = f .
Étude en dimension nie. Notation. Nous utiliserons la notation t
introduite dans la
partie 1.2 : si M désigne une matrice complexe, on note M ∗ = M sa transconjuguée.
Ainsi, lorsque M est une matrice réelle, M ∗ désignera simplement la transposée de M .
Soit E un espace euclidien ou hermitien, B une base orthonormée de E . Soit f ∈ L(E),
M la matrice de f dans la base B : M = [f ]B . On cherche un endomorphisme g qui soit
l'adjoint de f . En notant N = [g]B , on voit que (∗) est vériée si et seulement si
pour tous vecteurs X, Y, (M X)∗ Y = X ∗ (N Y ) ou encore X ∗ M ∗ Y = X ∗ N Y.
L'endomorphisme g est donc l'adjoint de f si et seulement sa matrice N dans la base B
vérie N = M ∗ . En résumé, pour tout f ∈ L(E), f ∗ existe et [f ∗ ]B = [f ]∗B .
Remarque 11.  Attention, [f ∗ ]B = [f ]∗B seulement si la base B est orthonormée.
 Si E est euclidien, un endomorphisme f ∈ L(E) est autoadjoint (on dit encore sy-
métrique) si et seulement si la matrice de f dans une base orthonormée quelconque
de E est symétrique.
 Si E est hermitien, f est autoadjoint si et seulement si sa matrice M dans une base
t
orthonormée de E est hermitienne (i.e si elle vérie M = M ).
256 5. ESPACES EUCLIDIENS

Réduction des endomorphismes autoadjoints. Nous aurons besoin de la proposition


suivante.
Proposition 7. Soit E un espace euclidien ou hermitien, et f ∈ L(E) un endomorphisme
autoadjoint. Si F est un s.e.v de E stable par f , alors F ⊥ est stable par f .
Démonstration. Il sut d'écrire que
∀x ∈ F, ∀y ∈ F ⊥ , x · f (y) = f (x) · y = 0.


 Théorème 3. Soit E un espace euclidien (resp. hermitien) et f ∈ L(E) un endomor-


phisme autoadjoint. Alors il existe une base orthonormée de vecteurs propres pour f , et
de plus ses valeurs propres sont réelles.
Démonstration. On procède par récurrence sur la dimension n de E . Pour n = 1, c'est évident.
Supposons le résultat vrai jusqu'au rang n−1 et montrons le au rang n. On considère l'application
Φ : E → R x → x · f (x). C'est une forme quadratique (resp. hermitienne), de forme polaire
ϕ(x, y) = x · f (y). Comme on est en dimension nie, la sphère unité S = {x ∈ E, x = 1} de
E est compacte, et Φ étant continue (toujours parce que l'on est en dimension nie), il existe
x0 ∈ S tel que Φ(x0 ) = supx∈S Φ(x) = λ.
Ceci étant, on considère la forme quadratique (resp. hermitienne) dénie par Φ1 (x) = λx2 −
Φ(x). La forme Φ1 est positive par construction de λ. Or Φ1 (x0 ) = 0, i.e Φ1 n'est pas dénie,
et donc Φ1 est dégénérée (rappelons qu'une forme positive est dénie si et seulement si elle est
non dégénérée, voir la conséquence de l'inégalité de Schwarz, partie 1.3). La forme polaire de Φ1
étant ϕ1 (x, y) = x · g(y) avec g = λ IdE −f , la dégénérescence de Φ1 entraîne l'existence de x = 0
tel que pour tout y ∈ E , ϕ1 (x, y) = 0 = x · g(y). L'application g n'est donc pas surjective (x n'est
pas atteint), donc non injective (g est un endomorphisme en dimension nie), ce qui entraîne
l'existence d'un vecteur normé e1 tel que g(e1 ) = 0 = λe1 − f (e1 ). Autrement dit, λ ∈ R est
valeur propre de f associée au vecteur propre e1 . Posons H = (Vect e1 )⊥ . D'après la proposition
précédente, H est stable par f . La restriction de f à H étant autoadjointe, l'hypothèse de
récurrence assure l'existence d'une base orthonormée (e2 , . . . , en ) de H qui diagonalise f|H (à
valeurs propres réelles). La base (e1 , . . . , en ) est alors une base orthonormée qui diagonalise f , et
les valeurs propres de f sont toutes réelles. 
La version matricielle de ce théorème est la suivante.

 Corollaire 1. Soit M ∈ Mn (R) (resp. M ∈ Mn (C)) une matrice symétrique (resp.


hermitienne). Alors il existe une matrice C orthogonale (resp. unitaire) telle que
C −1 M C = C ∗ M C = D,
D étant une matrice diagonale réelle.
Démonstration. On note E = Rn (resp. E = Cn ). Munissons E du produit scalaire (resp. du
produit scalaire hermitien) usuel :
n
 n

(x1 , . . . , xn ) · (y1 , . . . , yn ) = x i yi (resp. = xi yi ).
i=1 i=1

Soit f ∈ L(E) dont la matrice dans la base canonique B de E est M : [f ]B = M . Comme f est
autoadjoint (car M est symétrique, resp. hermitienne), il existe d'après le théorème précédent
une base B  orthonormée de E telle que [f ]B  = D soit diagonale réelle. Si on désigne par C la
matrice de passage de la base B à la base B  , C est une matrice orthogonale (resp. unitaire) et
C −1 M C = C ∗ M C = D. 
2. ESPACES PRÉHILBERTIENS 257

Remarque 12. On rappelle qu'une matrice symétrique (resp. hermitienne) M est positive
si la forme quadratique (resp. hermitienne) X → X ∗ M X est positive. Elle est dite dénie
positive si cette forme quadratique est dénie positive. Le corollaire montre que M est
positive (resp. dénie positive) si et seulement si toutes ses valeurs propres sont positives
(resp. strictement positives).
Corollaire 2. Soit Φ une forme quadratique (resp. hermitienne) sur un espace euclidien
(resp. hermitien) E . Alors il existe une base orthonormée de E dans laquelle la matrice
de Φ est diagonale réelle.
Démonstration. Soit B une base orthonormée de E et soit M la matrice de Φ dans la base B .
La matrice M est symétrique (resp. hermitienne), et d'après le corollaire précédent, il existe une
matrice C orthogonale (resp. unitaire) telle que C ∗ M C = D est diagonale réelle. La matrice C
déni un changement de base orthogonal qui fait passer de la base B à une base orthonormée
B  , et la matrice de Φ dans la base B  est D, d'où le résultat. 

Remarque 13. Notez bien la diérence entre ce dernier corollaire et le théorème 1 de la


page 243. Ici, la base qui diagonalise Φ a en plus la propriété d'être orthonormée pour le
produit scalaire de l'espace E .
 Corollaire 3. Soient M, N deux matrices symétriques (resp. hermitiennes), telles que
la matrice M soit dénie positive. Alors il existe une matrice C inversible telle que
C ∗ M C = In et C ∗ N C = D,
où D est une matrice diagonale réelle.
Démonstration. Sur E = Rn (resp. sur E = Cn ), l'application Φ : (X, Y ) → X ∗ M Y déni un
produit scalaire, et Ψ : X → X ∗ N X une forme quadratique (resp. hermitienne). D'après le
corollaire précédent, il existe une base B orthonormée (pour le produit scalaire Φ) telle que la
matrice D de Ψ dans B soit diagonale réelle. En désignant par C la matrice de passage de la
base canonique de E à la base B , on a C ∗ M C = In et C ∗ N C = D, d'où le résultat. 

Remarque 14. Ce dernier corollaire rend parfois de précieux services. On peut le voir
comme un résultat de pseudo-réduction simultanée. Prenez garde au fait que la matrice
C n'est en général pas orthogonale (ou unitaire).
2.5. Exercices
 Exercice 1 (Racine carrée d'une matrice hermitienne positive). Soit H ∈
Mn (C) une matrice hermitienne positive. Montrer qu'il existe une unique matrice R
hermitienne positive telle que H = R2 .
Solution. Existence. La matrice H étant hermitienne, il existe une matrice unitaire C telle que
 
λ1 (0)
t
CHC = C −1 HC = 
 ... 
 = D,
(0) λn
D étant diagonale réelle. Comme H est positive, tous les λi sont positifs donc pour tout i, il
existe µi ≥ 0 tel que λi = µ2i . En posant
 
µ1 (0)

D =  ... 
,
(0) µn
t
on a D 2 = D de sorte que R = CD C −1 = CD C est hermitienne positive et vérie
2
R2 = CD C −1 = CDC −1 = H.
258 5. ESPACES EUCLIDIENS

Unicité. Soit R hermitienne positive telle que R2 = H . Soient h et r les endomorphismes de Cn


dont H et R sont les matrices dans la base canonique de Cn . Comme H est hermitienne, h est
autoadjoint. Ses valeurs propres λ1 , . . . , λp sont positives car H est positive. Notons Eλ1 , . . . , Eλp
les sous-espaces propres correspondants. Comme r commute avec r2 = h, chaque Eλi est stable
par r (voir la proposition 7 page 175). On note ri = r|Eλi . On a ri2 = λi IdEλi , et ri est autoadjoint

positif ; toute valeur propre µ de ri vérie µ2 = λi , donc µ = λi est la seule valeur propre
possible de ri (car les valeurs propres de ri , qui sont des valeurs propres de r donc √ de R, sont
positives). Comme ri est de plus diagonalisable (car autoadjoint), on en déduit ri = λi IdEλi .

Résumons. Si r2 = h, alors forcément pour tout i, r|Eλi = λi Id|Eλi , ce qui dénit r de
manière unique, d'où l'unicité de R.

Exercice 2. Soit E un espace hermitien et f et g deux endomorphismes autoadjoints de


L(E) tels que f g = gf . Montrer que f et g sont diagonalisables dans une base commune
de vecteurs propres orthonormés.
Solution. Les endomorphismes f et g étant autoadjoints, on sait déjà qu'ils se diagonalisent
chacun dans une base orthonormée. Il nous reste à montrer que l'on peut prendre la même base
pour les deux.
Notons λ1 , . . . , λr les valeurs propres (distinctes) de f , Eλ1 , . . . , Eλr les sous-espaces propres
correspondants. Les Eλi sont deux à deux orthogonaux (pour s'en persuader, diagonaliser f dans
une base orthonormée). Comme f et g commutent, les Eλi sont stables par g . La restriction de g
à Eλi étant autoadjointe, il existe une base orthonormée Bi de Eλi diagonalisant g|Eλi . Les Eλi
étant deux à deux orthogonaux, on en déduit que B = (B1 , . . . , Br ) est une base orthonormée.
Cette base diagonalise g par construction ainsi que f puisque chaque vecteur e de Bi vérie
f (e) = λi e.
Remarque. De la même manière que dans l'exercice 4 page 181, ce résultat se généralise
à toute famille (fi )i∈I d'endomorphismes autoadjoints commutant deux à deux.

Exercice 3. Soit E un espace hermitien et f ∈ L(E).


a) Montrer que f est trigonalisable dans une base orthonormée de E .
b) Si f et g ∈ L(E) commutent, montrer qu'il existe une base orthonormée de E trigo-
nalisant à la fois f et g .
Solution. a) Nous allons donner deux moyens de procéder.
Première méthode. Le corps C étant algébriquement clos, f est trigonalisable dans une base
B = (e1 , . . . , en ) de E , et donc pour tout k , f (ek ) ∈ Vect(e1 , . . . , ek ). Soit (u1 , . . . , un ) la base
orthonormée de Schmidt associée à B (voir page 253). Pour tout k, on a Vect(u1 , . . . , uk ) =
Vect(e1 , . . . , ek ), et donc
∀k, 1 ≤ k ≤ n, f (uk ) ∈ f (Vect(e1 , . . . , ek )) ⊂ Vect(e1 , . . . , ek ) = Vect(u1 , . . . , uk ).
Ceci prouve que la matrice de f dans la base orthonormée (u1 , . . . , un ) est triangulaire supérieure.
Seconde méthode. On procède par récurrence sur la dimension n de E . Si n = 1, c'est évident.
Supposons maintenant le résultat vrai au rang n − 1 et montrons le au rang n. Soit λ ∈ C une
valeur propre de f ∗ et e un vecteur propre normé associé. Alors
∀x ∈ (Vect e)⊥ , f (x) · e = x · f ∗ (e) = x · λe = λ(x · e) = 0,
autrement dit l'hyperplan H = (Vect e)⊥ est stable par f . On peut donc appliquer l'hypothèse
de récurrence à f|H , ce qui montre l'existence d'une base orthonormée (e1 , . . . , en−1 ) de H qui
2. ESPACES PRÉHILBERTIENS 259

trigonalise f|H . La matrice de f dans la base orthonormée (e1 , . . . , en−1 , e) (elle est orthonormée
car e est orthogonal à H ) de E est donc de la forme
 
× ··· × ×
 ... .. .. 

 0 . . 

 .. ... ,
 . × × 
0 ··· 0 ×
donc triangulaire supérieure, d'où le résultat.
b) Nous allons ici aussi donner deux méthodes.
Première méthode. D'après le théorème 5 page 176, il existe une base B = (e1 , . . . , en ) de E
trigonalisant f et g . Pour les mêmes raisons que dans la première solution de la question a), la
base de Schmidt orthonormée associée à B trigonalise f , ainsi que g , d'où le résultat.
Seconde méthode. Procédons par récurrence sur la dimension n de E . Pour n = 1, c'est évident.
Supposons le résultat vrai au rang n − 1 et montrons le au rang n. Dans une base orthonormée
de E , les matrices de f ∗ et g ∗ sont les transposées de celles de f et g donc elles commutent, ce
qui entraîne que f ∗ et g ∗ commutent. Il existe donc un vecteur propre e normé commun à f ∗ et
g ∗ (c'est classique, voir le préliminaire de la preuve du théorème de trigonalisation simultanée
page 176). Pour les mêmes raisons que dans la deuxième solution de la question a), H = (Vect e)⊥
est un hyperplan de E stable par f et g . Comme f|H et g|H commutent, l'hypothèse de récurrence
entraîne l'existence d'une base orthonormée (e1 , . . . , en−1 ) de H trigonalisant f|H et g|H . La base
(e1 , . . . , en−1 , e) est orthonormée et on voit facilement qu'elle trigonalise f et g .
Remarque. De la même manière qu'à l'exercice 4 page 181, le résultat b) se généralise à
une famille quelconque (fi )i∈I d'endomorphismes commutant deux à deux.

 Exercice 4 (Caractérisation des matrices positives). Soit M = (ai,j )1≤i,j≤n ∈


Mn (R) une matrice symétrique.
a) (Critère de Sylvester). Pour tout k ∈ {1, . . . , n}, on note Mk = (ai,j )1≤i,j≤k ∈ Mk (R).
Montrer que M est dénie positive si et seulement si pour tout k ∈ {1, . . . , n}, det Mk > 0.
b) Pour tout I ⊂ {1, . . . , n}, on note MI = (ai,j )(i,j)∈I 2 . Montrer que M est une matrice
positive si et seulement si pour tout I , det MI ≥ 0.
Solution. a) Condition nécessaire. Notons q la forme quadratique dont M est la matrice dans
la base canonique (e1 , . . . , en ) de Rn . Pour tout k, Mk est la matrice de la restriction de q à
Vect(e1 , . . . , ek ). Cette restriction est, comme q , dénie positive, donc Mk est une matrice dénie
positive, d'où on tire det Mk > 0, et ceci pour tout k.
Condition susante. Raisonnons par récurrence sur n ∈ N∗ . Pour n = 1, c'est évident. Supposons
le résultat vrai jusqu'au rang n − 1 et montrons le au rang n. Notons H l'hyperplan déni par
H = Vect(e1 , . . . , en−1 ). D'après l'hypothèse de récurrence, la restriction q|H de q à H est dénie
positive. Désignons par (e1 , . . . , en−1 ) une base orthonormée pour q|H . D'après la proposition 7
page 245, l'orthogonal H ⊥ de H (l'orthogonal est ici par rapport à la forme quadratique q ) vérie
H ⊕ H ⊥ = Rn . Ainsi, si en désigne un vecteur non nul de H ⊥ , la famille B = (e1 , . . . , en−1 , en )
est une base de Rn et la matrice de q dans cette base s'écrit sous la forme
 
1 0 ··· 0
 ... ... .. 
 0 . 
N = .. ... ,
 . 1 0 
0 ··· 0 α
Si P désigne la matrice de passage de la base canonique de Rn à la base B , on a N = tP M P ,
donc det N = (det P )2 det M > 0. Ainsi, α = det N > 0, ce qui prouve que q est dénie positive.
La matrice M est donc dénie positive.
260 5. ESPACES EUCLIDIENS

b) Condition nécessaire. On désigne toujours par q la forme quadratique de Rn dont M est la


matrice dans la base canonique (e1 , . . . , en ) de Rn . Pour tout I , MI est la matrice de la restriction
de q à Vect(ei )i∈I , qui est positive. La matrice MI est donc positive, ce qui entraîne det MI ≥ 0.
Condition susante. Commençons par montrer
∀x > 0, det(M + xIn ) > 0. (∗)
On sait que l'on a (voir page 172)
det(M + xIn ) = xn + β1 xn−1 + · · · + βn−1 x + βn ,

 i, βi est la somme des mineurs principaux d'ordre i. D'après les hypothèses, on a


où pour tout
donc βi = Card I=i det MI ≥ 0. La positivité des βi entraîne alors (∗).
On applique maintenant le résultat (∗) à chacune des matrices Mk (on peut, les hypothèses
sont vériées car tout mineur principal de Mk est un mineur principal de M ), ce qui donne
∀x > 0, ∀k ∈ {1, . . . , n}, det(Mk + xIk ) > 0.
En appliquant le résultat de la question a), On en déduit que pour tout x > 0, la matrice M +xIn
est dénie positive. Autrement dit, pour tout x > 0, on a
t
∀X ∈ Rn , X(M + xIn )X ≥ 0.
En xant X et en faisant tendre x vers 0, cette inégalité entraîne tXM X ≥ 0, et ceci pour tout
X ∈ Rn , donc M est positive.
Remarque. Le critère de Sylvester peut s'avérer utile ; il est donc souhaitable de le
connaître et de savoir le redémontrer.

Exercice 5. a) Soit une application continue


M : [0, 1] → Mn (R) t → M (t) = [ai,j (t)]1≤i,j≤n ,
telle que pour tout t ∈ ]0, 1[, M (t) est symétrique dénie positive. Montrer que la matrice
 1  1 
A= M (t) dt = ai,j (t) dt
0 0 1≤i,j≤n

est symétrique dénie positive.


b) Application. Montrer que la matrice
 
1
A=
1 + |i − j| 1≤i,j≤n

est dénie positive (on pourra utiliser le critère de Sylvester, voir l'exercice précédent).
Solution.a) Il est clair que la matrice A est symétrique. Maintenant, remarquons qu'une somme
nie de matrices (Mi )1≤i≤p symétriques dénies positives est dénie positive. En eet, il sut
de remarquer que pour tout vecteur colonne X = 0 de Rn , on a
p
 p

 
∀i, XMi X > 0 donc
t t
XMi X = tX Mi X > 0.
i=1 i=1

Ceci étant vrai pour tout X = 0, on a prouvé que i Mi est dénie positive.
Ici, on a aaire non pas à une somme nie, mais une somme continue. On procède de la même
manière. Fixons un vecteur colonne X de Rn , X = 0. Pour tout t ∈ ]0, 1[, on a tXM (t)X > 0,
donc par continuité de t → tXM (t)X
 1  1 
XM (t)X dt > 0 ou encore
t t
X M (t) dt X = tXAX > 0.
0 0
Ceci étant vrai pour tout X = 0, A est dénie positive.
2. ESPACES PRÉHILBERTIENS 261

b) On remarque que
 1
1
= t|i−j| dt.
1 + |i − j| 0
D'après a), le résultat sera prouvé si on montre que pour tout t ∈ ]0, 1[, la matrice symétrique
M (t) = (t|i−j| )1≤i,j≤n est dénie positive.
Pour tout r, 1 ≤ r ≤ n, on pose Dr (t) = det(t|i−j| )1≤i,j≤r . Nous allons prouver que Dr (t) =
(1 − t2 )r−1 ce qui prouvera, en vertu du critère de Sylvester, que M (t) est dénie positive pour
t ∈ ]0, 1[.
On procède par récurrence sur r. Pour r = 1, c'est évident car D1 (t) = 1. Supposons le
résultat vrai au rang r et montrons le au rang r + 1. En retranchant à la dernière colonne t fois
l'avant dernière, on obtient
   
 1 t ··· tr−1 tr   1 t ··· tr−1 0 
   
 ... ...   ... ... 
 t 1 tr−1   t 1 0 
 . ... ... ... ..   . ... ... ... ..  = (1 − t2 )D (t),
Dr+1 (t) =  .. . = .
  . .  r
   
 tr−1 . . . . . . 1 t   tr−1 . . . . . . 1 0  
  
 tr tr−1 · · · t 1   tr tr−1 · · · t 1 − t2 
d'où le résultat.

 Exercice 6 (Décomposition polaire). Soit A ∈ Mn (C). Montrer qu'il existe un


couple de matrices (U, H), U étant unitaire et H hermitienne positive, tel que A = U H .
Si A est inversible, montrer que le couple (U, H) ainsi déni est unique.
Solution. C'est très classique.
Existence. Si A = U H , alors A∗ = HU −1 donc A∗ A = H 2 (on rappelle que la notation A∗ désigne
t
la matrice A). Nous allons par conséquent commencer par chercher une matrice hermitienne H
vériant A∗ A = H 2 .
La matrice A∗ A est hermitienne car (A∗ A)∗ = A∗ A∗∗ = A∗ A. Par ailleurs, pour tout vecteur
colonne X , on a
X ∗ (A∗ A)X = (AX)∗ AX = AX2 ≥ 0
( .  désignant la norme hermitienne standard sur Cn ), ce qui prouve que A∗ A est positive.
D'après l'exercice 1 page 257, il existe donc une matrice hermitienne H positive telle que A∗ A =
H 2.
Supposons maintenant A inversible. Alors H est inversible, et en posant U = AH −1 , on a
U U = H −1 A∗ AH −1 = In , donc U est unitaire et A = U H , d'où l'existence.

Si A n'est pas inversible, c'est un peu plus délicat. Nous allons donner deux méthodes, la
première étant de nature constructive, la seconde de nature topologique.
Première méthode. Notons a et h les endomorphismes de Cn dont les matrices dans la base
canonique de Cn sont A et H . Comme a∗ a = h2 avec h autoadjoint, on a
∀x ∈ Cn , a(x)2 = a(x) · a(x) = x · a∗ a(x) = x · h2 (x) = h(x) · h(x) = h(x)2 , (∗)
donc Ker h = Ker a. En diagonalisant h dans une base orthonormée on s'aperçoit que Im h =
(Ker h)⊥ et Cn = Im h ⊕ Ker h, et que la restriction de h à Im h est un automorphisme de Im h.
Pour que a = u ◦ h sur Cn = Im h ⊕ Ker h, il sut que cette égalité soit vraie sur Im h
puisque si x ∈ Ker h = Ker a, l'égalité a(x) = u ◦ h(x) est toujours vraie (les termes sont nuls
dans ce cas). Pour cette raison, nous dénissons u par u(x) = a ◦ h−1 | Im h (x) lorsque x ∈ Im h.
Pour que u soit unitaire, il faut que lorsque x ∈ Ker h le vecteur u(x) soit orthogonal à Im a.
Si u0 désigne un isomorphisme unitaire xé qui envoie Ker h sur (Im a)⊥ (c'est possible puisque
dim Ker h = dim Ker a = dim(Im a)⊥ ), on pose donc u(x) = u0 (x) lorsque x ∈ Ker h. En résumé,
262 5. ESPACES EUCLIDIENS

on a dénit u sur Cn = Im h ⊕ Ker h par



∀x ∈ Im h, u(x) = a ◦ h−1
| Im h (x) .
∀x ∈ Ker h, u(x) = u0 (x)
Par construction, on a bien a = u ◦ h. Il reste à vérier que u est bien unitaire. Pour cela,
donnons nous un vecteur z ∈ Cn . Comme Cn = Im h ⊕ Ker h, il existe x ∈ Cn et y ∈ Ker h tels
que z = h(x) + y . On a alors u(z) = u(h(x)) + u(y) = a(x) + u0 (y), et comme u0 (y) ∈ (Im a)⊥
u(z)2 = a(x)2 + u0 (y)2 .
Par construction de u0 , on a u0 (y) = y. Comme de plus a(x) = h(x) d'après l'iden-
tité (∗), l'orthogonalité de h(x) ∈ Im h et y ∈ Ker h entraîne nalement
u(z)2 = h(x)2 + y2 = z2 .
Notons U la matrice de u dans la base canonique de Cn . On a a = u ◦ h donc A = U H , avec
U unitaire, d'où le résultat.
Seconde méthode. L'ensemble des matrices inversibles étant dense dans Mn (C) (voir la propo-
sition 2, page 193), on peut écrire A comme une limite de matrices inversibles (Ap )p∈N . Le cas
A inversible nous permet d'armer que pour tout p ∈ N, il existe deux matrices Up unitaire
et Hp hermitienne positive telles que Ap = Up Hp . L'ensemble des matrices unitaires étant com-
pact (c'est un fermé borné de Mn (C), fermé comme image réciproque de {In } par l'application
continue U → U ∗ U , borné car tous les vecteurs colonnes d'une matrice unitaire sont de norme
1), il existe une sous-suite (Uϕ(p) ) de (Up ) qui converge. Notons U sa limite (U est unitaire).
L'égalité Hϕ(p) = Uϕ(p)
∗ A
ϕ(p) entraîne la convergence de la suite (Hϕ(p) ) vers H = U A, et comme
Hϕ(p) est hermitienne positive pour tout p, H est hermitienne positive (en eet, H est clairement
hermitienne, et positive car pour tout X ∈ Cn xé, on a X ∗ Hϕ(p) X ≥ 0, donc en faisant tendre
p vers l'inni on obtient X ∗ HX ≥ 0, et ceci est vrai pour tout X ). Finalement, on a A = U H
avec U unitaire et H hermitienne positive.
Unicité (lorsque A est inversible). D'après l'exercice 1 page 257, il existe une unique matrice H
hermitienne positive telle que A∗ A = H 2 (rappelons que A∗ A est hermitienne positive), ce qui
prouve l'unicité de H , donc de U car U = AH −1 .

Exercice 7 (Décomposition d'Iwasawa). a) Soit A ∈ Mn (C) une matrice hermi-


tienne dénie positive. Montrer qu'il existe une unique matrice triangulaire supérieure T
à coecients diagonaux positifs, telle que A = T ∗ T .
b) Soit A ∈ Mn (C) une matrice inversible. Montrer qu'il existe un unique couple de ma-
trices (U, T ), avec U unitaire et T triangulaire supérieure à coecients diagonaux positifs,
tel que A = U T .
Solution. a) Comme A est hermitienne dénie positive, A est la matrice d'un produit scalaire
hermitien dans la base canonique B = (e1 , . . . , en ) de Cn . Écrire A = P ∗ P , c'est dire que P est
la matrice de passage d'une base B  orthonormée pour ce produit scalaire à la base B .
Il s'agit par conséquent de déterminer les bases B  = (e1 , . . . , en ) orthonormées pour ce
produit scalaire telles que la matrice de passage P de B  à B soit triangulaire supérieure et à
coecients diagonaux positifs, ce qui s'écrit

Vect(e1 , . . . , ek ) = Vect(e1 , . . . , ek ),
∀k ∈ {1, . . . , n},
ek · ek > 0.
Le procédé d'orthonormalisation de Schmidt assure l'existence et l'unicité d'une telle base, d'où
l'existence et l'unicité de T .
b) Comme on l'a vu à l'exercice précédent, la matrice A∗ A est hermitienne positive. Comme A
est inversible, A∗ A est inversible, et c'est donc une matrice hermitienne dénie positive. D'après
la question a), il existe une matrice T triangulaire supérieure à coecients diagonaux positifs
2. ESPACES PRÉHILBERTIENS 263

telle que A∗ A = T ∗ T . Soit U = AT −1 . Alors U ∗ U = (T ∗ )−1 A∗ AT −1 = I . Donc U est unitaire


et A = U T , d'où l'existence du couple (U, T ).
Unicité. Si A = U T , alors A∗ A = T ∗ T , donc d'après a), T est déterminée de façon unique ; il
en est de même pour U = AT −1 .
Remarque. On peut montrer que le résultat reste vrai lorsque A n'est pas supposée
inversible, mais il n'y a plus unicité du couple (U, T ). (On peut par exemple procéder en
utilisant des critères de nature topologique comme dans la seconde méthode de la preuve
de l'existence dans l'exercice précédent).

Exercice 8. À partir de la norme euclidienne standard  · 2 sur Rn


 x1  
∀X = .. ∈ Rn , X2 = x21 + · · · + x2n ,
.
xn

on norme Mn (R) en posant, pour tout A ∈ Mn (R), A2 = supX2 =1 AX2 .


 
Montrer que A2 = ρ(A∗ A), où ρ(A∗ A) = sup{|λ|  λ valeur propre de A∗ A}.

Solution. On remarque déjà que pour tout X ∈ Rn , X2 = X ∗ X , de sorte que
A22 = sup (AX)∗ AX = sup X ∗ (A∗ A)X.
X2 =1 X2 =1

La matrice est symétrique positive (c'est hyper-classique, elle est symétrique car (A∗ A)∗ =
A∗ A
A∗ A∗∗= A∗ A,
positive car ∀X ∈ Rn , X ∗ (A∗ A)X = (AX)∗ AX = AX22 ≥ 0). Il existe donc
une matrice orthogonale P telle que A∗ A = P −1 DP = P ∗ DP où D est une matrice diagonale.
On a
A22 = sup X ∗ (P ∗ DP )X = sup (P X)∗ D(P X).
X2 =1 X2 =1

L'application X → P X étant une isométrie de Rn , ceci s'écrit aussi


A22 = sup Y ∗ DY. (∗)
Y 2 =1

En notant λ1 , . . . , λn les coecients diagonaux de D (ce sont les valeurs propres de la matrice
dénie positive A∗ A, donc positives, et vérient supi λi = ρ(A∗ A)), on a
y  n n
1  
∀Y = .. ∈ Rn tel que Y 2 = 1, Y ∗ DY = λi yi2 ≤ ρ(A∗ A) yi2 = ρ(A∗ A),
.
yn i=1 i=1

donc d'après (∗), A22


≤ ρ(A∗ A).
En choisissant k tel que λk = et par Ek le k-ième
ρ(A∗ A)
vecteur de la base canonique de Rn , on a Ek 2 = 1 et Ek∗ DEk = λk = ρ(A∗ A), donc d'après
(∗) on a A22 ≥ ρ(A∗ A). Finalement, on a montré A22 = ρ(A∗ A).

Exercice 9. Soit E un R-espace vectoriel normé et vériant


∀(x, y) ∈ E 2 , x + y2 + x − y2 = 2x2 + 2y2 . (∗)
Montrer que E est préhilbertien réel ( i.e la norme est issue d'un produit scalaire).
Solution. Il s'agit de montrer qu'il existe un produit scalaire (x, y) → ϕ(x, y) sur E tel que pour
tout x ∈ E , ϕ(x, x) = x2 .
On raisonne par conditions nécessaires. Si un tel produit scalaire existe, alors
∀x, y ∈ E, 4 ϕ(x, y) = ϕ(x + y, x + y) − ϕ(x − y, x − y) = x + y2 − x − y2 .
264 5. ESPACES EUCLIDIENS

On dénit donc ϕ par


1 1
ϕ : E × E → R (x, y) → x + y2 − x − y2 .
4 4
Nous allons montrer que ψ = 4ϕ est un produit scalaire, ce qui montrera le résultat pour ϕ.
Montrons que ψ est bilinéaire. Comme ψ est symétrique en ses arguments, il sut de démontrer
la linéarité pour l'un d'entre eux, par exemple le premier.
 Montrons que ψ est additive par rapport à son premier argument. Pour tout x, y, z ∈ E ,
on a
2(ψ(x, z) + ψ(y, z)) = (2x + z2 + 2y + z2 ) − (2x − z2 + 2y − z2 ),
= (x + y + 2z2 + x − y2 ) − (x + y − 2z2 + x − y2 ) = ψ(x + y, 2z),
où nous avons utilisé l'identité (∗). Posons alors x0 = x + y :
ψ(x0 , 2z) = x0 + 2z2 − x0 − 2z2 = (x0 + 2z2 + x0 2 ) − (x0 − 2z2 + x0 2 )
= (2x0 + z2 + 2z2 ) − (2x0 − z2 + 2z2 ) = 2ψ(x0 , z).
Finalement, on a
2(ψ(x, z) + ψ(y, z)) = ψ(x0 , 2z) = 2ψ(x0 , z) = 2ψ(x + y, z)
donc ψ(x, z) + ψ(y, z) = ψ(x + y, z). (∗∗)
Il nous reste à montrer que pour x, z ∈ E et λ ∈ R, ψ(λx, z) = λψ(x, z). C'est classique !
 Si p ∈ N∗ , alors ψ(px, z) = ψ(x + · · · + x, z) = p ψ(x, z) d'après (∗∗). Or ψ(0, z) = 0 =
ψ(x − x, z) = ψ(x, z) + ψ(−x, z), donc ψ(−x, z) = −ψ(x, z). Finalement, pour tout p ∈ Z,
ψ(px, z) = p ψ(x, z).
 Soit q ∈ N∗ . Alors
1 1 1 1
ψ(x, z) = ψ(q · x, z) = q ψ( x, z) donc ψ( x, z) = ψ(x, z).
q q q q
 Pour tout r ∈ Q, r = q , on a
p

1 1 1
ψ(rx, z) = ψ(p · x, z) = p ψ( x, z) = p ψ(x, z) = r ψ(x, z). (∗∗∗)
q q q
Par construction, ψ est continue, et comme Q est dense dans R, (∗∗∗) entraîne
∀λ ∈ R, ψ(λx, z) = λψ(x, z). (∗∗∗∗)

Les relations (∗∗) et (∗∗∗∗) assurent la bilinéarité de ψ . Comme ψ est symétrique et dénie
positive (on a ψ(x, x) = 4x2 ), ψ dénit bien un produit scalaire. Il en est donc de même de
ϕ = 14 ψ , et comme x2 = ϕ(x, x),  ·  est bien une norme euclidienne.

Exercice 10. Soit A et B deux matrices symétriques de Mn (R). On note a1 ≥ . . . ≥ an


les valeurs propres de A, b1 ≥ . . . ≥ bn celles de B , et c1 ≥ . . . ≥ cn celles de la matrice
C = A + B . Montrer que pour tout k , on a ck ≥ ak + bn .
Solution. Quitte à remplacer la matrice B par B − bn In , on peut supposer bn = 0. Il s'agit donc
de montrer ck ≥ ak . Comme toutes les valeurs propres de B sont positives, B est une matrice
positive.
En notant (E1 , . . . , En ) une base orthonormée de vecteurs propres de A associés aux valeurs
propres a1 ≥ . . . ≥ an , on a
∀X ∈ Vect(E1 , . . . , Ek ), tX(A + B)X = tXAX + tXBX ≥ tXAX ≥ ak X2 (∗)
k k k
car si X = i=1 λi Ei , on a XAX = i=1 ai λi ≥ ak i=1 λi = ak X . Si (F1 , . . . , Fn ) désigne
t 2 2 2

une base orthonormée de vecteurs propres de C associés aux valeurs propres c1 ≥ . . . ≥ cn , on


obtient de manière similaire l'inégalité
t
∀X ∈ Vect(Fk , . . . , Fn ), XCX ≤ ck X2 . (∗∗)
2. ESPACES PRÉHILBERTIENS 265

Comme dim Vect(E1 , . . . , Ek ) + dim Vect(Fk , . . . , Fn ) = k + (n − k + 1) = n + 1, les deux sous-


espaces vectoriels Vect(E1 , . . . , Ek ) et Vect(Fk , . . . , Fn ) ont une intersection non réduite à {0},
donc il existe un vecteur X non nul appartenant à ces deux sous-espaces. Pour ce vecteur X , les
inégalités (∗) et (∗∗) entraînent ak X2 ≤ tX(A + B)X = tXCX ≤ ck X2 , donc ak ≤ ck .

 Exercice 11 (Projection orthogonale dans un espace préhilbertien réel).


Soit E un espace préhilbertien réel et F un s.e.v de E .
1/ Pour tout x ∈ E , on note
Fx = {y ∈ F | x − y = d(x, F ) = inf x − z}.
z∈F

a) Montrer que y ∈ Fx si et seulement si x − y ∈ F . ⊥

b) Montrer que Fx a au plus un élément.


2/ On suppose ici que F est complet.
a) Pour tout x ∈ E , montrer que Fx a exactement un élément. On le note xF .
b) Montrer que E = F ⊕F ⊥ et que x → PF (x) = xF s'identie à la projection orthogonale
sur F .
c) Montrer que F = F ⊥⊥ .
3/ On considère ici E = C([0, 1], R) (fonctions à valeurs réelles continues sur [0, 1]), muni
du produit scalaire  1
(f |g) = f (t)g(t) dt.
0
Soit F = {f ∈ E | f (0) = 0}. Que représente F ⊥ ? Conclure.
Solution. 1/ a) Condition nécessaire. Soit y ∈ Fx . Posons z = x − y et considérons w ∈ F . Pour
tout ρ ∈ R, on a z + ρw ≥ z car z + ρw = x − (y − ρw) et y − ρw ∈ F . On réécrit ceci en
∀ρ ∈ R, z + ρw2 = z2 + 2ρ(z · w) + ρ2 w2 ≥ z2 .
Cette inégalité exprime que la fonction ρ → z2 + 2ρ(z · w) + ρ2 w2 atteint son minimum en
ρ = 0, donc sa dérivée par rapport à ρ en 0 est nulle, ce qui s'écrit z · w = 0. Ceci étant vrai pour
tout w ∈ F , on en déduit que z = x − y ∈ F ⊥ .
Condition susante. Soit y ∈ F tel que x − y ∈ F ⊥ . On a
∀z ∈ F, x − z2 = (x − y) + (y − z)2 = x − y2 + z − y2 (∗)
(car x − y ∈ F⊥ et z − y ∈ F ). La relation (∗) entraîne x − y = inf z∈F x − z, donc y ∈ Fx .
b) Supposons que Fx ait deux éléments y et z . Alors x − y et x − z ∈ F ⊥ d'après a), et donc
y − z = (x − z) − (x − y) ∈ F ⊥. Or y − z ∈ F . Comme F ∩ F⊥ = {0}, on en déduit y − z = 0,
d'où le résultat.
2/a) L'idée est d'utiliser le fait que F soit complet. Nous allons construire une suite de Cauchy,
et montrer que sa limite vérie la condition requise.
Soit δ = inf z∈F x − z. Par dénition de δ , il existe une suite (yn )n∈N de points de F telle
que limn→∞ x − yn  = δ , et donc limn→∞ x − yn 2 = δ 2 .
Dans un e.v.n général, cette relation n'entraîne pas la convergence de (yn ). C'est le caractère
préhilbertien de E qui va nous permettre de montrer qu'elle converge (comme le montre un
dessin). Nous allons pour cela montrer que (yn ) est une suite de Cauchy. La clé est d'utiliser le
théorème de la médiane (voir le théorème 1 page 253), qui entraîne
∀p, q ∈ N, yp − yq 2 + (x − yp ) + (x − yq )2 = 2x − yp 2 + 2x − yq 2 ,
donc  2
 yp + yq 
yp − yq 2 = 2x − yp 2 + 2x − yq 2 − 4 
 x −  .
2 
266 5. ESPACES EUCLIDIENS

Soit ε > 0. Il existe N ∈ N tel que pour tout n ≥ N , x − yn 2 ≤ δ 2 + ε, donc


 2
 yp + yq 
∀p, q ≥ N, yp − yq 2 ≤ 2(δ 2 + ε) + 2(δ 2 + ε) − 4 
 x −  .
2 
yp +yq yp +yq
Or 2 ∈ F , donc x − 2  ≥ δ , d'où
∀p, q ≥ N, yp − yq 2 ≤ 2(δ 2 + ε) + 2(δ 2 + ε) − 4δ 2 = 4ε.
Ceci sut à prouver que (yn ) est une suite de Cauchy. Comme F est complet, cette suite converge
vers une valeur y ∈ F . La continuité de la norme assure le fait que x−y = limn→∞ x−yn  = δ ,
donc y ∈ Fx . L'ensemble Fx est donc non vide, et a donc un seul élément d'après 1/ b).
b) On sait que F ∩ F ⊥ = {0}. Il reste à montrer E = F + F ⊥ , ce qui découle du fait que pour
tout x ∈ E , x = xF + (x − xF ) avec xF ∈ Fx ⊂ F et x − xF ∈ F ⊥ d'après 1/ a).
Pour tout x ∈ E , la décomposition de x selon F ⊕ F ⊥ est x = xF + (x − xF ), ce qui prouve
que x → xF est la projection orthogonale sur F .
c) On sait que F ⊂ F ⊥⊥ . Il reste à montrer F ⊥⊥ ⊂ F . Soit x ∈ F ⊥⊥ . Comme F ⊕ F ⊥ = E , il
existe (y, z) ∈ F × F ⊥ tels que x = y + z . Or z ∈ F ⊥ donc 0 = x · z = y · z + z2 = z2 , donc
z = 0, donc x = y ∈ F . Finalement, on a montré F = F ⊥⊥ .
3/ Nous allons montrer que F ⊥ = {0}. Soit f ∈ F ⊥ . Soit g : x → xf (x). On a g ∈ F , donc
 1
(f |g) = xf 2 (x) dx = 0.
0
Comme x → xf 2 (x) est continue et positive, ceci entraîne que pour tout x ∈ [0, 1], xf 2 (x) = 0,
donc pour tout x ∈ ]0, 1], f (x) = 0, donc f = 0 car f est continue.
On a donc F ⊕ F ⊥ = E , ce qui montre que le résultat 2/ b) est faux lorsque F n'est pas
supposé complet.
Remarque. Ces résultats font des espaces hilbertiens (espaces préhilbertiens complets) des
espaces vectoriels très maniables, même en dimension innie. Une étude plus approfondie
de ces espaces fait l'objet d'une annexe dans le tome d'analyse.

Exercice 12 (Produit de Schur de deux matrices). Soient A = (ai,j )1≤i,j≤n et


B = (bi,j )1≤i,j≤n ∈ Mn (R) deux matrices symétriques. Le produit de Schur de A et B est
déni par la matrice symétrique A ◦ B = (ai,j bi,j )1≤i,j≤n .
a) Si A et B sont positives, montrer que la matrice A ◦ B est positive.
b) Si de plus A et B sont dénies, montrer que A ◦ B est dénie.
c) Si A est positive, montrer que la matrice E = (eai,j )1≤i,j≤n est positive, et qu'elle est
dénie si A est dénie.
Solution. a) On montre d'abord le résultat lorsque rg A = rg B = 1. La signature des formes
quadratiques
n AX et X → X ∗ BX est (1, 0), donc il existe deux formes linéaires f (X) =
X → X ∗
i=1 λi xi et g(X) = i=1 µi xi telles que
n

X ∗ AX = f 2 (X) et X ∗ BX = g 2 (X).
En développant f 2 et g 2 , on s'aperçoit alors que A = (λi λj )1≤i,j≤n et B = (µi µj )1≤i,j≤n . Donc
A ◦ B = [(λi µi )(λj µj )]1≤i,j≤n , donc cette matrice est positive car
n

X ∗ (A ◦ B)X = h2 (X) ≥ 0 avec h(X) = (λi µi )xi .
i=1
Traitons maintenant le cas général. L'entier r désignant le rang de A, on peut écrire
r

X ∗ AX = fi (X)2 ,
i=1
3. COMPLÉMENTS DE COURS 267

où f1 , . . . , fr sont des formes linéaires indépendantes (ceci parce que la signature de A est (r, 0)).
Pour tout i, 1 ≤ i ≤ r, notons Ai la matrice de la forme quadratique fi2 , de sorte que X ∗ Ai X =
. Les matrices Ai sont symétriques positives et derang 1 (leur signature est (1, 0)) et
fi2 (X)
A = ri=1 Ai . On écrirait de même B sous la forme B = sj=1 Bj où s = rg B et où les Bj sont

des matrices symétriques positives de rang 1. Donc A ◦ B = i,j Ai ◦ Bj , somme de matrices
positives, est positive.
b) Les matrices A et B étant dénies positives, on peut écrire
n
 n

X ∗ AX = fi2 (X) et X ∗ BX = gj2 (X),
i=1 j=1

où les formes linéaires (fi )1≤i≤n sont linéairement indépendantes, ainsi que les (gj )1≤j≤n . Notons
(λk,i )i les coecients de fk , (µ,j )j ceux de g , de sorte que
n
 n

fk (X) = λk,i xi et g (X) = µ,j xj .
i=1 j=1

Les matrices
n nquadratiques fk et g 
des formes 2 2 sont A = (λ λ )
k k,i k,j i,j et B = (µ,i µ,j )i,j , et on a
A = k=1 Ak et B = =1 B . Ainsi, A◦B = k, Ak ◦B . Maintenant, l'égalité X ∗ (A◦B)X = 0

entraîne k, X ∗ (Ak ◦ B )X = 0, et les matrices Ak ◦ B étant positives,
 n
2


∀k, , X (Ak ◦ B )X = 0 = λk,i µ,i xi . (∗)
i=1

Fixons . L'égalité (∗) entraîne


 
n µ,1 x1
  .. 
∀k, λk,i (µ,i xi ) = 0 ou encore fk (Y ) = 0 avec Y =  . .
i=1 µ,n xn

Les n formes linéaires (fk )1≤k≤n étant linéairement indépendantes, ceci entraîne Y = 0, donc
µ,i xi = 0 pour tout i, et par sommation g (X) = 0. Ceci étant vrai pour tout , comme les
formes linéaires (g )1≤≤n sont linéairement indépendantes, on a nécessairement X = 0, ce qui
prouve que A ◦ B est dénie.
c) En utilisant le résultat de la question a), on a facilement par récurrence sur m ∈ N que la
matrice Am = (am i,j )1≤i,j≤n est positive. Maintenant, pour tout entier M positif, on a
 M
 M
 1  1 ∗
n ∗
∀X ∈ R , X Am X= X Am X ≥ 0.
m! m!
m=0 m=0

En passant à la limite lorsque M tend vers l'inni, on obtient X ∗ EX ≥ 0, et ceci pour tout X ,
ce qui prouve que E est positive.
Si de plus A est dénie, alors E est dénie car
∀X = 0, X ∗ EX ≥ X ∗ AX > 0.

3. Compléments de cours
Cette section propose quelques études complémentaires très classiques, et souvent
utiles dans les exercices ou les problèmes.
268 5. ESPACES EUCLIDIENS

3.1. Réduction des isométries et des endomorphismes unitaires


Les isométries et les endomorphismes unitaires, bien que n'étant pas autoadjoints,
peuvent se réduire de manière intéressante dans une base orthonormale.
Proposition 1. Soit E un espace euclidien (resp. hermitien) et u ∈ L(E) une isométrie
(resp un endomorphisme unitaire). Si F est un s.e.v de E stable par u, alors F ⊥ est stable
par u.
Démonstration. Il s'agit de montrer que pour tout x ∈ F ⊥ et pour tout y ∈ F , u(x) · y = 0.
Comme u|F est une isométrie, u|F est bijective (on est en dimension nie), donc il existe y  ∈ F
tel que y = u(y  ). On a maintenant
u(x) · y = u(x) · u(y  ) = x · y  = 0.
Ceci étant vrai pour tout x ∈ F ⊥ et pour tout y ∈ F , F ⊥ est bien stable par u. 

Réduction des isométries.


 Théorème 1. Soit E un espace euclidien et u ∈ L(E) une isométrie. Alors il existe
une base orthonormale B de E dans laquelle la matrice de u a la forme par blocs
 
R(θ1 )
 .. 
 . 0 
 
 R(θr ) 
[u]B =  , (∗)
 ε1 
 .. 
 0 . 
εs
où pour tout j , εj ∈ {−1, 1} et pour tout i,
 
cos θi − sin θi
R(θi ) = ∈ M2 (R), avec θi ∈ R, θi ≡ 0 (mod π).
sin θi cos θi
Démonstration. On procède par récurrence sur n = dim E . Pour n = 1, c'est évident. Supposons
le résultat vrai jusqu'au rang n − 1 et montrons le au rang n. Nous traitons deux cas.
Premier cas. L'isométrie u admet au moins une valeur propre réelle ε. Soit x un vecteur
propre normé associé. Comme u(x) = εx = |ε| x et u(x) = x, on a |ε| = 1. De plus
ε ∈ R, on en déduit ε ∈ {−1, 1}. Maintenant, comme F = Vect(x) est stable par u, F ⊥ est stable
par u d'après la proposition 1. En appliquant l'hypothèse de récurrence à u|F ⊥ , on trouve une
base orthonormale B0 de F ⊥ dans laquelle la matrice de u|F ⊥ a la forme (∗). En ajoutant x a la
base B0 , on obtient une base orthonormale B de E dans laquelle la matrice de u a la forme (∗).
Second cas. L'isométrie u n'a aucune valeur propre réelle. On considère l'endomorphisme v =
u + u∗ . Comme v est symétrique, v admet une valeur propre réelle λ associée à un vecteur propre
x. On a (u + u∗ )(x) = λx donc u(u + u∗ )(x) = u2 (x) + x = λu(x), d'où u2 (x) = λu(x) − x (∗∗).
Par ailleurs, la famille (x, u(x)) est libre puisque u n'admet pas de valeur propre réelle. En
posant F = Vect(x, u(x)), on voit que dim F = 2 et que F est stable par u (d'après (∗∗)). Soit
N = ab dc la matrice de u|F dans une base orthonormale B0 de F . Comme u|F est une isométrie,
N ∗ N = In = N N ∗ . Parmi les équations issues de ces égalités, on trouve
a2 + b2 = a2 + c2 = 1 et ab + cd = 0. (∗∗∗)
La première assertion de (∗∗∗) entraîne c = ±b. On ne peut pas avoir c = b car N serait
symétrique ce qui est impossible car u n'admet pas de valeur propre réelle. Donc c = −b = 0, et
d'après la deuxième assertion de (∗∗∗), d = a. Comme de plus a2 + b2 = 1, il existe θ ∈ R tel que
a = cos θ et b = sin θ (et θ ≡ 0 (mod π) car b = 0). Finalement, la matrice N est de la forme
 
cos θ − sin θ
R(θ) = , θ ∈ RπZ.
sin θ cos θ
3. COMPLÉMENTS DE COURS 269

Maintenant, d'après la proposition 1 le s.e.v F ⊥ est stable par u, et u|F ⊥ est une isométrie donc
il existe d'après l'hypothèse de récurrence une base orthonormale B1 de F ⊥ qui diagonalise u|F ⊥ .
La base B obtenue en concaténant B0 et B1 est orthonormale et dans cette base, la matrice de
u a la forme voulue, d'où le théorème. 

Remarque 1. On retrouve ainsi la forme des isométries du plan et de l'espace :


 Les isométries
 θ −directes  du plan sont des rotations d'angle θ (elles ont pour matrice
R(θ) = cossin θ cosθ ), les isométries indirectes des symétries par rapport a des
sin θ

droites (matrice 10 −1 0
). Notez d'ailleurs la relation R(θ)R(θ ) = R(θ + θ ), qui
entraîne la commutativité des rotations dans le plan.
 Les isométries
 directes de  l'espace sont des rotations d'angle θ autour d'un axe
cos θ − sin θ 0
(matrice sin θ cos θ 0 , le dernier vecteur de la base étant l'axe de rotation).
0 0 1
Lorsque θ = π , on parle de retournement.  
cos θ − sin θ 0
Les isométries indirectes de l'espace ont pour matrice sin θ cos θ 0 . Lorsque
0 0 −1
θ = 0, on a aaire à une symétrie par rapport à un plan et on parle alors de réexion.
Remarque 2. La version matricielle de ce théorème est la suivante. Soit M ∈ Mn (R) une
matrice orthogonale. Alors il existe une matrice orthogonale P telle que P −1 M P = P ∗ M P
ait la forme (∗).
Réduction des endomorphismes unitaires.
 Théorème 2. Soit E un espace hermitien et u ∈ L(E) un endomorphisme unitaire. Alors
il existe une base orthonormale qui diagonalise u, et toutes les valeurs propres de u ont
leur module égal à 1.
Démonstration. La preuve est plus simple que la précédente. Il est d'abord clair que toute valeur
propre λ de u vérie |λ| = 1, car si u(x) = λx avec x = 0, on a x = u(x) = |λ| x. On
procède ensuite par récurrence sur n = dim E . Le cas n = 1 est immédiat, et le passage du rang
n − 1 au rang n se fait comme suit.
Le corps de base C étant algébriquement clos, u admet au moins une valeur propre complexe
λ. Soit x un vecteur propre associé, x = 1. La droite F = Vect(x) est stable par u, donc
d'après la proposition 1, l'hyperplan F ⊥ est également stable par u. L'endomorphisme u|F ⊥ est
unitaire, et d'après l'hypothèse de récurrence, il existe une base orthonormale B0 de F ⊥ qui
diagonalise u|F ⊥ . En ajoutant x à B0 , on obtient une base orthonormale de E qui diagonalise u
et le théorème est prouvé. 

Corollaire 1 (Version matricielle). Soit U ∈ Mn (C) une matrice unitaire. Alors il


existe une matrice unitaire P telle que
 
eiθ1
0
 eiθ2 
P −1 U P = P ∗ U P = 
 .. ,

0 .
eiθn
où les θi sont des nombres réels.
3.2. Endomorphismes normaux
Les endomorphismes normaux généralisent les endomorphismes autoadjoints. Comme
nous allons le voir, ils sont caractérisés par la propriété de diagonalisation dans une base
orthonormée.
Dans cette section, sauf mention explicite, E désigne un espace hermitien (on rappelle
qu'un espace hermitien est nécessairement de dimension nie).
270 5. ESPACES EUCLIDIENS

Définition 1. Soit u ∈ L(E). On dit que u est normal si u et u∗ commutent.


Une matrice M ∈ Mn (C) est dite normale si M et M ∗ commutent.
Proposition 2. Soit u ∈ L(E) un endomorphisme normal. Alors pour tout x ∈ E ,
u(x) = u∗ (x).
Démonstration. Il sut d'écrire que
∀x ∈ E, u(x)2 = u(x) · u(x) = x · u∗ [u(x)] = x · u[u∗ (x)] = u∗ (x) · u∗ (x) = u∗ (x)2 .

Nous allons montrer qu'un endomorphisme est normal si et seulement s'il se diago-
nalise dans une base orthonormée. Les quelques résultats qui suivent nous serviront de
préliminaires à la démonstration de ce théorème.
Lemme 1. Soit u ∈ L(E) et F un s.e.v de E stable par u. Alors F ⊥ est stable par u∗ .
Démonstration. Soit x ∈ F . Par hypothèse, u(x) ∈ F donc
∀y ∈ F ⊥ , 0 = u(x) · y = x · u∗ (y).
Ceci étant vrai pour tout x ∈ F , on a u∗ (y) ∈ F ⊥ . Or on peut choisir y comme l'on veut dans
F ⊥ , et donc F ⊥ est stable par u∗ . 

Remarque 3. Notez que ce résultat n'est pas spécique aux endomorphismes normaux.
Lemme 2. Soit u ∈ L(E) un endomorphisme normal. Si Eλ est un sous-espace propre de
u (associé à une valeur propre λ), alors Eλ⊥ est stable par u.
Démonstration. Comme u et u∗ commutent, Eλ est stable par u∗ (voir la proposition 7 page 175),
donc d'après le lemme 1, Eλ⊥ est stable par (u∗ )∗ = u. 
Nous pouvons maintenant énoncer et démontrer notre résultat principal.
 Théorème 3. Soit u ∈ L(E). Les assertions (i), (ii) et (iii) sont équivalentes.
(i) u est normal.
(ii) u se diagonalise dans une base orthonormale de E .
(iii) u et u∗ se diagonalisent dans une base orthonormale commune.
Démonstration. Nous montrerons (i) =⇒ (ii), (ii) =⇒ (iii) et (iii) =⇒ (i).
 (i) =⇒ (ii). On procède par récurrence sur n = dim E . Pour n = 1, c'est évident. Sinon,
supposons le résultat vrai jusqu'au rang n − 1 et montrons le au rang n. Le corps de base de E
est C, donc u admet au moins une valeur propre λ. Soit Eλ le sous-espace propre correspondant.
Le sous-espace F = Eλ⊥ est stable par u (lemme 2) et par u∗ (lemme 1). Comme u|F et (u|F )∗ =
(u∗ )|F commutent et que dim F ≤ n − 1, il existe d'après l'hypothèse de récurrence une base
orthonormale B1 de F qui diagonalise u|F . Si maintenant B2 désigne une base orthonormale de
Eλ , on voit que B = (B1 , B2 ) est une base orthonormale de E diagonalisant u.
 (ii) =⇒ (iii). Soit B une base orthonormale diagonalisant u, M la matrice de u dans B . La
matrice de u∗ dans B est M ∗ . La matrice M est diagonale donc M ∗ est diagonale, ce qui entraîne
que la base B diagonalise u et u∗ .
 (iii) =⇒ (i). Soit B une base orthonormale diagonalisant u et u∗ . Les matrice M = [u]B et
M ∗ = [u∗ ]B étant diagonales, elles commutent, donc u et u∗ commutent. 

Corollaire 2 (Version matricielle). Soit M ∈ Mn (C) une matrice. Alors M est


normale si et seulement s'il existe P ∈ Mn (C), P unitaire, telle que P ∗ M P = P −1 M P
est diagonale.
3. COMPLÉMENTS DE COURS 271

Démonstration. Notons B la base canonique de Cn . On munit Cn du produit scalaire hermitien


usuel, et on désigne par u l'endomorphisme de Cn tel que [u]B = M .
On montre la condition nécessaire. Si M est normale, alors u est normal donc il existe une
base B  orthonormale qui diagonalise u. Si P désigne la matrice de passage de B à B  , P est
unitaire et P −1 M P est diagonale.
La réciproque est immédiate, car si D = P ∗ M P , D est diagonale, donc D et D∗ commutent,
d'où
(P ∗ M ∗ P )(P ∗ M P ) = (P ∗ M P )(P ∗ M ∗ P ) donc P ∗ M ∗ M P = P ∗ M M ∗ P,
ce qui entraîne que M et M ∗ commutent. 

Remarque 4. Attention, à la diérence du cas autoadjoint, la matrice diagonale obtenue


n'est pas forcément à coecients réels.
Cas des matrices réelles. Lorsque M est une matrice normale à coecients réels, il
est intéressant d'avoir une réduction de M dans Mn (R). C'est le but de ce qui suit. Nous
commençons par un petit lemme.
Lemme 3. Soit E un espace euclidien de dimension 2. Soit u ∈ L(E) un endomorphisme
normal n'admettant pas de valeurs propres réelles. Dans toute base B orthonormale de E ,
la matrice de u a la forme
 
a −b
[u]B = , avec b = 0.
b a
Démonstration. Écrivons  
a c
M = [u]B = .
b d
On a b = 0 puisque u est sans valeur propre réelle. Comme u est normal, M ∗ M = M M ∗ . Parmi
les équations découlant de cette égalité, on trouve
a2 + c2 = a2 + b2 et ab + cd = ac + bd. (∗)
La première assertion de (∗) entraîne b = c ou b = −c.
Si b = c, alors M est symétrique, ce qui est impossible puisque u est sans valeur propre réelle.
Donc b = −c. Maintenant, la deuxième assertion de (∗) s'écrit 2(a − d)b = 0, et comme b = 0,
on a a = d. Finalement, on a c = −b et d = a, on en déduit que la matrice de u dans la base B
a bien la forme annoncée. 

Théorème 4. Soit E un espace euclidien, et u ∈ L(E) un endomorphisme normal. Alors


il existe une base orthogonale B de E telle que
 
λ1
 .. 
 . 0 
 
 λr 
[u]B =  , (∗)
 τ1 
 .. 
 0 . 
τs
 
aj −bj
où pour tout i, λi ∈ R et pour tout j , τj = ∈ M2 (R).
bj aj
Démonstration. On procède par récurrence sur n = dim E . Pour n = 1, c'est évident. Supposons
le résultat vrai jusqu'au rang n − 1 et montrons le au rang n. Nous nous servirons des lemmes 1
et 2 qui restent vrais lorsque E est euclidien.
Si u admet au moins une valeur propre réelle λ, on pose Eλ = Ker(u − λ IdE ). Le s.e.v
F = Eλ⊥ est stable par u (lemme 1) et par u∗ (lemme 2). Comme u|F et u∗|F commutent et
que dim F ≤ n − 1, il existe d'après l'hypothèse de récurrence une base orthonormale B1 de F
272 5. ESPACES EUCLIDIENS

telle que [u|F ]B1 a la forme (∗). Si B2 désigne une base orthonormale de Eλ , on voit alors que
B = (B1 , B2 ) est une base orthonormale de E dans laquelle [u]B a la forme (∗).
Sinon u est sans valeur propre réelle. Soit Q = X 2 − 2αX + β un facteur irréductible dans
R[X] (on a donc α2 − β < 0) du polynôme minimal πu de u, et N = Ker Q(u).
On a N = {0}. En eet, si N = 0 alors Q(u) est inversible. En notant R le polynôme tel que
πu = QR, on a donc Q(u)R(u) = 0 donc R(u) = 0 par inversibilité de Q(u), ce qui est absurde
compte tenu de la dénition du polynôme minimal de u.
Il est clair que N est stable par u. Le s.e.v N est également stable par u∗ car la commu-
tativité de u et u∗ entraîne u∗ Q(u) = Q(u)u∗ . Posons v = u|N . On a v ∗ = u∗|N , de sorte que
l'endomorphisme v ∗ v = (u∗ u)|N est symétrique et admet donc une valeur propre µ ∈ R. Soit
x ∈ N , x = 0, tel que v ∗ v(x) = µx. Posons F = Vect(x, u(x)). Comme u n'admet pas de valeur
propre réelle, x et u(x) forment une famille libre donc dim F = 2. Le s.e.v F est stable par u
puisque comme x ∈ N , on a u2 (x) = 2αu(x) − βx (∗∗).
Nous allons montrer que F est également stable par u∗ . Remarquons tout d'abord que l'égalité
(∗∗) entraîne F = Vect(u(x), u2 (x)) (ceci car β = 0, Q étant irréductible sur R[X]). On écrit
maintenant
u∗ [u(x)] = v ∗ v(x) = µx ∈ F
et comme u et u∗ commutent,
u∗ [u2 (x)] = u ◦ u∗ [u(x)] = u(µx) = µu(x) ∈ F,

ce qui achève de montrer que F est stable par u∗ .


Comme (u|F )∗ = (u∗ )|F , u|F est un endomorphisme normal. D'après le lemme 3, dans une
base orthonormée B2 de F , la matrice de u|F est de la forme
 
a −b
τ= .
b a

Maintenant, on a vu que F est stable par u∗ , donc F ⊥ est stable par u∗∗ = u d'après le lemme 1.
Le même lemme montre que, F étant stable par u, F ⊥ est stable par u∗ . Donc (u|F ⊥ )∗ = (u∗ )|F ⊥ ,
ce qui prouve que u|F ⊥ est normal. Comme dim F ⊥ = n−2 < n, l'hypothèse de récurrence assure
l'existence d'une base B1 orthonormale de F ⊥ dans laquelle la matrice de u a la forme (∗).
La base B = (B1 , B2 ) est alors une base orthonormale dans laquelle la matrice de u a la
forme (∗). 

Remarque 5. En termes de matrice, ce théorème s'exprime comme suit. Soit M ∈ Mn (R)


une matrice normale. Alors il existe une matrice orthogonale P ∈ Mn (R) telle que
P −1 M P ait la forme (∗).

Réduction des matrices antisymétriques. Les matrices réelles antisymétriques sont


normales. Il est donc possible de leur appliquer les résultats précédents. Plus précisément,
nous avons le théorème suivant.
Théorème 5. Soit M ∈ Mn (C) une matrice vériant M ∗ + M = 0. Alors il existe une
matrice unitaire U telle que U −1 M U = U ∗ M U = D soit diagonale, et les coecients de
D sont imaginaires purs.
Démonstration. Comme M ∗ = −M , M est une matrice normale, et d'après le corollaire du
théorème 3, il existe une matrice unitaire U telle que
 
λ1 0
D = U −1 M U = U ∗ M U = 
 ... 
,
0 λn
3. COMPLÉMENTS DE COURS 273

avec pour tout i, λi ∈ C. Comme


 
λ1 + λ1 0

D∗ + D =  ...  ∗ ∗ ∗ ∗ ∗
 = U M U + U M U = U (M + M )U = 0,
0 λ n + λn
on a λi + λi = 0 pour tout i, ce qui prouve que les λi sont imaginaires purs, d'où le résultat. 
Remarque 6. Ce résultat est vrai en particulier pour les matrices réelles antisymétriques.
Si on veut rester dans R, on utilise le résultat qui suit.
Théorème 6 (Version réelle). Soit M ∈ Mn (R) une matrice antisymétrique. Alors il
existe une matrice orthogonale P telle que
 
0
 .. 
 . 0 
 
 0 
P −1 M P = P ∗ M P =  
 τ1 
 . 
 0 .. 
τs
 
0 b
où les τi sont des matrices de M2 (R) de la forme , où b ∈ R.
−b 0
Démonstration. Comme M ∗ = −M , M est une matrice normale. On peut donc utiliser le théo-
rème 4 qui assure l'existence d'une matrice orthogonale P telle que
 
λ1
 ... 
 0 
 
−1 ∗  λr 
P MP = P MP =  ,
 τ1 
 ... 
 0 
τs
 
aj b j
où les λi ∈ R et où τj = ∈ M2 (R). Comme D∗ = P ∗ M ∗ P = −P ∗ M P = −D,
−bj aj
D est antisymétrique. Ses termes diagonaux sont donc nuls, c'est-à-dire λi = 0 pour tout i et
aj = 0 pour tout j , d'où le résultat. 

Remarque 7. Lorsqu'on applique le théorème pour M ∈ Mn (R) antisymétrique avec n


impair, on voit qu'il doit y avoir au moins un zéro sur la diagonale de P −1 M P . La matrice
M n'est donc pas inversible. On peut retrouver directement ce résultat en écrivant que
det M = det( tM ) = det(−M ) = (−1)n det(M ) = − det M , ce qui entraîne det M = 0.
Les endomorphismes unitaires et les isométries sont aussi des endomorphismes nor-
maux. En appliquant les théorèmes 3 et 4, on retrouve facilement les réductions obtenues
dans la partie 3.1.
Il est possible d'obtenir la réduction des matrices antisymétriques par des moyens plus
directs, en utilisant des méthodes du même type que celles de la partie 3.1 (cela constitue
un excellent exercice).
3.3. Inégalité d'Hadamard
Nous nous proposons de montrer le théorème suivant.
 Théorème 7. Les vecteurs colonnes X1 , . . . , Xn d'une matrice M ∈ Mn (C) vérient
| det M | ≤ X1  · · · Xn , (∗)
274 5. ESPACES EUCLIDIENS


où pour tout i, Xi  = Xi∗ Xi désigne la norme hermitienne standard.
Si pour tout i, Xi = 0, l'inégalité (∗) est une égalité si et seulement si la famille (Xi )
est orthogonale.
Démonstration. Si det M = 0, l'inégalité est évidemment vériée. Sinon, (X1 , . . . , Xn ) forme une
base de Cn . En utilisant le procédé d'orthonormalisation de Schmidt (voir la partie 2.2 de ce
chapitre), on construit une base orthogonale (Y1 , . . . , Yn ) de Cn telle que
∀k, Yk = Xk + λ1,k Y1 + · · · + λk−1,k Yk−1 , λi,k ∈ C.
On ne change pas un déterminant en retranchant à une colonne une combinaison linéaire des
autres, ce qui prouve det M = det N , où N = (Y1 | · · · |Yn ) est la matrice dont les vecteurs
colonnes sont les Yi . Posons D = N ∗ N = (di,j )1≤i,j≤n . On voit facilement que di,j = Yi∗ Yj . Les
Yi étant orthogonaux deux à deux, on a di,j = 0 dès que i = j . Par ailleurs, di,i = Yi∗ Yi = Yi 2 ,
d'où  
Y1 2 0

N ∗N =  ... 
,
0 Yn 2
et donc n

det(N ∗ N ) = det(N ∗ ) det(N ) = | det(N )|2 = Yi 2 ,
i=1
n
ce qui entraîne | det N | = i=1 Yi . Or pour tout k , Xk = Yk − λ1,k Y1 − · · · − λk−1,k Yk−1 , donc
2
Xk  = Yk 2 + |λ1,k |2 Y1 2 + · · · + |λk−1,k |2 Yk−1 2 . (∗)
Cette égalité entraîne Yk  ≤ Xk , donc
n
 n

| det M | = | det N | = Yi  ≤ Xi . (∗∗)
i=1 i=1
Cas d'égalité. Si les Xi sont orthogonaux entre eux deux à deux, on a Xi = Yi pour tout i,
et d'après ce que l'on a vu plus haut, | det M | = | det N | = Y1  · · · Yn  = X1  · · · Xn .
Réciproquement, supposons qu'il y ait égalité et que pour tout i, Xi = 0. Alors det M = 0.
Il faut alors que (∗∗) soit une égalité, c'est à dire Y1  · · · Yn  = X1  · · · Xn  = 0. Or, pour
tout i, Yi  ≤ Xi , on doit donc avoir Xi  = Yi  pour tout i. Ceci entraîne avec (∗) que tous
les λj,k sont nuls, donc que Yk = Xk pour tout k. Les Xi sont donc deux à deux orthogonaux. 
Remarque 8. Le théorème reste vrai dans Mn (R) ⊂ Mn (C).
3.4. Matrices de Gram
Définition 2. Soit E un espace préhilbertien (réel ou complexe) et x1 , · · · xn n vecteurs
de E . On appelle matrice de Gram de x1 , . . . , xn la matrice [(xi · xj )]1≤i,j≤n et déterminant
de Gram le déterminant de cette matrice, noté G(x1 , . . . , xn ).
Proposition 3. Toute matrice de Gram est hermitienne positive. Réciproquement, toute
matrice hermitienne positive est une matrice de Gram.
De plus, la matrice de Gram de n vecteurs x1 , . . . , xn est dénie si et seulement si la
famille (xi )1≤i≤n est libre.
Démonstration. Soient x1 , . . . , xn des vecteurs d'un espace préhilbertien E et M leur matrice de
Gram. Soit F = Vect(x1 , . . . , xn ) et m = dim F . Fixons nous une base orthonormée B de F , et
pour tout i notons Xi le vecteur colonne des coordonnées de xi dans B. On a xi · xj = Xi∗ Xj , de
sorte que M = N ∗ N où N désigne la matrice m × n dont les colonnes sont les Xi . Ceci montre
que la matrice carrée M de taille n est hermitienne (M ∗ = N ∗ N ∗∗ = N ∗ N = M ) et positive (car
pour tout vecteur colonne X , X ∗ M X = (X ∗ N ∗ )(N X) = (N X)∗ (N X) = N X2 ,  ·  désignant
la norme euclidienne (resp. hermitienne) standard).
Réciproquement, si M = (ai,j )1≤i,j≤n est une matrice hermitienne positive, d'après l'exer-
cice 1 page 257, il existe une matrice n × n hermitienne H telle que M = H 2 = H ∗ H . Si on
3. COMPLÉMENTS DE COURS 275

désigne les vecteurs colonne de H par X1 , . . . , Xn , on voit facilement que la relation M = H ∗ H


entraîne ai,j = Xi∗ Xj = Xi · Xj . La matrice M est bien une matrice de Gram.
Cas déni. Une matrice de Gram M est dénie si et seulement si (X ∗ M X = 0 =⇒ X = 0).
En réutilisant les notations précédentes, on a X ∗ M X = N X2 . Donc M est dénie si et
seulement si (N X2 = 0 =⇒ X = 0). Ceci équivaut à dire que Ker N = {0}, ou encore que les
vecteurs xi forment une famille libre. 
Les déterminants de Gram permettent de calculer la distance d'un point à un s.e.v,
avec le théorème suivant.

 Théorème 8. Soit E un espace préhilbertien, V un sous-espace de E muni d'une base


(e1 , . . . , en ) (pas forcément orthonormale). Soit x ∈ E . Alors la distance d de x à V
(d = inf y∈V x − y) vérie
G(e1 , . . . , en , x)
d2 = .
G(e1 , . . . , en )
Démonstration. D'après la proposition 2 de la partie 2.2 (page 254), on a d = z où z = x − y ,
y étant la projection orthogonale de x sur V . On a alors
∀i, ei · y = ei · x et x2 = y2 + z2 ,
ce qui entraîne
   
e1 · e1 ··· e1 · en e1 · x e1 · e1 ··· e1 · e n e1 · y
 .. .. ..
  .. .. .. 

M = . . .
 
= . . . 
.
 e n · e1 · · · en · e n en · x   e n · e1 · · · en · e n en · y 
x · e1 · · · x · en x·x y · e1 · · · y · en y2 + z2
La linéarité de det M par rapport à sa dernière colonne entraîne det M = det P + det Q, où
   
e1 · e1 ··· e1 · en e1 · y e1 · e1 ··· e1 · en 0
 .. .. ..   .. .. .. 

P = . . . 
 et Q = 
 . . . 
.
 en · e1 · · · en · e n en · y   e n · e1 · · · en · e n 0 
y · e1 · · · y · en y2 y · e1 · · · y · en z2

Or det P = G(e1 , . . . , en , y) = 0 car y ∈ Vect(e1 , . . . , en ) et det Q = z2 G(e1 , . . . , en ). Finale-


ment
G(e1 , . . . , en , x) = det M = det Q = z2 G(e1 , . . . , en ) = d2 G(e1 , . . . , en ).


3.5. Exercices
Exercice 1. Soit A = (ai,j )1≤i,j≤n ∈ Mn (R) telle que
∃c > 0, ∀(i, j), |ai,j | ≤ c.
Montrer que | det M | ≤ cn nn/2 .
Solution. Il sut d'utiliser l'inégalité d'Hadamard (qu'il faut, au besoin, savoir redémontrer). No-
tons A1 , . . . , An les vecteurs colonnes de A. D'après le théorème 7, on a | det M | ≤ A1  · · · An 
où pour tout j ,

  n
 √ √
Aj  = A∗j Aj =  a2i,j ≤ nc2 = n c.
i=1

On en déduit | det M | ≤ ( n c)n = cn nn/2 .
276 5. ESPACES EUCLIDIENS

Exercice 2. Soit E un espace euclidien de dimension n ∈ N∗ .


a) On suppose qu'il existe n + 1 vecteurs u1 , . . . , un+1 de E de norme 1, vériant
∃α ∈ R, α = 1, tel que ∀i = j, ui · uj = α.
Déterminer α. (Indication. On pourra utiliser les matrices de Gram.)
b) Démontrer qu'il existe eectivement de tels vecteurs dans E .
Solution. a) Notons M la matrice de Gram des vecteurs u1 , . . . , un+1 (voir la partie 3.4). On a
 
1 α ··· α
 ... .. 
 α 1 . 
M = .. ... ...  ∈ Mn+1 (R). (∗)
 . α 
α ··· α 1

Par ailleurs, la famille (u1 , . . . , un+1 ) est liée (n + 1 vecteurs en dimension n), donc d'après la
proposition 3, det M = G(u1 , . . . , un+1 ) = 0.
Calculons det M . En additionnant les n premières colonnes à la dernière, on obtient
   
 1 α ··· 1 + nα   1 α ··· 1 

 ... ... .. 


 ... ... .. 
 α .   α . 
det M =  .. ...  = (1 + nα)  .. ... .
 . 1 
1 + nα   . 1 1 
 
 α ··· α 1 + nα   α ··· α 1 

En retranchant ensuite α fois la dernière colonne aux n premières, on en déduit


det M = (1 − α)n (1 + nα). (∗∗)

(Ce résultat peut s'obtenir également à partir du résultat décrit dans le problème 1 page 214
donnant la liste des valeurs propres de M ).
Comme det M = 0, l'égalité (∗∗) montre α = −1/n car α = 1 par hypothèse.
b) Notons M la matrice symétrique (*) dans laquelle on choisit α = −1/n. D'après le problème 1
page 214, les valeurs propres de M sont 0 et 1 − α = 1 + n1 . Elles sont positives, donc M est
une matrice positive. D'après la proposition 3, M est une matrice de Gram, c'est-à-dire qu'il
existe n + 1 vecteurs U1 , . . . , Un+1 de Rn+1 tels que M soit la matrice de Gram des Ui . Ainsi, les
vecteurs Ui vérient la condition de a) avec α = − n1 . Comme det M = 0 = G(U1 , . . . , Un+1 ), la
famille (Ui )1≤i≤n+1 est liée. Ainsi, il existe un s.e.v F de Rn+1 de dimension n contenant les Ui .
Résumons. Nous avons trouvé un espace euclidien de dimension n (ici F ) et n + 1 vecteurs
de cet espace vériant la condition de la question a). Par isomorphisme d'espace euclidien, on
peut donc trouver n + 1 vecteurs u1 , . . . , un+1 dans E vériant cette condition.

Exercice 3. Soit E un espace hermitien et u ∈ L(E). Montrer que l'endomorphisme u


est normal si et seulement s'il existe P ∈ C[X] tel que u∗ = P (u).

Solution. Tout polynôme en u commutant avec u, la condition susante est immédiate. Montrons
maintenant la condition nécessaire. Supposons u normal. D'après le théorème 3, u se diagonalise
dans une base B orthonormée de E . Autrement dit, il existe des nombres complexes distincts
λ1 , . . . , λr tels que
 
λ1 Iα1 0

[u]B =  ... 
,
0 λ r I αr
3. COMPLÉMENTS DE COURS 277

où les αi sont des entiers naturels non nuls. La base B étant orthonormée, on a
 
λ1 I α1 0
t 
[u∗ ]B = [u]B =  ... 
.
0 λr I αr
Notons P ∈ C[X] le polynôme de Lagrange (voir la partie 2.4 page 65) tel que P (λi ) = λi pour
tout i (on peut car les (λi )1≤i≤r sont deux à deux distincts). On voit alors que P ([u]B ) = [u∗ ]B ,
donc P (u) = u∗ .

Exercice 4. a) Soit A = (ai,j )1≤i,j≤n ∈ Mn (C) une matrice hermitienne dénie positive.
Démontrer que det A ≤ a1,1 · · · an,n . Donner une condition nécessaire et susante pour
que cette inégalité soit une égalité.
b) Soit p ∈ N tel que 0 < p < n et q = n − p. On écrit A sous la forme
 
A1 B
A= avec A1 ∈ Mp (C) et A2 ∈ Mq (C).
B ∗ A2
Montrer que det A ≤ det A1 · det A2 .
Solution. a) D'après la proposition 3, on peut voir A comme la matrice de Gram de n vecteurs
U1 , . . . , Un de Cn . Si M désigne la matrice dont les vecteurs colonnes sont
 U1 , . . . , Un , on a
A = M ∗ M . D'après l'inégalité d'Hadamard (théorème 7), on a | det M | ≤ ni=1 Ui , où pour
tout i, Ui 2 = Ui∗ Ui = ai,i . Finalement, on peut écrire
n
 n

det A = | det M |2 ≤ Ui 2 = ai,i .
i=1 i=1

L'égalité se produit lorsque la matrice M vérie | det M | = ni=1 Ui , c'est à dire lorsque
les Ui sont orthogonaux entre eux deux à deux (voir le théorème 7), ce qui équivaut à dire que
∀i = j, Ui · Uj = ai,j = 0, ou encore que A est diagonale.
b) Nous nous ramenons d'abord au cas plus simple où A1 et A2 sont des matrices diagonales.
Les matrices A1 et A2 sont symétriques, il existe donc deux matrices unitaires P ∈ Mp (C) et
Q ∈ Mq (C) telles que P ∗ A1 P = D1 et Q∗ A2 Q =D2 , où D1 et D2 sont deux matrices diagonales
réelles. En dénissant la matrice par blocs M = P0 Q0 ∈ Mn (C), un calcul simple donne
   
P ∗ A1 P P ∗ BQ D1 P ∗ BQ
M ∗ AM = =C avec C = .
Q∗ B ∗ P Q∗ A2 Q Q∗ B ∗ P D2
La matrice C est congrue à A, donc hermitienne dénie positive, donc d'après le résultat de la
question précédente, le déterminant de C est inférieur au produit de ses coecients diagonaux.
Comme D1 et D2 sont des matrices diagonales, ceci s'écrit det C ≤ det D1 · det D2 . Comme
det M = det P · det Q = 1 (M est même une matrice unitaire), on en déduit
det A = det(M ∗ AM ) = det C ≤ det D1 · det D2 = det A1 · det A2 .

Exercice 5 (Exponentielle d'une matrice antisymétrique). 1/ Soit θ ∈ R.


Montrer l'égalité    
0 −θ cos θ − sin θ
exp = .
θ 0 sin θ cos θ
2/a) Soit n ∈ N∗ . Montrer que P ∈ Mn (R) est une matrice orthogonale directe si et
seulement s'il existe une matrice antisymétrique A ∈ Mn (R) telle que P = exp(A).
b) En déduire que le groupe spécial orthogonal SOn est connexe par arcs.
278 5. ESPACES EUCLIDIENS

3/ (Cas de R3 ) Soit v = (a, b, c) un vecteur non nul de l'espace euclidien R3 .


a) Montrer que l'exponentielle de la matrice antisymétrique
 
0 −c b
v̂ =  c 0 −a 
−b a 0

est la matrice de la rotation d'axe e = v/v, d'angle θ = v, où  ·  désigne la norme


euclidienne (indication : remarquer que v̂ est la matrice de l'endomorphisme X → v ∧ X ,
où ∧ désigne le produit vectoriel).
b) Montrer la formule de Rodrigues
sin θ 1 − cos θ 2
exp(v̂) = I3 + v̂ + v̂ .
θ θ2

 
Solution. 1/ Notons J = 01 −10 . Un calcul facile donne J = −I2 , ce qui entraîne pour tout
2

n ∈ N les égalités J = (−1) I2 et J


2n n 2n+1 = (−1) J . On en déduit
n

+∞ n
 +∞
 +∞

θ (−1)n θ2n (−1)n θ2n+1
exp(θJ) = Jn = I2 + J = (cos θ)I2 + (sin θ)J,
n! (2n)! (2n + 1)!
n=0 n=0 n=0

ce qui est précisément le résultat demandé.


2/a) La condition susante est immédiate : si A ∈ Mn (R) est une matrice antisymétrique,
alors la matrice P = exp(A) vérie tP P = exp( tA) exp(A) = exp(−A) exp(A) = In . Enn, on a
det(P ) = det(exp(A)) = exp(tr A) = 1 (voir l'exercice 2, page 196).
Montrons maintenant la condition nécessaire. Soit P ∈ Mn (R) une matrice orthogonale
directe, soit u ∈ L(Rn ) son isométrie associée. D'après le théorème 1 page 268, il existe une base
orthonormale B de Rn dans laquelle la matrice de u a la forme
 
R(θ1 )
 ... 
 0 
 
 R(θr ) 
[u]B =  ,
 ε1 
 ... 
 0 
εs

où pour tout i, R(θi ) est la matrice de rotation 2 × 2 d'angle θi , et où εj ∈ {−1, 1} pour tout
j . Par hypothèse, u est une isométrie directe donc det u = 1. Le calcul de déterminant par blocs
donne
det u = det R(θ1 ) · · · det R(θr ) ε1 · · · εs = ε1 · · · εs .

Ainsi, le produit des εi vaut 1, donc il y en a un nombre pair 2p (avec p ∈ N) qui valent −1, et
les q autres valent 1 (avec 2p + q = s). Quitte à permuter les s derniers vecteurs de la base B ,
on peut même supposer que les 2p premiers εj valent −1, et les q derniers valent 1. Comme la
matrice −1 0 −1 est une matrice de rotation d'angle π , il revient au même de dire que la matrice
0

de u dans B a la forme
 
R(θ1 )

 ... 0 

[u]B =  ,
 R(θm ) 
0
Iq
3. COMPLÉMENTS DE COURS 279

avec θi = π pour r < i ≤ m = r + p. Le résultat de la question 1/ nous permet maintenant de


remarquer que
 
θ1 J

 ... 0 

[u]B = exp(M ) où M = ,
 θm J 
0
0
 0 −1 
avec J = 1 0 . La matrice par blocs M est antisymétrique car J est antisymétrique.
En notant Q la matrice de passage de la base canonique de Rn à la base B (c'est une
matrice orthogonale), on a donc montré que P = tQ exp(M )Q. En posant A = tQM Q, on a donc
P = exp(A) et la matrice A est antisymétrique car tA = tQ tM Q = tQ(−M )Q = −A.
b) Soient deux matrices P et Q dans SOn . On peut écrire P = exp(A) et Q = exp(B) avec A et
B antisymétriques d'après la question précédente. La question précédente nous assure également
que le chemin continu [0, 1] → Mn (R) t → exp((1−t)A+tB) est à valeur dans SOn (la matrice
(1 − t)A + tB est antisymétrique), donc le groupe spécial orthogonal est bien connexe par arcs.
3/a) Suivons l'indication et considérons l'endomorphisme u : R3 → R3 X → v ∧ X . On
remarque aisément que la matrice de u dans la base canonique de R3 est la matrice v̂ . Partant
du vecteur e = v/v = 1θ v , on le complète avec deux vecteurs e1 et e2 de sorte que (e1 , e2 , e)
soit une base orthonormale directe de R3 . Comme v = θe, on a
u(e1 ) = θe ∧ e1 = θe2 , u(e2 ) = θe ∧ e2 = −θe1 , u(e) = θe ∧ e = 0,
autrement dit la matrice de u dans la base B a la forme par blocs
 
θJ 0
[u]B = (∗)
0 0
 0 −1 
où J = 1 0 . Nous avons vu que exp(θJ) est la matrice 2 × 2 de rotation d'angle θ, donc
 
cos θ − sin θ 0
exp([u]B ) =  sin θ cos θ 0  . (∗∗)
0 0 1
Comme exp([u]B ) est aussi la matrice de exp(u) dans la base B , ceci entraîne que exp(u) est la
rotation autour du vecteur e d'angle θ, d'où le résultat.
b) En utilisant la forme par bloc (∗) de la matrice de u dans la base B , on obtient
   
sin θ 1 − cos θ J 0 −I2 0
I3 + [u]B + ([u]B )2 = I3 + sin θ + (1 − cos θ)
θ θ2 0 0 0 0
ce qui s'écrit encore
 
cos θ − sin θ 0
sin θ 1 − cos θ
I3 + [u]B + ([u]B )2 =  sin θ cos θ 0  .
θ θ2 0 0 1
D'après la forme (∗∗), ceci est précisément l'exponentielle de la matrice u dans la base B . D'où
le résultat par changement de base.

Exercice 6. 1/ Soit n un entier naturel non nul. Montrer que l'application


 1
ϕ: R →R n
(a1 , . . . , an ) → (1 + a1 x + · · · + an xn )2 dx.
0
admet un minimum µ, atteint en un point unique de Rn , et calculer µ en utilisant l'ex-
pression de la distance d'un point à un s.e.v en fonction des déterminants de Gram.
2/ Retrouver la valeur de µ directement, sans utiliser les déterminant de Gram.
280 5. ESPACES EUCLIDIENS

Solution. 1/ Munissons le R-e.v E = C([0, 1], R) des fonctions continues de [0, 1] dans R du
produit scalaire  1
∀f, g ∈ E, f, g = f (t)g(t) dt.
0
Par commodité de notation, pour tout entier i on désigne par xi la fonction [0, 1] → R x → xi .
En notant En = Vect(x, . . . , xn ), on remarque que
n

ϕ(a1 , . . . , an ) = 1 − P 2 , où P = − ai xi ∈ En ,
i=1
et où  .  désigne la norme issue du produit scalaire  , . Déterminer µ = inf a∈Rn ϕ(a), c'est
donc rechercher d(1, En )2 = inf P ∈En 1 − P 2 = µ.
La proposition 2 de la page 254 assure l'existence et l'unicité d'un point P0 de En tel que
1 − P0  = d(1, En ) (de plus, P0 est la projection orthogonale de 1 sur En ). Le minimum de ϕ
est donc atteint en un point unique de Rn . D'après le théorème 8 sa valeur µ est donnée par
G(1, x, . . . , xn )
µ = d(1, En )2 = . (∗)
G(x, . . . , xn )
Comme xi , xj  = 1/(i + j + 1), on a
   
1 1
G(1, x, . . . , xn ) = det et G(x, . . . , xn ) = det .
i+j−1 1≤i,j≤n+1 i+j+1 1≤i,j≤n
Ces déterminants sont des déterminants de Cauchy (voir l'exercice 7, page 150) que l'on sait
calculer. Ils valent respectivement
 
1≤i<j≤n+1 (i − j)2 1≤i<j≤n (i − j)2
n
G(1, x, . . . , x ) =  et G(x, . . . , x ) =  n
.
1≤i,j≤n+1 (i + j − 1) 1≤i,j≤n (i + j + 1)
 
En utilisant l'égalité (∗) et l'identité 1≤i,j≤n+1 (i + j − 1) = 0≤i,j≤n (i + j + 1), on a donc

1≤i≤n [i − (n + 1)]2 n!2 1
µ= 2
= = .
(n + 1)! (n + 1)!2 (n + 1)2
2/ Calculons µ sans utiliser (*). Notons a 
= (a1 , . . . , an ) ∈ Rn le point en lequel est atteint le
minimum de ϕ. Nous avons vu que P0 = − ni=1 ai xi est la projection orthogonale de 1 sur En .
Donc 1 − P0 , xk  = 0 pour 1 ≤ k ≤ n, et µ = 1 − P0 , 1 − P0  = 1 − P0 , 1. Autrement dit
 n n

1 ai ai
∀k ∈ {1, . . . , n}, + =0 et µ=1+ .
k+1 i+k+1 i+1
i=1 i=1

En considérant la fraction rationnelle F (X) = 1/(X + 1) + ni=1 ai /(X + i + 1), ceci s'écrit aussi
F (k) = 0 pour k = 1, . . . , n et µ = F (0). La forme réduite de F a donc la forme
n
(X − i)
F (X) = α n i=1
 . (∗∗)
i=0 (X + i + 1)
n
 −(1 + i)
Pour déterminer α, on multiplie F par X+1 et on fait X = −1, ce qui fournit 1 = α =
i
i=1
(−1)n (n + 1) donc α = (−1)n /(n + 1). On conclut avec l'expression (**), en écrivant
n
(−i) (−1)n 1
µ = F (0) = α ni=1 =α = .
i=0 (i + 1) n + 1 (n + 1)2

Remarque. On pourrait de même calculer


 +∞
inf n e−x (1 + a1 x + · · · + an xn )2 dx.
(a1 ,...,an )∈R 0

 Cet exercice est à rapprocher du problème du tome d'analyse portant sur le théorème
de Müntz.
4. PROBLÈMES 281

4. Problèmes
Problème 1 (Théorème de Fisher-Cochran). Soit E un espace euclidien de dimen-
sion n et u1 , . . . , up des endomorphismes symétriques de E . On suppose que
(i) rg u1 + · · · + rg up = n.
(ii) q1 (x) + · · · + qp (x) = x · x, où qi désigne la forme quadratique qi (x) = ui (x) · x
pour tout i.
Montrer que E = Im u1 ⊕ · · · ⊕ Im up , que les Im ui sont orthogonaux entre eux deux à
deux, et que pour tout i, ui est le projecteur orthogonal sur Im ui .
Solution. La relation (ii) s'écrit aussi
∀x ∈ E, (u1 + · · · + up − IdE )(x) · x = 0. (∗)
L'endomorphisme v = u1 + · · · + up − IdE étant symétrique, (∗) entraîne v = 0 (en eet, v est
diagonalisable et (∗) montre que la seule valeur propre
 de v est 0). Donc u1 + · · · + up = IdE ,
d'où on tire E = Im u1 + · · · + Im up . Comme de plus pi=1 dim(Im ui ) = dim E d'après (i), on a
E = Im u1 ⊕ · · · ⊕ Im up (∗∗)
(voir la proposition 6 page 117).
En appliquant maintenant l'égalité IdE = u1 + · · · + up au vecteur uk (x), on obtient
∀k, ∀x ∈ E, uk (x) = u1 uk (x) + · · · + up uk (x). (∗∗∗)
D'après (∗∗), la décomposition d'un élément de Im uk se fait de manière unique dans ⊕pi=1 Im ui ,
d'où on déduit, avec (∗∗∗) que uk (x) = u2k (x) et ∀ = k, uk u (x) = 0. Ceci étant vrai pour tout
x ∈ E , on en tire uk = u2k et ∀ = k , uk u = 0. Les endomorphismes uk sont donc des projecteurs,
orthogonaux puisqu'ils sont symétriques (ses sous-espaces propres sont orthogonaux, et ce sont
ici Ker uk et Im uk ).
Il nous reste à montrer que les Im uk sont orthogonaux entre eux deux à deux. Pour k = ,
on a vu uk u = 0, ce qui entraîne Im u ⊂ Ker uk . L'endomorphisme uk étant un projecteur
orthogonal, on a Ker uk = (Im uk )⊥ , donc Im u ⊂ (Im uk )⊥ , ce qui prouve que Im u et Im uk
sont orthogonaux. Ceci est vrai dès que le couple (k, ) vérie k = , d'où le résultat.

Problème 2. Soit n ∈ N∗ . On note S le s.e.v des matrices symétriques de Mn (R). Pour


tout A ∈ Mn (R), on dénit l'endomorphisme de S
ϕA : S → S M → tAM A.
Montrer que | det ϕA | = | det A |n+1 .
Solution. Commençons par traiter le cas où A est diagonale (cas qui semble intuitivement simple).
Notons λ1 , . . . , λn les coecients diagonaux de A. Considérons la base B de S constituée des
matrices de la forme (Ei,i )1≤i≤n et (Ei,j + Ej,i )1≤i<j≤n , où Ei,j désigne la matrice dont tous les
coecients sont nuls sauf celui d'indice (i, j) qui vaut 1. Un calcul rapide montre que
∀i, ϕA (Ei,i ) = λ2i Ei,i et ∀i < j, ϕA (Ei,j + Ej,i ) = λi λj (Ei,j + Ej,i ).
La base B diagonalise donc ϕA , les valeurs propres correspondantes étant λi λj (1 ≤ i ≤ j ≤ n),
ce qui montre que
 n
n+1
 
det ϕA = λi λj = λi = (det A)n+1 . (∗)
1≤i≤j≤n i=1

Traitons maintenant le cas général. Commençons par munir S d'un produit scalaire. Si S, T ∈
S , on dénit le produit scalaire de (S, T ) par (S | T ) = tr(ST ). Il s'agit bien d'un produit scalaire
282 5. ESPACES EUCLIDIENS

puisque c'est une forme bilinéaire symétrique, et la forme quadratique associée est dénie positive
car
 
∀S = (si,j )1≤i,j≤n ∈ S, tr(S 2 ) = si,j sj,i = s2i,j .
i,j i,j

L'introduction de la structure euclidienne sur S va nous permettre de dénir l'adjoint de ϕA .


Comme
∀S, T ∈ S, (ϕA (S) | T ) = tr( tASAT ) = tr(AT tAS) = (ϕ tA (T ) | S),
l'adjoint ϕ∗A de ϕA est ϕ tA . Maintenant, on remarque que ϕ∗A ◦ϕA = ϕ tA ◦ϕA = ϕA tA . La formule
(det ϕA )2 = det ϕ∗A det ϕA = det(ϕ∗A ϕA ) = det ϕA tA

va nous permettre de trouver la valeur de | det ϕA |. Posons M = A tA. C'est une matrice symé-
trique, donc diagonalisable, de sorte qu'il existe une matrice orthogonale P telle que M = tP DP ,
où D est une matrice diagonale. On vérie facilement que ϕM = ϕP ◦ ϕD ◦ ϕ tP . Comme
ϕP ◦ ϕ tP = ϕ tP P = IdS , ϕM est semblable à ϕD donc det ϕM = det ϕD = (det D)n+1 d'après
(∗). Comme det D = det M = (det A)2 , ceci s'écrit aussi

(det ϕA )2 = det ϕM = (det A)2(n+1) ,


d'où le résultat.

Problème 3. a) Soit H ∈ Mn (C) une matrice hermitienne positive. On note Γ l'ensemble


des matrices hermitiennes positives A telles que det A ≥ 1. Montrer
inf tr(AH) = n(det H)1/n .
A∈Γ

(On pourra utiliser l'inégalité de la question a) de l'exercice 4 page 277).


b) En déduire que pour deux matrices hermitiennes positives A et B , on a
[det(A + B)]1/n ≥ (det A)1/n + (det B)1/n .
Retrouver ce résultat sans utiliser la question a).

Solution. a) Commençons par montrer que pour toute matrice A ∈ Γ, tr(AH) ≥ n(det H)1/n . Le
problème étant invariant par changement de base orthonormale, on peut supposer H diagonale.
Notons λ1 ,
. . . , λn les coecients diagonaux de H et considérons A = (ai,j )1≤i,j≤n ∈ Γ. On a
tr(AH) = ni=1 λi ai,i . Le logarithme étant une fonction concave, on peut écrire
 n   n 1/n  n 1/n
1  
1/n

(λi ai,i ) ≥ (λi ai,i ) = (det H) ai,i ,
n
i=1 i=1 i=1
n
et comme 1 ≤ det A ≤ i=1 ai,i d'après la question a) de l'exercice 4 page 277, ceci implique
tr(AH) ≥ n(det H)1/n .
Achevons notre raisonnement. Nous venons de montrer que inf A∈Γ tr(AH) ≥ n(det H)1/n . Il
s'agit maintenant de prouver l'inégalité réciproque. Il y a deux cas.
Premier cas. Si H est dénie, alors pour tout i, λi > 0. Soit A la matrice dénie par
 
λ−1
1 0

A = (det H)1/n  ... 
.
0 λ−1
n

On a A ∈ Γ, et tr(AH) = tr[(det H)1/n In ] = n(det H)1/n , d'où le résultat.


4. PROBLÈMES 283

Second cas. Si la matrice H n'est pas dénie, l'une au moins des valeurs propres λi est
nulle, par exemple λn = 0. Pour tout p ∈ N∗ , on dénit
 
p−1

 ... 0 

Ap =   ∈ Γ.
 p−1 
0
pn−1
n−1
λi
On a tr(Ap H) = i=1
, donc lim tr(Ap H) = 0 = n(det H)1/n , ce qui prouve le
p p→∞
résultat.
b) Pour toute matrice M ∈ Γ, on a
tr[(A + B)M ] = tr(AM ) + tr(BM ) ≥ inf tr(AM ) + inf tr(BM ),
M ∈Γ M ∈Γ

donc
inf tr[(A + B)M ] ≥ inf tr(AM ) + inf tr(BM ),
M ∈Γ M ∈Γ M ∈Γ
ce qui prouve le résultat en vertu de la question a).
 Résolvons la question sans l'aide de a). Si A et B ne sont pas dénies, c'est évident car
det A = det B = 0 et comme A + B est positive, det(A + B) ≥ 0. Sinon, l'une des matrices A ou
B est dénie. Supposons par exemple A dénie. Le corollaire 3 page 257 assure l'existence d'une
matrice inversible P telle que A = P ∗ P et B = P ∗ DP , où D est une matrice diagonale. Ainsi,
on se ramène à montrer que
[det(In + D)]1/n ≥ (det In )1/n + (det D)1/n .
En notant λi ≥ 0 les termes de la diagonale principale de D, cette inégalité s'écrit
 n 1/n  n
1/n
 
(1 + λi ) ≥1+ λi . (∗)
i=1 i=1

Nous allons prouver (∗) en utilisant des critères de convexité. Considérons l'application
 n 1/n

ϕ : [0, 1] → R t → (t + λi ) .
i=1

Il s'agit de montrer ϕ(1) − ϕ(0) ≥ 1, ce qui sera vrai si on prouve ϕ (t) ≥ 1 pour t ∈ ]0, 1]. On a
 n 1/n  n 
 1   1
∀t ∈ ]0, 1], ϕ (t) = (t + λi ) ,
n t + λi
i=1 i=1
ou encore  
n n
 1 1 1 1
∀t ∈ ]0, 1], log ϕ (t) = log − log ,
n t + λi n t + λi
i=1 i=1
donc, en vertu de la concavité du logarithme, log ϕ (t) ≥ 0, c'est à dire ϕ (t) ≥ 1 pour t ∈ ]0, 1],
d'où le résultat.
Remarque. Notez l'utilisation fructueuse du corollaire 3 page 257 dans la preuve directe
de la question b).

Problème 4. Soit (E,  . ) un espace euclidien et u un projecteur de E tel que |||u||| ≤ 1


(en notant |||u||| = supx=1 u(x), norme d'algèbre sur L(E)). Montrer que u est un
projecteur orthogonal.
284 5. ESPACES EUCLIDIENS

Solution. Il s'agit de montrer que Ker u et Im u sont orthogonaux. Soit x ∈ Ker u et y ∈ Im u.


Pour tout t ∈ R, on a u(y + tx) = u(y) = y , et comme par hypothèse u(y + tx) ≤ y + tx, on
a
∀t ∈ R, y2 = u(y + tx)2 ≤ y + tx2 = y2 + 2t(x · y) + t2 x2 .
Cette inégalité exprime que la fonction t → y2 + 2t(x · y) + t2 x2 atteint son minimum pour
t = 0. Sa dérivée en 0 est donc nulle, ce qui s'écrit x · y = 0. Ceci étant vrai pour tout x ∈ Ker u
et pour tout y ∈ Im u, on en déduit que Ker u et Im u sont orthogonaux.
Remarque. Tout projecteur non nul u vérie |||u||| ≥ 1. En eet, on a u2 = u donc
|||u||| = |||u2 ||| ≤ |||u|||2 , et le résultat car |||u||| = 0. Un projecteur orthogonal non nul u vérie
|||u||| = 1.

Problème 5. Déterminer les matrices hermitiennes positives A = (ai,j )1≤i,j≤n ∈ Mn (C) à


coecients ai,j tous non nuls, telles que la matrice B = (1/ai,j )1≤i,j≤n est aussi hermitienne
positive.
Solution. Soit A = (ai,j )1≤i,j≤n une telle matrice. D'après la proposition 3 page 274, A est une
matrice de Gram, c'est-à-dire qu'il existe n vecteurs u1 , . . . , un de Cn tels que ∀i, j , ai,j = ui · uj .
D'après, l'inégalité de Schwarz, on a donc
∀i, j, |ai,j |2 = |ui · uj |2 ≤ ui 2 uj 2 = ai,i aj,j .
Cette inégalité, vraie pour toute matrice positive, l'est également pour la matrice B , ce qui s'écrit
1 1 1
∀i, j, ≤ .
|ai,j |2 ai,i aj,j
On en déduit que |ai,j |2 = ai,i aj,j pour tout i, j . Il y a donc égalité de Schwarz |ui ·uj | = ui ·uj ,
donc ui et uj sont liés. Ceci étant vrai pour tout i, j , le rang des vecteurs u1 , . . . , un est 1 (ces
vecteurs sont non nuls car A = 0). Ceci sut pour armer rg A = 1.
Réciproquement supposons A = (ai,j )1≤i,j≤n hermitienne positive, de rang 1 et telle que
ai,j = 0 pour tout i, j . La signature
n de la forme quadratique X → X ∗ AX est (1, 0), il existe donc
une forme linéaire f (X) = i=1 λi xi telle que
 
∀X, ai,j xi xj = X ∗ AX = |f (X)|2 = (λi λj ) xi xj .
i,j i,j

Ceci prouve que ai,j = λi λj pour tout i, j . On en déduit


      n 
1 1 1  1 2
 
B= = et ∀X, ∗
X BX =  xi  ≥ 0.
ai,j 1≤i≤n λi λj 1≤i≤n  λi 
1≤j≤n 1≤j≤n i=1

Ainsi, la matrice B est positive.


En conclusion, les matrices positives cherchées sont celles à coecients tous non nuls et de
rang 1.

Problème 6. a) Montrer que si le coecient diagonal d'indice (i, i) d'une matrice symé-
trique positive A ∈ Mn (R) est nul, alors la i-ième ligne de A est nulle.
b) Soit M ∈ M
n (R) une matrice symétrique positive. On écrit la matrice
 M sous
 la forme
A B A B
M = t avec A ∈ Mp (R) (1 ≤ p < n). Montrer que N = ∈ Mn (R)
B C 0 0
est diagonalisable.
4. PROBLÈMES 285

Solution. a) Comme A est symétrique positive, A s'écrit comme la matrice de Gram de n


vecteurs u1 , . . . , un de Rn . Le coecient d'indice (i, j) de A vérie donc ai,j = ui · uj pour tout
(i, j). Ainsi, si ai,i = 0 on a ui 2 = ai,i = 0 donc ui = 0, donc ai,j = ui · uj = 0 pour tout j .
b) Nous nous ramenons d'abord au cas où A est diagonale. Comme M est symétrique positive, A
l'est également donc il existe une matrice orthogonale P ∈ Mp (R) telle que D = tP AP soit une
matrice diagonale. Quitte à changer l'ordre des vecteurs colonnes de P , on peut même supposer
que les éventuels termes nuls de la diagonale
 de D sont les derniers (ce choix sera utile par la
suite). Notons q = n − p et U = P0 I0q . La matrice U est orthogonale et un produit par blocs
donne    
D tP B D tP B
t
UMU = t et t
U N U = .
BP C 0 0
La matrice tU M U est congrue à M , donc positive. Donc d'après la question a), pour chaque
indice i tel que le i-ième coecient diagonal de D est nul, toute la i-ième ligne de tU M U est
nulle, en particulier la i-ième ligne de tP B est nulle. Par construction, les éventuels termes nuls
de la diagonale de D sont les derniers. En désignant par r le nombre de coecients non nuls de
la diagonale de D, on voit donc que seules les r premières lignes de tU N U sont non nulles. En
notant D ∈ Mr (R) la matrice formée des r premières lignes et colonnes de D, on voit donc que
t
U N U a la forme
 
t D E
UNU = (∗)
0 0
où E est une matrice à r lignes et n − r colonnes. Les r premiers vecteurs e1 , . . . , er de la
base canonique de Rn sont des vecteurs propres de tU N U associés à des valeurs propres non
nulles, et la forme de cette matrice montre que le rang de ses vecteurs lignes est r, donc son
noyau est de dimension n − r. En désignant par f1 , . . . , fn−r une base de Ker( tU N U ) on voit
facilement que (e1 , . . . , er , f1 , . . . , fn−r ) est une base de vecteurs propres de tU N U . Ainsi tU N U
est diagonalisable, et comme U est une matrice orthogonale ceci entraîne que N est diagonalisable.
Remarque. On peut aussi montrer directement que la matrice de droite dans (∗) est
   
diagonalisable grâce à la formule I0 D−1 E ( D  E ) I D−1 E −1 = ( D  0 ).
I 0 0 0 I 0 0
 Le résultat de la question b) est aussi une conséquence du résultat b) du problème 10
page 289 dans le cas particulier où A = I0p 00 .

Problème 7 (Réduction des matrices antisymétriques). 1/ Soit K un corps


commutatif de caractéristique diérente de 2. a) Soit E un K-espace vectoriel de dimen-
sion nie n et ϕ une forme bilinéaire antisymétrique sur E . Montrer qu'il existe une base
B = (ei )1≤i≤n de E et un entier r ≤ n/2 tels que
 n n
 r
  
∀(xi ), (yi ) ∈ K ,
n
ϕ xi e i , yj e j = (x2k−1 y2k − x2k y2k−1 ). (∗)
i=1 j=1 k=1

b) Soit A ∈ Mn (K) une matrice antisymétrique. Montrer qu'il existe P ∈ Gn (K) tel que
 
J
 ... (0) 
   
 J  0 1
t
P AP =  0  avec J = ∈ M2 (K).
  −1 0
 (0) ... 
0

2/ Montrer que le déterminant d'une matrice antisymétrique A à coecients entiers est


le carré d'un entier.
286 5. ESPACES EUCLIDIENS

Solution. 1/a) On procède par récurrence sur n = dim E . Pour n = 1, ϕ est nulle et si n = 2,
le résultat est immédiat. Supposons donc n ≥ 3. Si ϕ = 0 le résultat est évident (dans ce cas
r = 0), sinon il existe deux vecteurs e1 et e2 de E tels que ϕ(e1 , e2 ) = 0. Quitte à multiplier
e1 par 1/ϕ(e1 , e2 ) on peut supposer ϕ(e1 , e2 ) = 1. Ces vecteurs sont forcément non nuls, et ils
forment une famille libre car si e2 = λe1 avec λ ∈ K, on aurait ϕ(e1 , e2 ) = λϕ(e1 , e1 ) = 0. Les
formes linéaires L1 = ϕ(e1 , ·) et L2 = ϕ(e2 , ·) forment une famille libre car si λ1 L1 + λ2 L2 = 0,
alors 0 = (λ1 L1 + λ2 L2 )(e1 ) = −λ2 , de même 0 = (λ1 L1 + λ2 L2 )(e2 ) = λ1 . Donc le s.e.v
F = Ker L1 ∩ Ker L2 est de dimension n − 2. D'après l'hypothèse de récurrence, on peut trouver
une base (e3 , . . . , en ) de F et r ≤ n/2 telle que la restriction ψ de ϕ à F × F s'écrive
 
n n
 r

ψ xi ei , yi e i  = (x2k−1 y2k − x2k y2k−1 ). (∗∗)
i=3 j=3 i=2

Par ailleurs Vect(e1 , e2 ) est en somme directe avec F (si e = λ1 e1 + λ2 e2 ∈ F alors 0 = L2 (e) =
λ1 ϕ(e2 , e1 )+λ2 ϕ(e2 , e2 ) = −λ1 donc λ1 = 0 et de même 0 = L1 (e) = λ2 ), donc (e1 , e2 , e3 , . . . , en )
est une base de E . Par construction de F , on a ϕ(x, y) = ϕ(y, x) = 0 dès que x ∈ Vect(e1 , e2 ) et
y ∈ F , donc
   
n n
 n
 n

ϕ xi ei , yj ej  = ϕ(x1 e1 + x2 e2 , y1 e1 + y2 e2 ) + ψ  xi ei , yj e j  .
i=1 j=1 i=3 j=3

Comme ϕ(x1 e1 + x2 e2 , y1 e1 + y2 e2 ) = x1 y2 ϕ(e1 , e2 ) + x2 y1 ϕ(e2 , e1 ) = x1 y2 − x2 y1 , on en déduit


avec (∗∗) le résultat au rang n.
b) Soit ϕ la forme bilinéaire sur Kn dont A est la matrice dans la base canonique B de Kn . La
question précédente assure l'existence d'une base B = (e1 , . . . , en ) et de r ≤ n/2 dans laquelle
ϕ s'écrive sous la forme (∗). En d'autres termes, la matrice M de ϕ dans la base B  est formée
de r matrices J sur sa diagonale et de zéros partout ailleurs. En désignant par P ∈ G n (K) la
matrice de passage de la base B à la base B , on a donc tP AP = M , d'où le résultat.
2/ Les coecients de A sont dans le corps K = Q, donc la question précédente assure l'existence
de P ∈ G n (Q) telle que tP AP = M où M est constituée de r matrices J sur sa diagonale et de
zéros partout ailleurs. Si M a au moins un zéro sur la diagonale, alors det M = 0 donc det A = 0
est bien le carré d'un entier. Sinon, det M = (det J)r = 1 donc det A = 1/(det P )2 . Comme
P ∈ G n (Q) on a det P ∈ Q, donc det A est le carré d'un nombre rationnel. Comme A a des
coecients entiers, det A est un entier. Un entier qui est le carré d'un rationnel est forcément le
carré d'un entier, donc det A est bien le carré d'un entier.
Remarque. Lorsque K = R, ce résultat (bien que légèrement diérent) est plus faible que
le théorème 6 page 273, mais il présente l'intérêt d'être vrai sur d'autres corps K.

Problème 8 (Pfaffien). Soit K un corps commutatif de caractéristique diérente de 2.


On désigne par An (K) l'e.v des matrices antisymétriques de Mn (K).
a) Si A ∈ An (K) et si n est un entier impair, montrer que det A = 0.
b) Soit E un K-espace vectoriel. Pour toute forme bilinéaire antisymétrique ϕ sur E , on
dénit une suite ϕ(p) pour p ∈ N∗ par la récurrence suivante : ϕ(1) = ϕ et pour p ≥ 2 et
(x1 , . . . , x2p ) ∈ E 2p ,
2p

ϕ(p) (x1 , . . . , x2p ) = (−1)i ϕ(x1 , xi ) ϕ(p−1) (x2 , . . . , xi−1 , xi+1 , . . . , x2p ). (∗)
i=2

Montrer que ϕ(p) est une forme 2p-linéaire alternée. (Indication : traiter d'abord le cas
p = 2, puis montrer ϕ(p) (x1 , . . . , x2p ) = 0 si xk = xk+1  voir l'exercice 9 page 151.)
c) Si A ∈ A2m (K), on désigne par ϕA la forme bilinéaire sur E = K2m dont A est la matrice
4. PROBLÈMES 287

dans la base canonique B = (e1 , . . . , e2m ) de E , et on note Pf(A) = ϕ(m)


A (e1 , . . . , e2m )
(Pfaen de A). Montrer que
(m)
∀(x1 , . . . , x2m ) ∈ E 2m , ϕA (x1 , . . . , x2m ) = Pf(A) detB (x1 , . . . , x2m ),
où detB désigne le déterminant dans la base B.
d) Calculer Pf(A) pour A ∈ A4 (K), et montrer que Pf(A) est un polynôme en les coe-
cients de A ∈ A2m (K).
e) Montrer que pour tout A ∈ A2m (K) et P ∈ M2m (K), on a Pf( tP AP ) = det(P ) Pf(A).
f) Montrer que pour tout A ∈ A2m (K), on a det(A) = Pf(A)2 (on pourra utiliser le
résultat de la question 1/b) du problème précédent).
Solution. a) Comme A = − tA, on a det A = (−1)n det tA = (−1)n det A = − det A, donc
det A = 0. Ce résultat est aussi une conséquence du résultat du problème précédent qui entraîne
que le rang d'une matrice antisymétrique est pair.
b) La propriété de 2p-linéarité de ϕ(p) est immédiate par récurrence sur p. Montrons maintenant
que ϕ(p) est alternée. Il sut pour cela de montrer par récurrence sur p que ϕ(p) (x1 , . . . , x2p ) = 0
dès que xk = xk+1 (voir l'exercice 9 page 151). Pour p = 1 le résultat est immédiat car ϕ(1) = ϕ
est antisymétrique. Pour p = 2, on écrit
ϕ(2) (x1 , x2 , x3 , x4 ) = ϕ(x1 , x2 )ϕ(x3 , x4 ) − ϕ(x1 , x3 )ϕ(x2 , x4 ) + ϕ(x1 , x4 )ϕ(x2 , x3 ). (∗∗)
Dans chacun des cas x1 = x2 , x2 = x3 et x3 = x4 , on remarque que l'un des termes de la somme
est nulle et les deux autres opposés, donc ϕ(2) s'annule bien dans ces cas.
Supposons maintenant p ≥ 3. Si xk = xk+1 avec 2 ≤ k ≤ p − 1, les termes d'indices
i ∈ {k, k + 1} et de la somme (∗) s'annulent d'après l'hypothèse de récurrence, et les termes
d'indices i = k et i = k + 1 sont opposés, donc ϕ(p) est bien nul dans ce cas. Il nous reste à traiter
le cas x1 = x2 . L'idée est d'exprimer ϕ(p) en fonction de ϕ(p−2) . Par commodité, nous noterons
x = (x1 , . . . , x2p ) et si i1 , . . . , ik sont des indices distincts, on note x∗i1 ,...,ik le (p − k)-uplet obtenu
à partir de x en retirant les termes d'indices i1 , . . ., ik . Avec cette notation, (∗) s'écrit
2p

ϕ(p) (x) = (−1)i ϕ(x1 , xi )ϕ(p−1) (x∗1,i ).
i=2

Si i ≥ 3, la récurrence dénissant ϕ(p−1) donne


 
ϕ (p−1)
(x∗1,i ) = (−1) j−1
ϕ(x2 , xj )ϕ (p−2)
(x∗1,2,j,i ) + (−1)j−2 ϕ(x2 , xj )ϕ(p−2) (x∗1,2,i,j )
3≤j<i i<j≤2p

(on a pris en compte le fait que xj est la (j − 1)-ième coordonnée de x∗1,i si 3 ≤ j < i, la
(j − 2)-ième coordonnée si j > i) donc
ϕ(p) (x) = ϕ(x1 , x2 )ϕ(p−1) (x3 , . . . , x2p )

+ (−1)i+j−1 ϕ(x1 , xi )ϕ(x2 , xj )ϕ(p−2) (x∗1,2,j,i )
3≤i≤2p
3≤j<i

+ (−1)i+j−2 ϕ(x1 , xi )ϕ(x2 , xj )ϕ(p−2) (x∗1,2,i,j ).
3≤i≤2p
i<j≤2p

Supposons x1 = x2 . Le premier terme de cette somme est nul, on peut donc écrire

ϕ(p) (x) = (−1)i+j−1 ϕ(x1 , xi )ϕ(x1 , xj )ϕ(p−2) (x∗1,2,j,i )
3≤j<i≤2p

+ (−1)i+j−2 ϕ(x1 , xi )ϕ(x1 , xj )ϕ(p−2) (x∗1,2,i,j ).
3≤i<j≤2p

Chaque terme d'indice (j, i) de la première somme est l'opposé du terme d'indice (i, j) de la
seconde, on en déduit ϕ(p) (x) = 0.
288 5. ESPACES EUCLIDIENS

c) L'ensemble des formes 2m-linéaires alternées sur l'e.v E de dimension 2m est un e.v de
dimension 1 (voir le théorème 2 page 141). Comme ϕ(m) A et detB sont des formes 2m-linéaires
alternées et que detB est non nul, on en déduit l'existence de λ ∈ K tel que
(m)
∀(x1 , . . . , x2m ) ∈ E2m , ϕA (x1 , . . . , x2m ) = λ detB (x1 , . . . , x2m ).
En appliquant cette égalité pour xi = ei (1 ≤ i ≤ 2m), on obtient λ = Pf(A), d'où le résultat.
d) Lorsque A = (ai,j ) ∈ A4 (K), on a m = 2 et l'expression (∗∗) entraîne Pf(A) = a1,2 a3,4 −
a1,3 a2,4 + a1,4 a2,3 .
Lorsque A = (ai,j ) ∈ A2m (K), montrons maintenant que Pf(A) est un polynôme en les
coecients (ai,j )1≤i<j≤2m de A. Pour cela, nous allons prouver, en procédant par récurrence sur
(p)
p, que si 1 ≤ p ≤ m et 1 ≤ k1 < . . . < k2p ≤ 2m, alors ϕA (ek1 , . . . , ek2p ) = Pk1 ,...,k2p (A) où
Pk1 ,...,k2p (A) est un polynôme en les coecients (ai,j )1≤i<j≤2m de A. Cette propriété est vraie
pour p = 1 car ϕ(1) A (ek1 , ek2 ) = ak1 ,k2 . Si elle est vraie pour p − 1, alors l'écriture (∗) entraîne
2p

(p) (p−1)
ϕA (ek1 , . . . , ek2p ) = (−1)i ϕA (ek1 , eki )ϕA (ek2 , . . . , eki−1 , eki+1 , . . . , ek2p )
i=2
2p
= (−1)i ak1 ,ki Pk2 ,...,ki−1 ,ki+1 ,...,k2p (A),
i=2
(p)
donc est bien un polynôme en les coecients (ai,j )1≤i<j≤2m de A. La propriété
ϕA (ek1 , . . . , ek2p )
souhaitée est donc démontrée pour tout p, 1 ≤ p ≤ m. En particulier, elle est vraie pour p = m
donc Pf(A) = ϕ(m)
A (e1 , . . . , e2m ) est un polynôme en les coecients de A.
e) Pour tout x, y ∈ E = K2m on a ϕ tP AP (x, y) = tx tP AP y = t(P x)A(P y) = ϕA (P x, P y). Une
récurrence immédiate sur p entraîne alors
(p) (p)
∀(x1 , . . . , x2p ) ∈ E 2p , ϕ tP AP (x1 , . . . , x2p ) = ϕA (P x1 , . . . , P x2p ).

Ainsi, si B = (e1 , . . . , e2m ) désigne la base canonique de K2m , on a


(m) (m)
Pf( tP AP ) = ϕ tP AP (e1 , . . . , e2m ) = ϕA (P e1 , . . . , P e2m ) = Pf(A) detB (P e1 , . . . , P e2m ).
On conclut en remarquant que detB (P e1 , . . . , P e2m ) = det P .
f) Si A n'est pas inversible, alors il existe un vecteur x1 = 0 tel que Ax1 = 0 donc ϕA (x1 , y) = 0
pour tout vecteur y . Complétons x1 en une base (x1 , . . . , x2m ) de K2m . Comme ϕA (x1 , xi ) = 0
pour tout i ≥ 2, l'égalité (∗) donne ϕ(m)A (x1 , . . . , x2m ) = 0. D'après c), on a donc
(m)
0 = ϕA (x1 , . . . , x2m ) = Pf(A) detB (x1 , . . . , x2m ).
Comme (x1 , . . . , x2m ) est une base, on a detB (x1 , . . . , x2m ) = 0 donc l'égalité précédente entraîne
Pf(A) = 0. Ainsi, on a bien det A = Pf(A)2 si A n'est pas inversible.
Si A est inversible, le résultat de la question b) du problème précédent nousassure l'existence
de P ∈ G2m (K) tel que B = tP AP soit constituée de m matrices J = −1 0 1 sur sa diagonale
0
et de 0 partout ailleurs. Le Pfaen de B se calcule facilement. En eet, comme ϕB (e1 , e2 ) = 1
et ϕB (e1 , ei ) = 0 si i ≥ 3, la relation (∗) donne
(m) (m−1)
ϕB (e1 , . . . , e2m ) = ϕB (e3 , . . . , e2m ).
(m) (1)
En poursuivant, on en déduit ainsi = ϕB (e2m−1 , e2m ) = 1. Donc Pf(B) = 1 et
ϕB (e1 , . . . , e2m )
le résultat de la question précédente entraîne donc 1 = Pf(B) = Pf( tP AP ) = Pf(A) det P . Par
ailleurs, un calcul de déterminant par blocs donne det B = (det J)m = 1, et comme B = tP AP
on en déduit det(A) det(P )2 = 1, donc det A = 1/ det(P )2 = Pf(A)2 .
Remarque. Ainsi, le déterminant d'une matrice antisymétrique A d'ordre pair est le carré
d'un polynôme en les coecients de A (le Pfaen). Ce résultat remarquable a été établi
par Cayley au milieu du XIX-ième siècle.
4. PROBLÈMES 289

Problème 9. Soit (E,  . ) un R-e.v normé de dimension n ∈ N∗ . On note Bp,q l'ensemble


des formes bilinéaires symétriques sur E de signature (p, q). Si p + q = n, montrer que
Bp,q est un ouvert de l'espace vectoriel B des formes bilinéaires symétriques sur E .

Solution. Munissons B de la norme ||| . ||| dénie par ∀ϕ ∈ B,


|||ϕ||| = supx=1 ϕ(x, x) (B étant
de dimension nie, toutes les normes y sont équivalentes).
Donnons nous ϕ0 ∈ Bp,q , où p + q = n. La signature de ϕ0 étant (p, q), il existe deux s.e.v
F + et F − de E tels que

∀x ∈ F + , x = 0 ϕ0 (x, x) > 0
dim F + = p, dim F − = q et .
∀x ∈ F − , x = 0 ϕ0 (x, x) < 0

Comme p + q = n, on a ici F + ⊕ F − = E .
L'ensemble S + = {x ∈ F + | x = 1} est compact, donc ϕ0 étant continue
∃x ∈ S + , ϕ0 (x, x) = inf ϕ0 (y, y).
y∈S +

En notant α = ϕ0 (x, x) > 0, on voit que pour tout y ∈ S + , ϕ0 (y, y) ≥ α, donc pour tout y ∈ F + ,
ϕ0 (y, y) ≥ αy2 . On montrerait de même l'existence de β > 0 tel que tout y ∈ F − vérie
ϕ0 (y, y) ≤ −βy2 .
Soit γ = inf(α, β) et ψ ∈ B tel que |||ψ||| ≤ γ/2. Alors ϕ = ϕ0 + ψ vérie
γ γ
∀x ∈ F + , ϕ(x, x) = ϕ0 (x, x) + ψ(x, x) ≥ γx2 − x2 = x2
2 2
γ γ
∀x ∈ F − , ϕ(x, x) = ϕ0 (x, x) + ψ(x, x) ≤ −γx + x = − x2
2 2
2 2
On a donc ϕ(x, x) > 0 sur F +  {0} et ϕ(x, x) < 0 sur F −  {0}. Ceci sut pour conclure que
ϕ est de signature (p, q) (voir la remarque 9 page 246). La boule de centre ϕ0 de rayon γ/2 est
donc incluse dans Bp,q , d'où le résultat.

Problème 10. Soient A et B ∈ Mn (C) deux matrices hermitiennes positives.


a) Si A est dénie, montrer que la matrice AB est diagonalisable, à valeurs propres réelles
positives.
b) Montrer que le résultat de la question précédente subsiste lorsque A n'est pas supposée
dénie.
c) Soient 0 ≤ λ1 ≤ · · · ≤ λn les valeurs propres de A, 0 ≤ µ1 ≤ · · · ≤ µn celles de B . Si λ
est une valeur propre de AB , montrer λ1 µ1 ≤ λ ≤ λn µn .

Solution. a) La matrice A étant hermitienne positive, il existe une matrice a ∈ Mn (C) hermi-
tienne positive telle que A = a2 (c'est très classique, voir l'exercice 1 page 257). Comme A est
dénie, a est inversible. L'égalité AB = a2 B = a(aBa)a−1 montre que AB est semblable à aBa.
Cette dernière matrice est hermitienne, et positive car la matrice B étant positive,
∀X, X ∗ (aBa)X = (aX)∗ B(aX) ≥ 0.

Finalement, on a montré que AB est semblable à une matrice hermitienne positive, ce qui sut
à montrer que AB est diagonalisable à valeurs propres réelles positives.
b) C'est plus délicat. Comme à la question précédente, nous allons passer par la matrice aBa.
Soit k = rg(aBa). La matrice aBa étant hermitienne positive, on est assuré de l'existence
d'une famille libre de k vecteurs propres e1 , . . . , ek associés à des valeurs propres strictement
positives λ1 , . . . , λk . Pour tout i ∈ {1, . . . , k}, l'égalité (aBa)ei = λi ei entraîne
(a2 Ba)ei = λi aei donc (AB)fi = λi fi , avec fi = aei .
290 5. ESPACES EUCLIDIENS

La famille (fi )1≤i≤k est libre car


k
 k
 k

µi fi = 0 =⇒ 0 = µi (aB)(fi ) = µi λi ei =⇒ ∀i ∈ {1, . . . , k}, µi λi = 0,
i=1 i=1 i=1
ce qui entraîne µi = 0 lorsque 1 ≤ i ≤ k puisque λi = 0. Finalement, on vient d'exhiber une
famille libre (fi )1≤i≤k à k éléments de vecteurs propres de AB associés à des valeurs propres non
nulles.
Nous allons prouver que toutes les autres valeurs propres sont nulles. Pour cela, nous com-
mençons par montrer rg(AB) = rg(aBa) = k. La matrice aBa est hermitienne positive (voir
plus haut), donc X ∈ Ker(aBa) si et seulement si X ∗ (aBa)X = 0. Comme B est positive, on en
déduit
X ∈ Ker(aBa) ⇐⇒ 0 = X ∗ (aBa)X = (aX)∗ B(aX) ⇐⇒ aX ∈ Ker(B) ⇐⇒ X ∈ Ker(Ba).
Ainsi, Ker(aBa) = Ker(Ba), donc rg(aBa) = rg(Ba). La matrice a est hermitienne donc Im a =
Im a2 = Im A (pour s'en convaincre, diagonaliser a dans une base orthonormale), donc Im(Ba) =
B(Im a) = B(Im A) = Im(BA), d'où rg(Ba) = rg(BA). Finalement, on a montré rg(aBa) =
rg(BA). Le rang d'une matrice est égal à celui de sa transconjuguée, donc rg(BA) = rg[(BA)∗ ] =
rg(A∗ B ∗ ) = rg(AB), et nalement on a bien rg(aBa) = rg(AB) = k .
Le fait que dim(Ker(AB)) = n − k nous permet de prendre une base (fk+1 , . . . , fn ) de
Ker(AB). Ces n − k vecteurs correspondent à des vecteurs propres de AB associés à la valeur
propre 0. Ainsi, les vecteurs f1 , . . . , fk , fk+1 , . . . , fn forment une famille libre à n éléments de
vecteurs propres de AB , donc une base de vecteurs propres de AB . La matrice AB est donc
diagonalisable, ses valeurs propres étant λ1 , . . . , λk > 0 et 0.
c) En désignant par  ·  la norme euclidienne usuelle sur Cn , tout vecteur colonne X de Cn
vérie
λ21 X2 ≤ AX2 ≤ λ2n X2 et µ21 X2 ≤ BX2 ≤ µ2n X2
donc
λ21 µ21 X2 ≤ λ21 BX2 ≤ ABX2 ≤ λ2n BX2 ≤ λ2n µ2n X2 . (∗)
Si λ est une valeur propre de AB , on a ABX2= (où X = 0 est un vecteur propre
|λ|2 X2
associé), ce qui entraîne avec (∗) la relation λ1 µ1 ≤ |λ| ≤ λn µn , d'où le résultat puisque l'on a
vu que λ était réelle positive.

Problème 11. Soient R, S, T ∈ Mn (C) trois matrices hermitiennes positives telles que
la matrice M = RST est hermitienne. Montrer que M est positive.
Solution. Il y a certainement beaucoup de façons de procéder. Celle que nous décrivons se
décompose en trois étapes, selon les propriétés vériées par la matrice T .
Première étape. Supposons T dénie. Alors T est la matrice d'un produit scalaire, de sorte
qu'il existe P ∈ Gn (C) telle que T = P ∗ P . Comme RST est hermitienne, on a facilement
RST = T SR donc
RSP ∗ P = P ∗ P SR d'où (P ∗ )−1 RSP ∗ = P SRP −1 ou encore R S  = S  R
avec R = (P ∗ )−1 RP −1 et S  = P SP ∗ . Ainsi, les matrices R et S  commutent. Comme elles sont
diagonalisables (car hermitiennes), on peut les diagonaliser dans une même base. De plus, leurs
valeurs propres sont positives (R et S  sont hermitiennes positives) donc les valeurs propres de
R S  sont positives. Ainsi, la matrice hermitienne R S  est positive. Comme RST = P ∗ (R S  )P
est congrue à R S  , c'est aussi une matrice hermitienne positive.
Deuxième étape. Supposons Ker T ∩ Ker R = {0}. Pour tout ε > 0, la matrice T + εR est dénie
positive. En eet, elle est positive comme somme de matrices positives, et elle est dénie car si
X ∗ (T + εR)X = 0, le fait que X ∗ T X ≥ 0 et X ∗ RX ≥ 0 entraîne X ∗ T X = X ∗ RX = 0, donc
X ∈ Ker T ∩ Ker R = {0}.
4. PROBLÈMES 291

On peut donc appliquer le résultat de la première étape à la matrice hermitienne RS(T +


εR) = RST + εRSR. Ainsi, pour tout X ∈ Cn , pour tout ε > 0, X ∗ RS(T + εR)X ≥ 0 donc
en passant à la limite lorsque ε → 0 on obtient X ∗ RST X ≥ 0. Ceci est vrai pour tout X ∈ Cn ,
donc RST est positive.
Troisième étape. Il ne reste plus qu'à traiter le cas où F = Ker T ∩ Ker R = {0}. Soit r tel que
n − r = dim F . Soit (e1 , . . . , en ) une base orthonormale de Cn telle que F = Vect(er+1 , . . . , en ).
Quitte à faire un changement de base orthonormale pour se ramener dans cette base, on voit que
     
R1 0 S1 S2∗ T1 0
R= , S= , et T = ,
0 0 S2 S3 0 0
avec R1 , S1 , T1 ∈ Mr (C) et Ker R1 ∩ Ker T1 = {0}. La matrice M = RST étant hermitienne, on
a facilement  
R1 S1 T1 0
M= , (∗)
0 0
où R1 , S1 , T1 vérient les mêmes propriétés que R, S, T dans la deuxième étape. La matrice
R1 S1 T1 est donc positive, donc d'après (∗) M est positive.

Problème 12. Soit n ∈ N, n ≥ 2. Pour toute matrice symétrique A ∈ Mn (R), on note


λ1 (A), . . . , λn (A) les valeurs propres de A numérotées telles que λ1 (A) ≥ · · · ≥ λn (A).
1/a) Soit A = (ai,j )1≤i,j≤n ∈ Mn (R) une matrice symétrique. Montrer
k
 k

∀k ∈ {1, . . . , n}, ai,i ≤ λi (A). (∗)
i=1 i=1

b) Lorsque k < n et λk (A) > λk+1 (A), donner une condition nécessaire et susante sur
la matrice A pour que l'inégalité (∗) soit une égalité.
2/ Soient A et B ∈ Mn (R) deux matrices symétriques et C = A + B . Montrer
k
 k
 k

∀k ∈ {1, . . . , n}, λi (C) ≤ λi (A) + λi (B).
i=1 i=1 i=1

Solution. 1/a) Pour simplier on note λi  = λi (A) dans la solution


 de la question 1/.
Lorsque k = n, (∗) est une égalité car ni=1 ai,i = tr(A) = ni=1 λi .
Sinon on a k < n. Notons Φ la forme quadratique sur Rn dont A est la matrice dans la base
canonique (e1 , . . . , en ) de Rn . Pour tout i ∈ {1, . . . , n}, on a ai,i = Φ(ei ). Soit (f1 , . . . , fn ) une
base orthonormale de Rn , orthogonale pour la forme quadratique Φ, et telle que
∀i ∈ {1, . . . , n}, λi = Φ(fi ).
On note P = (pi,j )1≤i,j≤n ∈ Mn (R) la matrice  (orthogonale) de passage de la base (f1 , . . . , fn )
à la base (e1 , . . . , en ), de sorte que ej = ni=1 pi,j fi pour tout j .
Pour donner l'idée de l'approche nous commençons par le cas k = 1. Il sut d'écrire
n n
 n

  
a1,1 = Φ(e1 ) = p2i,1 Φ(fi ) = λi p2i,1 ≤ λ1 p2i,1 = λ1 e1 2 = λ1 .
i=1 i=1 i=1

Le cas général est plus délicat. On écrit


 n   
k
 k
 k
  n
 k
aj,j = Φ(ej ) = λi p2i,j = λi  p2i,j  . (∗∗)
j=1 j=1 j=1 i=1 i=1 j=1
292 5. ESPACES EUCLIDIENS

k
Notons µi = j=1 pi,j .
2 Les µi vérient les propriétés suivantes
n k
 n  k k n
     
(i) µi = p2i,j = ej 2 = k, (ii) µi = p2i,j ≤ p2i,j = 1
i=1 j=1 i=1 j=1 j=1 j=1

(la dernière égalité résulte du fait que les vecteurs lignes de la matrice P forment également une
base orthonormale). Ainsi, (**) apparaît comme une pondération des (λi )1≤i≤n à coecients
positifs et ≤ 1, dont la somme des poids vaut k. La valeur maximale de cette pondération se
produit lorsque les poids sont les plus grands possibles pour les plus grandes valeurs possibles de
λi , ce qui est précisément le résultat attendu. On démontre ceci en partant de l'égalité (∗∗) qui
entraîne  
k
 n
 k
 n

aj,j = λi µ i ≤ λi µi + λk+1 µi .
j=1 i=1 i=1 i=k+1
L'assertion (ii) permet d'écrire  µi sous la forme µi = 1 − γi avec γi ≥ 0 pour 1 ≤ i ≤ k ,
 chaque
n
 k
 k

et d'après (i), µi = k − µi = γi . Finalement,
i=k+1 i=1 i=1

k k
 k
 k k k
     
aj,j ≤ λi (1 − γi ) + λk+1 γi = λi + (λk+1 − λi )γi ≤ λi . (∗∗∗)
j=1 i=1 i=1 i=1 i=1 i=1

b) Si (∗) est une égalité, alors la dernière inégalité de (∗∗∗) est une égalité, et compte tenu des
hypothèses, ceci entraîne γi = 0 pour 1 ≤ i ≤ k. Autrement dit, µ1 = . . . = µk = 1 cequi en vertu
de l'assertion (ii) entraîne pi,j = 0 pour 1 ≤ i ≤ k et k + 1 ≤ j ≤ n. Ainsi, ej = ki=1 pi,j fi ∈
Vect(f1 , . . . , fk ) pour 1 ≤ j ≤ k , donc Vect(e1 , . . . , ek ) = Vect(f1 , . . . , fk ). Les bases (e1 , . . . , en )
et (f1 , . . . , fn ) étant orthogonales, on a alors Vect(ek+1 , . . . , en ) = Vect(fk+1 , . . . , fn ). Il n'en faut
pas plus pour conclure que A, matrice de Φ dans la base (e1 , . . . , en ), se met sous la forme
 
A1 0
A=
0 A2
où les valeurs propres de A1 ∈ Mk (R) sont λ1 , . . . , λk .
k
 k

Réciproquement, si la matrice A possède cette propriété, alors ai,i = tr(A1 ) = λi .
i=1 i=1

2/ Soit P ∈ Gn (R) une matrice orthogonale telle que D = P −1 CP est diagonale, ses coecients
diagonaux étant égaux à λ1 (C), . . . , λn (C). Notons A = P −1 AP et B  = P −1 BP . On a D = A +
B  et les matrices A et B  sont semblables à A et B , on a donc λi (A ) = λi (A) et λi (B  ) = λi (B)
pour 1 ≤ i ≤ n. Pour simplier les notations, pour toute matrice M = (mi,j )1≤i,j≤n on note

trk (M ) = ki=1 mi,i . On conclut à partir du résultat de la question 1/a), en écrivant
k
 k
 k

∀k ∈ {1, . . . , n}, λi (C) = trk (D) = trk (A ) + trk (B  ) ≤ λi (A) + λi (B).
i=1 i=1 i=1

Problème 13. Soit n ∈ N, n ≥ 2, et A, B ∈ Mn (R) deux matrices symétriques. On


suppose que pour tout k ∈ N∗ , tr(A + B)k = tr Ak + tr B k . Montrer que AB = 0.
Solution. Notons λ1 , . . . , λp les valeurs propres non nulles de A comptées avec multiplicité,
µ1 , . . . , µq celles de B et ν1 , . . . , νr celles de C = A + B . L'hypothèse de l'énoncé s'écrit
r
 p
 q

∀k ∈ N∗ , νik = λki + µki .
i=1 i=1 i=1
4. PROBLÈMES 293

Autrement dit, les sommes de Newton de la r-liste (ν1 , . . . , νr ) sont égales à celles de la p + q -liste
(λ1 , . . . , λp , µ1 , . . . , µq ). Le lemme suivant nous permet de conclure que p + q = r et que ces listes
sont égales à une permutation prés.
Lemme. Soit s, t ∈ N et (x1 , . . . , xs ), (y1 , . . . , yt ) deux listes de nombres réels
non nuls, telles que
s
 t

∀k ∈ N∗ , xki = yik . (∗).
i=1 i=1
Alors t = s et les deux listes sont égales à une permutation près.
Montrons ce lemme par récurrence 
sur s ∈ N. Si s = 0, alors t = 0 sinon l'égalité (*) appliquée
avec k = 2 entraînerait 0 = ti=1 yi2 , donc les yi seraient nuls, ce qui est contraire aux hypothèses.
Supposons maintenant le lemme vrai jusqu'au rang s − 1. Notons X = maxi |xi |, Y = maxi |yi |,
puis I = {i | |xi | = X}, J = {i | |yi | = Y }. Les ensembles I et J sont non vides, et dans l'égalité
(*) appliquée aux indices pairs k = 2 lorsque → +∞, le terme de gauche est équivalent à |I| X 2
et celui de droite à |J| Y 2 . On en déduit X = Y puis |I| = |J|. En notant I  = {i | xi = X} et
J  = {i | yi = X}, l'égalité (*) appliquée aux indices impairs k = 2 + 1 lorsque → +∞ donne
|I  |X 2+1 − (|I| − |I  |)X 2+1 = |J  |X 2+1 − (|J| − |J  |)X 2+1 + o(X 2 ) donc 2|I  | − |I| = 2|J  | − |J|,
donc |I  | = |J  |. Ainsi, les listes (xi )i∈I et (yi )i∈J sont égales à une permutation prés. On conclut
avec l'hypothèse de récurrence appliquée à (xi )i∈I et (yi )i∈J . (Une autre preuve de ce lemme,
purement algébrique, consiste à utiliser l'expression des coecients symétriques en fonction des
sommes de Newton  voir l'exercice 3 page 86 , en complétant préalablement l'une des deux
listes avec des termes nuls pour qu'elles aient la même taille).
Considérons maintenant les endomorphismes a et b de Rn dont A et B sont les matrices dans
la base canonique de Rn . On a rg a = p, rg b = q , rg(a + b) = r = p + q donc
dim(Im a ∩ Im b) = rg a + rg b − dim(Im a + Im b) ≤ p + q − rg(a + b) = 0.
Donc Im a ∩ Im b = {0}. Soit (e1 , . . . , ep ) une base orthonormée de Im a, et (f1 , . . . , fq ) une base
orthonormée de Im b, de sorte que B = (e1 , . . . , ep , f1 , . . . , fq ) est une base de E = Im a ⊕ Im b. Le
sous-espace F = E ⊥ = Im a⊥ ∩ Im b⊥ = Ker a ∩ Ker b est stable par a et b (car a et b s'annulent
sur F ), donc E = F ⊥ est stable par a et b. Ainsi si on monte que a = a|E et b = b|E vérient
a b = 0, on aura prouvé le résultat puisque ab = 0 sur F et que E ⊕ F = Rn . Déterminons les
coecients des matrices de a et b dans la base B. Comme a(fi ) ∈ Im a et a(ej ) = λj ej , puis
b(ei ) ∈ Im b et b(fj ) = µj fj , compte tenu du caractère auto-adjoint de a et b on a
p
 p
 p

a(fi ) = ej , a(fi ) ej = a(ej ), fi  ej = λj ej , fi  ej ,
j=1 j=1 j=1
q q q
b(ei ) = fj , b(ei ) fj = b(fj ), ei  fj = µj fj , ei  fj .
j=1 j=1 j=1

Notons Dλ ∈ Mp (R) et Dµ ∈ Mq (R) les matrices diagonales dont les coecients diagonaux sont
λ1 , . . . , λp et µ1 , . . . , µq , puis M = (ei , fj ) 1≤i≤p ∈ Mp,q (R). Les matrices de a , b et c = a + b
1≤j≤q
dans la base B sont alors     
Dλ D λ M 0 0 Dλ Dλ M
[a ]B = , [b ]B = , [c ]B = .
0 0 Dµ tM Dµ Dµ tM Dµ
On va montrer M = 0 ce qui prouvera [a ]B [b ]B = 0, donc a b = 0. On remarque que
   
Dλ 0 Ip M

[c ]B = N où N= t ,
0 Dµ M Iq
d'où on déduit det c = det Dλ · det Dµ · det N . Or c = c|E où c = a + b a pour matrice C dans la
base canonique de Rn , donc c a les mêmes valeurs propres non nulles λ1 , . . . , λp , µ1 , . . . , µq que
la matrice C , donc
p
 q

det c = λi µi = det Dλ · det Dµ ,
i=1 i=1
294 5. ESPACES EUCLIDIENS

d'où on déduit det N = 1 car les λi et µi sont non nuls. Compte tenu de l'égalité
   
Ip −M I 0
N = tp ,
0 Iq M − tM M + Iq

on obtient 1 = det N = det(Iq − tM M ). La matrice S = tM M ∈ Mq (R) est symétrique,


et positive car pour tout vecteur colonne X on a tXSX = t(M X)M X = M X2 ≥ 0. Les
valeurs propres α1 , . . . , αq de S sont donc positives. Par ailleurs, pour tout vecteur colonne
X = (xi )1≤i≤q , la i-ième coordonnée de Y = M X est égale à
q
 q

yi = ei , fj xj = ei , Z où Z= xj fj .
j=1 j=1

Ainsi Y est le vecteur des coordonnées de la projection orthogonale de Z sur Vect(e1 , . . . , ep )


exprimé dans la base orthonormée (e1 , . . . , ep ), donc Y 22 ≤ Z22 = x21 + · · · + x2q = X22 .
On en déduit tXSX =t(M X)(M X) = Y 22 ≤ X22 , donc on a αi ≤ 1 pour tout i. Or
det N = det(Iq − S) = qi=1 (1 − αi ), et comme det N = 1 et que 0 ≤ αi ≤ 1 pour tout i, les
αi sont forcément tous nuls donc S = 0, ce qui implique M = 0 (si M = 0 alors il existe un
vecteur colonne X vériant M X = 0, donc tXSX = t(M X)M X > 0, ce qui est impossible).
Compte tenu de la forme des matrices de a et b dans la base B, on en déduit que a b = 0, d'où
le résultat.

Problème 14. Soit A = (ai,j )1≤i,j≤n ∈ Mn (R) une matrice symétrique dénie positive.
Montrer que la matrice
 
ai,j
B=
i+j 1≤i,j≤n

est dénie positive.

Solution. On considère l'application


 
A : [0, 1] → Mn (R) t → A(t) = ai,j · ti+j−1 1≤i,j≤n .

Si on montre que A(t) est dénie positive pour tout t ∈ ]0, 1[, alors d'après l'exercice 5 page 260,
on aura prouvé que la matrice
 1  1   
i+j−1 ai,j
A(t) dt = ai,j t dt = =B
0 0 1≤i,j≤n i+j 1≤i,j≤n

est dénie positive.  x1 


Or si t > 0 on a, pour tout vecteur colonne non nul X = .. l'égalité
.
xn
 
x1
   tx2 
t  
XA(t)X = ai,j ti+j−1 xi xj = t· ai,j (xi ti−1 )(xj tj−1 ) = t·( tXt AXt ), Xt =  .. 
i,j i,j
 . 
tn−1 xn

et comme A est dénie positive, on en déduit tXA(t)X = t( tXt AXt ) > 0. Ainsi, A(t) est bien
dénie positive pour tout t > 0, d'où le résultat.
4. PROBLÈMES 295

Problème 15. Soit P ∈ R[X] un polynôme de degré  n ≥ 1, dont on note (αi )1≤i≤n les
racines complexes. Pour tout k ∈ N, on note sk = ni=1 αik et on considère la matrice
 
s0 s1 · · · sn−1
 s1 s2 sn 
A=
 ... ..  .
. 
sn−1 sn · · · s2n−2
On note q la forme quadratique dont A est la matrice dans la base canonique de Rn .
Montrer que la signature de q est égale à (r + s, s) où r est le nombre de racines réelles
distinctes de P et 2s le nombre de racines complexes non réelles distinctes de P .
Solution. Notons (e1 , . . . , en ) la base canonique de Rn . On remarque tout d'abord que
 n  n
 n 2
   i+j−2
 
−1
q xi ei = si+j−2 xi xj = αk xi xj = αk x .
i=1 1≤i,j≤n 1≤i,j,k≤n k=1 =1

Autrement dit, on peut écrire


n
 n
 n
  
∀x ∈ R ,n
q(x) = fαk (x) 2
où fα xi ei = α−1 x .
k=1 i=1 =1
Notons β1 , . . . , βr les racines réelles distinctes de P et m1 , . . . , mr leur ordre de multiplicité
respectives, et γ1 , γ 1 , . . . , γs , γ s les racines complexes non réelles distinctes de P , l'ordre de mul-
tiplicité de γi étant noté ni . On peut écrire
r
 s

∀x ∈ Rn , q(x) = mk fβk (x)2 + nk (fγk (x)2 + fγ k (x)2 ).
k=1 k=1
Pour tout k, 1 ≤ k ≤ s, notons uk et vk les parties réelles et imaginaires de fγk , de sorte que
fγk = uk + ivk et fγ k = uk − ivk . On a fγ2k + fγ2k = 2u2k − 2vk2 , donc nalement
r
 s

∀x ∈ Rn , q(x) = mk fβk (x)2 + 2nk (uk (x)2 − vk (x)2 ).
k=1 k=1
Ainsi, q s'écrit sous la forme de la somme de r + s carrés de formes linéaires sur Rn retranché à
la somme de s carrés de formes linéaires sur Rn . Nous allons montrer que les formes linéaires en
présence sont linéairement indépendantes, ce qui prouvera que la signature de q est (r + s, s).
Pour prouver que ces formes linéaires forment une famille libre dans (Rn )∗ , il revient au même
de montrer que les matrices de ces formes linéaires sont linéairement indépendantes. Notons Ak =
(1, βk , . . . , βkn−1 ) la matrice de fβk dans la base canonique de Rn , Uk celle de uk et Vk celle de vk .
On a Uk +iVk = (1, γk , . . . , γkn−1 ). Soit p = r+2s et considérons la matrice M ∈ Mp,n (R) dont les
lignes sont constituées des matrices Ak , Uk et Vk , ce que nous notons par commodité sous la forme
M = L(A1 , . . . , Ar , U1 , . . . , Us , V1 , . . . , Vs ). Soit M  ∈ Mp (R) la matrice carrée extraite de M en
ne conservant que les p premières colonnes. En notant Ak , Uk et Vk les matrices lignes constituées
des p premiers coecients de Ak , Uk et Vk , on a M  = L(A1 , . . . , Ar , U1 , . . . , Us , V1 , . . . , Vs ).
Regardons M  comme une matrice complexe. Son rang est inchangé en ajoutant à une ligne une
combinaison linéaire (à coecients complexes) d'autres lignes, ou en multipliant une ligne par
un scalaire non nul. Ainsi, M  a le même rang que la matrice
N = L(A1 , . . . , Ar , U1 + iV1 , . . . , Us + iVs , U1 − iV1 , . . . , Us − iVs ).
Cette matrice est la matrice de Vandermonde V (β1 , . . . , βr , γ1 , . . . , γs , γ 1 , . . . , γ s ), et comme les
βk , les γk et γ k sont distincts deux à deux, on en déduit que N est inversible. Donc rg(M  ) =
rg(N ) = p, donc M  est inversible dans Mp (C). Comme M  est une matrice réelle, son inverse
est une matrice réelle, donc le rang de M  vu comme une matrice réelle est aussi égal à p. Ainsi,
on en déduit rg(M ) = p donc les formes linéaires fβk , uk et vk forment bien une famille libre,
d'où le résultat.
296 5. ESPACES EUCLIDIENS

Remarque. Les coecients sk sont les sommes de Newton des racines de P , et peuvent
se calculer aisément à partir des coecients de P grâce aux formules de Newton (voir
l'exercice 3 page 86).

Problème 16. Soient A, B ∈ Mn (R) deux matrices réelles unitairement semblables, i.e.
t
∃U ∈ Mn (C), U unitaire, A = U BU.
Montrer que A et B sont orthogonalement semblables, c'est-à-dire
∃Ω ∈ Mn (R), Ω orthogonale, A = t ΩBΩ.
(Indication : montrer l'existence de P ∈ Gn (R) telle que A = P −1 BP et tA = P −1 tBP ,
puis considérer la décomposition polaire P = ΩS , avec Ω orthogonale et S symétrique 
voir l'exercice 6 page 261.)
Solution. Suivons l'indication et commençons par montrer l'existence d'une matrice réelle inver-
sible P telle que P A = BP et P tA = tBP . Le principe ressemble à la solution de la question a) du
problème 14 page 167 (c'est classique). On écrit la matrice unitaire U sous la forme U = U1 +iU2 ,
t
où U1 , U2 ∈ Mn (R). L'égalité A = U BU entraîne U A = BU et U tA = tBU , donc
U1 A = BU1 , U2 A = BU2 et U1 tA = tBU1 , U2 tA = tBU2 . (∗)
Le polynôme ϕ(X) = det(U1 + XU2 ) ∈ R[X] ne s'annule pas puisque ϕ(i) = det U = 0,
donc n'a qu'un nombre ni de racines. En choisissant x ∈ R tel que ϕ(x) = 0, la matrice
P = U1 + xU2 ∈ Mn (R) est inversible et par linéarité, les égalités (∗) donnent P A = BP et
P tA = tBP .
Nous considérons maintenant la décomposition polaire de P . Nous la retrouvons ici dans le
cas des matrices réelles (l'exercice 6 page 261 traite le cas des matrices complexes). La matrice
t
P P est symétrique positive (c'est classique, la positivité provient de l'identité tX( tP P )X =
t
(P X)(P X) = P X2 ), donc on peut trouver une matrice symétrique positive S ∈ Mn (R) telle
que tP P = S 2 (c'est également classique, il sut de diagonaliser tP P dans une base orthonormée,
voir l'exercice 1 page 257). Comme P est inversible, S l'est également et la matrice Ω = P S −1
vérie t ΩΩ = S −1 ( tP P )S −1 = In , donc est orthogonale. Ainsi, on a P = ΩS avec Ω orthogonale
et S ∈ Mn (R) symétrique dénie positive.
Achevons notre raisonnement. En prenant en compte la forme polaire de P , les égalités
P A = BP et P tA = tBP entraînent respectivement
A = P −1 BP = S −1 t ΩBΩ S et A = tP B tP −1 = S t ΩBΩ S −1 .
On en déduit SAS −1 = S −1 AS , donc S 2 commute avec A. Nous allons montrer que cela entraîne
le fait que S et A commutent. Pour cela, désignons par 0 < λ1 < . . . < λr les valeurs propres
de S et (Eλi (S))1≤i≤r les sous-espaces propres associés. En diagonalisant S , on s'aperçoit que S
et S 2 ont les mêmes sous-espaces propres : Eλi (S) = Eλ2i (S 2 ). Maintenant, si x ∈ Eλi (S), on a
S 2 Ax = AS 2 x ce qui entraîne S 2 (Ax) = λ2i (Ax). On en déduit Ax ∈ Eλ2 (S 2 ), donc Ax ∈ Eλi (S),
i
donc SAx = λi Ax = ASx. Ainsi, A et S commutent sur chaque sous-espace propre de S , donc
sur Rn tout entier. En repartant de A = S −1 t ΩBΩS , on en déduit AS = SA = t ΩBΩS , donc
A = t ΩBΩ est orthogonalement semblable à B .
Remarque. On montre de même que deux matrices symétriques réelles semblables sont
orthogonalement semblables.

Problème 17 (Hausdorffien d'une application linéaire en dimension finie).


Soit E un espace hermitien de dimension nie n ∈ N∗ .
4. PROBLÈMES 297

1/ Soit f ∈ L(E). On appelle Hausdoren de f le sous-ensemble de C déni par


 
f (x) · x 
H(f ) =  x ∈ E  {0} = {f (x) · x | x = 1}.
x·x
a) Montrer que H(f ) est convexe et compact. (Indication : pour montrer que [ξ, η] ⊂ H(f )
si ξ, η ∈ H(f ), on se ramènera à montrer que [0, 1] ⊂ H(g) où g = αf + β Id avec α et β
bien choisis. Puis on écrira g = u + iv , avec u et v autoadjoints.)
b) Si f se diagonalise dans une base orthonormale, déterminer H(f ).
2/ Soit f ∈ L(E) telle que tr f = 0. Montrer l'existence d'une base B orthonormale de
E dans laquelle la matrice de f ait tout ses termes diagonaux nuls.

Solution. 1/ a) L'ensemble H(f ) est compact car c'est l'image par l'application continue x →
f (x) · x du compact {x ∈ E, x = 1}.
Montrons que H(f ) est convexe. Donnons nous x, y ∈ E , x = y = 1 et posons ξ = f (x)·x
et η = f (y) · y . Il s'agit de montrer [ξ, η] ⊂ H(f ). Si ξ = η c'est terminé. Sinon, ξ = η , et on va
se ramener sur [0, 1]. Il existe deux nombres complexes α et β tels que
αξ + β = 1 et αη + β = 0.
On pose g = αf + β IdE . On a
[ξ, η] ⊂ H(f ) ⇐⇒ ∀t ∈ [0, 1], tξ + (1 − t)η ∈ H(f )
⇐⇒ ∀t ∈ [0, 1], ∃z ∈ E, z = 1, tξ + (1 − t)η = f (z) · z
 
⇐⇒ ∀t ∈ [0, 1], ∃z ∈ E, z = 1, t = α tξ + (1 − t)η + β = g(z) · z
⇐⇒ [0, 1] ⊂ H(g).
Montrons donc [0, 1] ⊂ H(g). On sait que g(x) · x = 1 et g(y) · y = 0. Écrivons g = u + iv
avec u et v autoadjoints (il sut de prendre u = 12 (g + g ∗ ) et v = 2i (g ∗ − g)). Quitte à multiplier
x par λ ∈ C, |λ| = 1, on peut supposer v(x) · y ∈ i R. Par ailleurs g(x) · x = 1 = u(x) · x − iv(x) · x
donc v(x) · x = 0 (ceci car u et v étant autoadjoints, u(x) · x et v(x) · x sont des nombres réels).
On a de même v(y) · y = 0.
Ceci étant, on pose h(t) = tx + (1 − t)y pour t ∈ [0, 1]. Comme ξ = f (x) · x = f (y) · y = η ,
les vecteurs x et y forment une famille libre. Ceci prouve que h(t) = 0 pour tout t ∈ [0, 1] et
v[h(t)] · h(t) = t2 v(x) · x + t(1 − t)[v(x) · y + v(x) · y] + (1 − t)2 v(y) · y = 0
(car v(x) · y ∈ iR). La fonction
g[h(t)] · h(t)
ψ : [0, 1] → C t →
h(t)2
prend donc ses valeurs dans R. De plus ψ est continue, ψ(0) = 0 et ψ(1) = 1 donc d'après le
théorème des valeurs intermédiaires, [0, 1] ⊂ ψ([0, 1]) ⊂ H(g), d'où le résultat.
b) Soit (e1 , . . . , en ) une base orthonormale
 de vecteurs propres de f , associés aux valeurs propres
λ1 , . . . , λn de f . Pour tout x = ni=1 xi ei ∈ E tel que x = 1, on a
 
  
f (x) · x = f xi ei · xi e i = |xi |2 λi .
i i i

Comme i |xi |2 = 1, on en conclue que H(f ) est l'enveloppe convexe des λi . Dans le plan
complexe, on peut aussi voir H(f ) comme l'intérieur du polygone convexe dont les sommets sont
les λi .
2/ On procède par récurrence sur n = dim E . Pour n = 1, c'est évident. Supposons le résultat
vrai au rang n − 1 et montrons le au rang n.
Montrons déjà que 0 ∈ H(f ). Soit B = (e1 , . . . , en ) une base orthonormée et A la matrice de f
dans cette base. Les termes de la diagonale principale ai,i de A vérient la relation ai,i = f (ei )·ei ,
298 5. ESPACES EUCLIDIENS

ce qui prouve que ai,i ∈ H(f ) et H(f ) étant convexe,


1 1
ai,i = tr f = 0 ∈ H(f ).
n n
i

Il existe donc un vecteur normé f1 tel que f (f1 ) · f1 = 0. Notons F l'hyperplan {f1 }⊥ et
g = pF ◦ f|F , où pF désigne la projection orthogonale sur F , de sorte que dans toute base B  de
F,  
0 × ··· ×
 × 
 
[f ](f1 ,B  ) = . .
 .. [g]B  
×
On a donc tr g = 0, donc d'après l'hypothèse de récurrence, il existe une base B  orthonormale
de F dans laquelle la matrice de g n'ait que des zéros sur la diagonale principale. Ainsi, la base
B = (f1 , B  ) est une base orthonormale de E (car f1 ∈ F ⊥ ) et
   
0 × ··· × 0 × ··· ×
 ×   ... .. 
   × 0 . 
[f ]B =  . = . ... ... .
 .. [g]B    .. × 
× × ··· × 0

Remarque. On peut répondre à la partie 2/ sans utiliser la partie 1/ si on suppose f


autoadjoint.
Chapitre 6

Probabilités

M esurer le hasard est un concept abstrait qui mit beaucoup de temps à émer-
ger. Les premiers écrits connus sur les chances de gagner au jeu, datent de
Cardan, au XVIe siècle. Au XVIIe siècle, Kepler et Galilée font usage de cal-
culs de probabilités, puis l'engouement pour les jeux de hasard de cette époque
accéléra le developpement du calcul combinatoire, notamment avec Pascal et
Fermat. Un pas est franchi avec Bernoulli en 1713 lorsqu'il formule une version
simple de la loi des grands nombres. Au XVIIIe, Bayes introduisit la notion
de probabilité conditionnelle. Une avancée majeure fut réalisée en 1812 par
Laplace, permettant aux probabilités de dépasser la combinatoire, lorsque ce
dernier énonça une version du théorème de la limite centrale. Kolmogorov, en
1933, a rigoureusement mis en place l'axiomatique des probabilités, qui est à
la base de la théorie désormais adoptée.

1. Dénombrement
Le dénombrement trouve naturellement sa place en première partie d'un cours de
probabilités, car dans une situation d'équiprobabilité sur un espace ni, la probabilité d'un
événement s'obtient comme le rapport entre le nombre d'issues favorables et le nombre
total d'issues possibles.
1.1. Cardinal des ensemble nis
Définition 1 (Ensemble fini et cardinal). On dit qu'un ensemble E est ni s'il est
vide ou s'il existe n ∈ N∗ tel qu'il existe une bijection de {1, 2, · · · , n} dans E . Dans ce
cas, l'entier n ne dépend pas de la bijection, on l'appelle cardinal de E . Il est noté |E| (ou
Card(E), ou encore #E ). Si E est vide son cardinal est égal à 0.
Remarque 1. Un ensemble qui n'est pas ni, est dit inni. Les ensembles innis n'ont pas
tous la même "sorte" d'inni. Les ensembles innis dénombrables sont ceux en bijection
avec N. L'ensemble des nombres réels n'est pas dénombrable.
Proposition 1. Soient E et F deux ensembles.
 Si E est ni et s'il existe une bijection de E vers F , alors F est ni et |F | = |E|.
 Si F est ni et s'il existe un injection de E vers F , alors E est ni et |E| ≤ |F |,
avec égalité si et seulement si f est bijective.
 Si E est ni et s'il existe une surjection de E vers F , alors F est ni et |F | ≤ |E|,
avec égalité si et seulement si f est bijective.
Remarque 2.  On détermine parfois le cardinal d'un ensemble en construisant une
bijection avec un autre ensemble plus simple dont on connait le cardinal (c'est
une approche combinatoire). Les constructions de telles bijections sont parfois as-
sez astucieuses (voir par exemple la preuve combinatoire de la détermination des
nombres de Catalan, question 2/ de l'exercice 10 page 315).
 De manière générale, pour deux ensembles E et F (pas forcément nis), s'il existe
une bijection de E vers F on dit que E et F sont équipotents. Lorsqu'il existe une
300 6. PROBABILITÉS

injection de E vers F on dit que E est subpotent à F . En quelque sorte, ceci permet
de généraliser au cas inni la comparaison de taille entre les ensembles. Par exemple
un ensemble ni est subpotent à N, lui même subpotent à R. Un résultat classique
(théorème de Cantor-Bernstein) arme que si deux ensembles sont subpotents l'un
à l'autre, alors ils sont équipotents.
Corollaire 1 (Principe des tiroirs). Soient E et F deux ensembles nis avec |E| >
|F |. Si ϕ est une application de E vers F , alors il existe y ∈ F ayant au moins deux
antécédents par ϕ dans E .
Remarque 3.  Ainsi, si on doit ranger n + 1 chaussettes dans n tiroirs, alors un
des tiroirs (au moins) contiendra deux chaussettes ou plus. En anglais on parle de
pigeonhole principle (qui fait référence à la répartition des pigeons dans les trous
d'un pigeonnier).
 Le principe des tiroirs peut entrainer des résultats assez puissants. Par exemple, il
permet de montrer que pour tout x ∈ R et pour tout n ∈ N∗ , il existe p/q ∈ Q
avec 1 ≤ q ≤ n tel que |x − p/q| < 1/(qn). On se ramène au principe des tiroirs
en considérant les n + 1 valeurs {mx} pour m = 1, . . . , n + 1 ({y} = y − [y] est la
partie fractionnaire de y ), toutes dans [0, 1[, et les n tiroirs [r/n, (r + 1)/n[ pour
r = 0, 1, . . . , n − 1. Au moins deux réels {ax} et {bx} avec a < b se retrouvent dans
le même tiroir, ce qui implique |{bx}−{ax}| < 1/n et donc |(b−a)x−[bx]+[ax]| <
1/n. En notant p = [bx] − [ax] ∈ Z et q = b − a ∈ N∗ on en déduit |qx − p| < 1/n
avec 1 ≤ q ≤ n (note : ce résultat fait parti d'un exercice du tome d'analyse).
 Une autre conséquence amusante est la suivante : si on choisit 6 nombres distincts
dans {1, 2, 3, 4, 5, 6, 7, 8, 9, 10}, il en existe deux dont la somme vaut 11. En eet,
chacun des 6 nombres est dans l'un des 5 sous-ensembles {1, 10}, {2, 9}, {3, 8},
{4, 7}, {5, 6}, donc il y en a deux parmi les 6 qui sont dans le même sous-ensemble,
et leur somme vaut donc 11.
 D'autres applications du principe des tiroirs font l'objet de l'exercice 3 page 306.
Proposition 2. Soit B un ensemble ni et A une partie de B . Alors A est ni et
|A| ≤ |B|. Si |A| = |B| alors A = B .
Proposition 3. Soient A et B deux ensembles nis.
 On a |A ∪ B| = |A| + |B| − |A ∩ B|.
 En particulier si A et B sont disjoints, alors |A ∪ B| = |A| + |B|.
 On a |A  B| = |A| − |A ∩ B|. En particulier si B ⊂ A on a |A  B| = |A| − |B|.
Proposition 4. Soient A1 , . . . , An des ensembles nis deux à deux disjoints, c'est-à-dire
que pour tout (i, j) tels que 1 ≤ i < j ≤ n, on a Ai ∩ Aj = ∅. Alors
 
n   n
 
 Ai  = |Ai |.
 
i=1 i=1
Remarque 4. Un cas particulier de ce dernier résultat est le suivant : si A1 , . . . , An forment
une partition d'un ensemble ni E , (c'est-à-dire si les Ai sont deux à deux disjoints et
si ni=1 Ai = E ), alors |E| = ni=1 |Ai |. Lorsque tous les Ai on le même cardinal k , alors
|E| = nk . Ce dernier résultat est connu sous le nom de lemme des bergers et est souvent
utilisé (implicitement) dans les problèmes combinatoires. Cette dénomination provient du
fait qu'un berger peut compter ses moutons s'il ne voit que leurs pattes, en divisant le
nombre de pattes par quatre.
Le théorème suivant généralise le premier résultat de la proposition 3. Il n'est pas
au programme des classes préparatoires, néanmoins il est utile et la preuve proposée ci-
dessous est à retenir.
1. DÉNOMBREMENT 301

Proposition 5 (Formule du crible de Poincaré). Soient A1 , . . . , An des ensembles


nis. Alors on a
n 
   n 
 
 Ai  = (−1)k−1 |Ai1 ∩ . . . ∩ Aik | .
 
i=1 k=1 1≤i1 <...<ik ≤n

Démonstration. Il est possible de procéder par récurrence sur n mais cette approche est peu
commode. Une preuve plus naturelle s'obtient en considérant les fonctions indicatrices 1Ai dé-
nies sur E = ∪ni=1 Ai par : 1Ai (x) = 1 si x ∈ Ai , = 0 sinon. L'indicatrice d'une intersection
est le produit des indicatrices, et l'indicatrice du complémentaire A d'une partie A de E est
1A = 1 − 1A . Ainsi on peut écrire
n

1A1 ∪...∪An = 1 − 1A1 ∪...∪An = 1 − 1A1 ∩...∩An = 1 − 1A1 · · · 1An = 1 − (1 − 1Ai ).
i=1
On en déduit
n
  n
 
1A1 ∪...∪An = (−1)k−1 1Ai1 · · · 1Aik = (−1)k−1 1Ai1 ∩...∩Aik .
k=1 1≤i1 <...<ik ≤n k=1 1≤i1 <...<ik ≤n
et donc n 
   n
 
 
 Ai  = 1A1 ∪...∪An (x) = (−1)k−1 1Ai1 ∩...∩Aik (x)
 
i=1 x∈E x∈E k=1 1≤i1 <...<ik ≤n
n  
= (−1)k−1 1Ai1 ∩...∩Aik (x).
k=1 1≤i1 <...<ik ≤n x∈E

On conclut en observant que x∈E 1Ai1 ∩...∩Aik (x) = |Ai1 ∩ . . . Aik |. 

1.2. Listes et arrangements


Proposition 6. Soient n ensembles nis E1 , . . . , En . Le produit cartésien E1 × . . . × En
est un ensemble ni et vérie |E1 × . . . × En | = |E1 | × . . . × |En |. En particulier, pour un
ensemble ni E on a |E n | = |E|n .
Définition 2. Soit E un ensemble et p ∈ N∗ . On appelle p-liste (ou p-uplet) de E tout
élément (x1 , . . . , xp ) de E p .
Remarque 5.  La proposition précédente indique que lorsque E est un ensemble ni,
il y a |E| p-listes de E .
p

 Dans une liste, l'ordre des éléments importe (ce n'est pas un ensemble), et un
même élément peut gurer plusieurs fois dans la liste. Ainsi les listes modélisent
les tirages successifs avec remise. Par exemple, dans un jeu de 52 cartes, le nombre
de façons de tirer 10 cartes avec remise est 5210 .
Proposition 7. Soit E un ensemble. On pose n = |E|. Soit p ∈ N∗ , p ≤ n. On appelle
p-arrangement de E toute p-liste de E d'éléments distincts. Le nombre de p-arrangements
de E est Apn = n(n − 1) · · · (n − p + 1) = n!/(n − p)!. En particulier si p = n le nombre de
n-arrangements de E est n!.
Remarque 6.  Construire un p-arrangement de E , c'est donc choisir un premier
élément de E (n possibilités), puis un deuxième élément distinct du premier ( n − 1
possibilités), etc, jusqu'à un p-ième élément distinct des p − 1 précédents (n − p + 1
possibilités). Le nombre total est donc bien n(n − 1) · · · (n − p + 1).
 Dans les arrangements, l'ordre des éléments importe mais ceux ci sont distincts.
Ainsi les arrangements modélisent les tirages successifs sans remise. Par exemple,
dans un jeu de 52 cartes, le nombre de façons de tirer 10 cartes sans remise est
52 = 52 × 51 × . . . × 43.
A10
302 6. PROBABILITÉS

Proposition 8 (Nombre d'applications entre deux ensembles). Soient E et F


deux ensembles nis.
(i) L'ensemble des applications de E vers F , noté F E , est ni, et on a |F E | = |F ||E| .
(ii) En notant p = |E| et n = |F |, et lorsque p ≤ n, l'ensemble des applications
injectives de E dans F est ni et de cardinal Apn = n!/(n − p)!.
(iii) En notant n = |E|, l'ensemble des bijections de E vers E , appelées permutations
de E et noté SE , est ni et de cardinal n!.
Démonstration. Montrons d'abord (i) et (ii). Soit p = |E| et notons x1 , . . . , xp les élements
de E . A tout p-uplet Y = (y1 , . . . , yp ) de F on associe la fonction ϕY : E → F dénie par
ϕY (xk ) = yk , pour 1 ≤ k ≤ p. L'application Y → ϕY est une bijection de F p vers F E , donc
|F E | = |F p | = |F |p = |F ||E| d'après la proposition 6. On en déduit (i)
Restreinte aux p-arrangements, l'application Y → ϕY est une bijection de l'ensemble des
p-arrangements de F vers l'ensemble des applications injectives de F E . On en déduit (ii).
Pour (iii) on observe que E étant ensemble ni, les bijections de E sur E sont les injections
de E sur E , et on conclut avec (ii). 

Remarque 7.  Muni de la loi de composition, l'ensemble SE des permutations de


E est un groupe, appelé groupe symétrique de E . Lorsque E = {1, . . . , n}, on
retrouve le groupe symétrique d'indice n (voir la dénition 11 page 22), noté Sn .
On le retrouve parfois lorsqu'on souhaite compter le nombre de permutations de
{1, . . . , n} ayant certaines propriétés (voir par exemple l'exercice 8 page 312).
 Compter le nombre de surjections est plus dicile ; on le retrouve dans le cadre de
l'étude des nombres de Stirling de seconde espèce (voir le problème 7 page 379).
Proposition 9. Soit E est un ensemble ni. Alors l'ensemble P(E) des parties de E est
ni et |P(E)| = 2|E| .
Démonstration. À chaque partie F de E on associe la fonction 1F : E → {0, 1} indicatrice de
F , dénie par 1F (x) = 1 si x ∈ F , = 0 sinon. L'application F → 1F est une bijection de P(E)
sur {0, 1}|E| , donc on a |P(E)| = 2|E| . 

1.3. Combinaisons
Définition 3. Soit E un ensemble ni, soit n = |E|. Soit p ∈ N. On appelle p-combinaison
de E tout partie de Edecardinal p. Le nombre de p-combinaisons de E ne dépend que
n
de n et p. On le note ou encore Cnp .
p
   
n n! n
Proposition 10. Si 0 ≤ p ≤ n, on a = . Lorsque p > n on a = 0.
p p!(n − p)! p
Remarque 8.  La notation Cnp est de moins en moins utilisée car peu commode.
 Dans les combinaisons, les éléments sont distincts et leur ordre n'importe pas. Ainsi
les combinaisons modélisent les tirages simultanés. Par exemple, dans
 un jeu de 52
52
cartes, le nombre de façons de tirer 10 cartes simultanément est .
10
n!
 Il est remarquable que soit un entier. Cette propriété est utilisée dans le
p!(n − p)!  
2n
sujet d'étude 1 page 47 à partir de l'entier pour prouver qu'il existe toujours
n
au moins un nombre premier p vériant n < p < 2n − 2, dès que n ≥ 4.
 Pour 1 ≤ p ≤ n, on appelle p-liste strictement croissante de {1, . .. , n} toute famille
n
d'entiers (i1 , . . . , ip ) telle que 1 ≤ i1 < . . . < ip ≤ n. Il y a p-listes de cette
p
1. DÉNOMBREMENT 303

forme. En eet, à chaque p-combinaison de {1, . . . , n} on peut associer une et une


seule p-liste strictement croissante en rangeant ses éléments par ordre croissant. De
manière équivalente,lenombre de fonctions strictement croissantes de {1, . . . , p}
n
dans {1, . . . , n} est.
p
 On appelle p-combinaison avec répétition les p-listes dans lesquelles on autorise les
répétitions mais dans lesquelles l'ordre ne compte pas. Les p-combinaisons avec
répétition modélisent les tirages avec remise, dans lesquels l'ordre ne compte pas.
Lesp-combinaisons
 avec répétition d'un ensemble E de cardinal n sont au nombre
n+p−1
de . Ce résultat est classique et fait l'objet de l'exercice 4 page 306
p
(trois preuves sont proposées).
Proposition 11. Soient n et p deux entiers naturels. Alors
   
n n
si 0 ≤ p ≤ n, = , (formule de symétrie)
p n−p
     
n n−1 n−1
si p, n ≥ 1, = + , (formule de Pascal)
p p−1 p
     
n n n−1 n−p+1 n
si p, n ≥ 1, = = ,,
p p p−1 p p−1
   n  
n+1 q
si p, n ≥ 0, = .
p+1 q=p
p

Démonstration. Remarquons que lorsque p > n, il est facile d'obtenir les trois dernières propriétés
(les termes sont nuls). On peut donc se placer dans le cas où p ≤ n.
Les trois premières propriétés sont faciles à montrer avec une approche combinatoire, ou à
partir de la proprosition 10.      
q q+1 q
Pour montrer la dernière propriété on part de l'identité = − (consé-
p p+1 p+1
quence de la formule de Pascal) que l'on somme sur q . On peut aussi en obtenir une preuve
combinatoire en procédant comme suit. Pour tout k, 1 ≤ k ≤ n − p + 1, on note Ak l'ensemble
des parties P de {1, . . . , n + 1} à p + 1 éléments tel que le plus petit entier dans P est k. Il y a
autant d'éléments
 dans  Ak que dans l'ensemble des parties de {k + 1, . . . , n + 1} à p éléments,
n−k+1
donc |Ak | = . Comme toute partie de {1, . . . , n + 1} à p + 1 éléments est dans l'un
p
et l'un seulement des Ak avec 1 ≤ k ≤ n − p + 1, on en déduit
  n−p+1
      
n+1 n n−1 p
= |Ak | = + + ··· + .
p+1 p p p
k=1


Proposition 12. Soit n ∈ N. Alors


n  
 n
= 2n .
k=0
k

Proposition 13 (Formule du binôme). Soient a et b deux éléments d'une algèbre,


qui commutent (ab=ba). Alors on a
n  

n n
(a + b) = ak bn−k .
k=0
k
304 6. PROBABILITÉS

 
n
Remarque 9.  Cette formule justie le nom de coecients binomiaux pour les .
k
 Cette formule peut être utilisée lorsque a et b sont des nombres réels ou complexes,
des polynômes, et aussi lorsque a et b sont des matrices qui commutent.
La formule de Vandermonde énoncée ci-dessous n'est pas au programme des classes
préparatoires mais elle est classique et il faut savoir la redémontrer.

Proposition 14 (Formule de Vandermonde). Soient m, n et p des entiers naturels.


Alors on a
p     
n m n+m
= .
k=0
k p−k p
Démonstration. Une preuve algébrique est immédiate en utilisant la formule du binôme, à partir
de l'identité (1 + X)n (1 + X)m = (1 + X)m+n . Si p > m + n les deux termes de l'expression sont
nuls donc l'identité est vraie. Supposons maintenant p ≤ n + m. Par commodité, on développe
(1 + X)n par la formule
  du binôme en poursuivant jusqu'au degré n + m (on peut le faire car
lorsque k > n, on a nk = 0), on fait la même chose pour (1 + X)m . On obtient
n+m    n+m    n+m 
 n  m  n + m
i  j
X X = X p.
i j p
i=0 j=0 p=0

Avec ce tour de passe-passe, on en déduit immédiatement par produit de polynômes, que le


coecient de X p dans le terme de gauche est égal à
p  
 
n m
k p−k
k=0
n+m
et celui de droite est égal à p , d'où le résultat. 

Remarque 10.  La formule de Vandermonde est vériée même si p > n ou p > m
(rappelons que nk = 0 si k > n).
 On peut aussi en donner une preuve combinatoire, en comptant de deux manières
diérentes le nombre de parties à p éléments d'un ensemble E ∪ F , ou E et F sont
disjoints de cardinal respectifs m et n.
 Dans le cas particulier où m = p, on en déduit (en utilisant la formule de symétrie)
n   
  
n m n+m
= .
k=0
k k m

En particulier si n = m on obtient
n  2
  
n 2n
= .
k=0
k n

Coecient multinomial.
Proposition 15. Soit E un ensemble ni non vide et soit n = |E|. Soit p ∈ N∗ et
i1 , . . . , ip des entiers naturels tels que i1 + · · · + ip = n. Alors le nombre de partitions
ordonnées (A1 , . . . , Ap ) de E , telles que pour tout k , |Ak | = ik est égal à
 
n n!
= .
i1 , . . . , ip i1 ! · · · ip !
1. DÉNOMBREMENT 305

Proposition 16 (Formule du multinôme). Soient a1 , . . . , ap des éléments d'une al-


gèbre qui commutent deux à deux. Alors pour tout n ∈ N∗ on a
  n

n
(a1 + · · · + ap ) = ai11 · · · aipp .
i ,...,i ∈N
i1 , . . . , i p
1 p
i1 +···+ip =n

1.4. Exercices
Exercice 1. On dispose d'un jeu de 32 cartes. On rappelle que la couleur désigne carreau,
coeur, pique ou trèe, et que la hauteur désigne (dans l'ordre) : as, roi, dame, valet, 10,
9, 8, 7. On tire 5 cartes dans le paquet de 32 cartes.
1/ Combien y a t-il de mains possibles ?
2/ Combien de mains contiennent :
a) un carré (4 cartes de même hauteur et une autre carte) ?
b) un full (3 cartes de même hauteur et 2 autres de même hauteur) ?
c) une quinte ush (5 cartes de hauteurs consécutives dans une même couleur) ?
d) une quinte (5 cartes de hauteurs consécutives pas toutes de même couleur) ?
 1/ Une main correspond à un sous-ensemble de 5 cartes parmi les 32 cartes, donc il y
Solution.
32 32 × 31 × 30 × 29 × 28
en a = = 201 376.
5 1×2×3×4×5
2/a) Il y a 8 possibilités d'avoir 4 cartes de même hauteur (autant que de hauteurs), et la
cinquième carte doit être choisie parmi les 28 cartes restantes. On en déduit qu'il y a 8×28 = 224
carrés possibles.  
4
b) Pour chacune des 8 hauteurs, il y a = 4 possibilités d'avoir trois cartes de cette hauteur,
3
ce qui donne 8 × 4 = 32 possibilités pour les trois premiers cartes. Les deux autres
  cartes doivent
4
être de même hauteur parmi les 7 hauteurs restantes, donc au nombre de 7 × = 7 × 6 = 42.
2
En tout on a donc 32 × 42 = 1344 fulls possibles.
c) Pour chaque couleur, il y a 4 possibilités d'avoir 5 cartes de hauteurs consécutives, donc
4 × 4 = 16 quintes ush en tout.
d) Si on ne tient pas compte de la couleur, il y a 4 possibilités d'avoir 5 cartes de hauteurs consé-
cutives. Chacune peut prendre l'une quelconque des 4 couleurs donc cela fait 4 × 45 possibilités
d'avoir 5 cartes de hauteurs consécutives. En retirant les cas où les 5 cartes ont la même couleur
(les quintes ush) cela donne 4 × 45 − 16 = 4080 suites au total.

Exercice 2. Soit n ∈ N∗ . a) Combien y a t-il de parties de {1, 2, . . . , 2n} qui contiennent


autant de nombres pairs que impairs ?
b) Combien y a t-il de parties de {1, 2, . . . , 3n} qui contiennent autant de nombres divi-
sibles par trois, que non-divisibles par trois ?
Solution. a) Notons A l'ensemble des parties concernées. Une partie P dans A est constituée de
k nombres pairs, choisis parmi les n nombres {2, 4, . . . , 2n}, et k nombres impairs, choisis parmi
les n autres, pour un entier k vériant 0 ≤ k ≤ n. On en déduit
n  2  
n 2n
|A| = = ,
k n
k=0

où on a utilisé la formule de Vandermonde pour la dernière égalité (voir la remarque qui suit la
proposition 14 page 304, dans le cas où n = m = p). On peut retrouver ce résultat sans passer par
306 6. PROBABILITÉS

la formule de Vandermonde, en remarquant que A est en bijection avec l'ensemble B des parties
de {1, 2, . . . , 2n} à n éléments : pour tout P ∈ A, on associe Q ∈ B déni par Q = Q0 ∪ Q1 , où
Q0 est l'ensemble des entiers pairs de P , et Q1 l'ensemble des entiers impairs de {1, . . . , 2n} qui
ne sont pas dans P . On a bien Q ∈ B car |Q| = |Q1 | + |Q2 | = |Q1 | + (n − |Q1 |) = n.
b) Le même raisonnement implique que le nombre de de parties recherchées est
n  
   
n 2n 3n
= ,
k k n
k=0
où on a également utilisé la formule de Vandermonde, dans le cas m = p = 2n. Un raisonnement
combinatoire similaire au précédent permet aussi de retrouver directement ce résultat.

Exercice 3. Soit n ∈ N∗ . 1/ Supposons n ≥ 2. Soit (a1 , a2 , ..., a2n ) une suite de 2n


entiers naturels non nuls, telle que leur somme est ≤ 3n. Montrer qu'il existe i et j
vériant 1 ≤ i < j ≤ 2n, tels que ai+1 + ai+2 + · · · + aj = n − 1.
2/ Soit A une partie de {1, . . . , 2n} d'au moins n + 1 éléments. Montrer qu'il existe deux
éléments distincts a et b dans A tels que a divise b.
Solution. L'exercice repose sur le principe des tiroirs. 1/ Pour tout k , 1 ≤ k ≤ 2n on note
sk = a1 + · · · + ak et tk = sk + n − 1. On a 1 ≤ s1 < s2 < . . . < s2n ≤ 3n, et n ≤ t1 < . . . < t2n ≤
4n − 1. Ainsi les 4n valeurs si et tj sont toutes dans {1, . . . , 4n − 1} de cardinal 4n − 1. D'après
le principes des tiroirs, il doit donc y avoir au moins deux valeurs égales parmi les sj et les ti , et
comme les sj sont diérents deux à deux, et les ti également, ceci signie qu'il existe un des sj
égal à un des ti . Ceci s'écrit sj = si + n − 1 ou encore sj − si = n − 1, ce qu'il fallait démontrer.
2/ Tout élément m de A s'écrit de manière unique sous la forme m = 2e f (m) où e ∈ N et f (m) est
un entier impair. L'application f ainsi construite sur A est à valeurs dans B = {1, 3, . . . , 2n − 1}.
Comme |B| = n < |A|, le principe des tiroirs arme qu'il existe deux valeurs distinctes a < b
de A pour lesquelles f (a) = f (b). En notant q = f (a) ceci s'écrit a = 2e1 q et b = 2e2 q avec
e1 , e2 ∈ N. Comme a < b on a e1 < e2 , donc a divise b.

 Exercice 4 (Combinaisons avec répétition). Soit E un ensemble ni, de cardinal


n ∈ N∗ . On appelle p-combinaison avec répétition de E toute p-liste de E dans  laquelle on
n
autorise les répétitions, mais dans laquelle l'ordre ne compte pas. On note le nombre
p
de p-combinaisons avec  répétitions de E .
n
1/a) Montrer que est égal au nombre de n-listes (i1 , . . . , in ) de N qui vérient
p
i1 + · · · + in = p (de telles n-listes sont appelées compositions de p en n sommants).
b) On note Fc (p, n) l'ensemble des fonctions
  croissantes (au sens large) de {1, . . . , p} dans
n
{1, . . . , n}. Montrer que |Fc (p, n)| = .
p
2/ Nous proposons trois méthodes diérentes pour obtenir l'identité
   
n n+p−1
= . (∗)
p p

a) Prouver l'égalité (*) en montrant d'abord la relation


     
n n−1 n
∀n ≥ 2, ∀p ≥ 1, = + . (∗∗)
p p p−1
1. DÉNOMBREMENT 307

b) Prouver (*) directement, en construisant une bijection de Fc (p, n) vers l'ensemble des
parties à p éléments de {1, . . . , n + p − 1}.
c) Prouver (*) en considérant le coecient de xp dans la série entière 1/(1 − x)n .
Solution. Notons que ceci revient à dire que les p-combinaisons avec répétition de E sont les
classes d'équivalence des p-listes de E , pour la relation d'équivalence
(a1 , . . . , ap ) R (b1 , . . . , bp ) ⇐⇒ ∃σ ∈ Sp , (a1 , . . . , ap ) = (bσ(1) , . . . , bσ(p) ).

1/ Notons x1 , . . . , xn les éléments de E . A toute p-combinaison avec répétition P , on associe la


composition c = (i1 , . . . , in ) de p en n sommants, où ik est le nombre de fois que xk apparait
dans P . Ainsi construite, ϕ est une bijection de l'ensemble des p-combinaisons avec répétition
de E , vers l'ensemble des compositions de p en n sommants, d'où le résultat.
b) Soit a une p-combinaison avec répétition de E . Parmi les représentants (xi1 , xi2 , . . . , xip ) de
a, il en existe un unique pour lequel i1 ≤ i2 ≤ . . . ≤ ip . On note fa (1) ≤ . . . ≤ fa (p) les indices
correspondants. La fonction fa est bien dans Fc (p, n). La fonction a → fa est une bijection des
p-combinaisons avec répétition de E , vers Fc (p, n). D'où le résultat.
2/a) Supposons n ≥ 2 et p ≥ 1. On partitionne les compositions (i ) de p en n sommants,
1 , . . . , in
n−1
en deux parties. D'abord celles pour laquelle i1 = 0. Il y en a . Ensuite celles pour
p
lesquelles i1 ≥ 1. On notant i1 = i1 − 1 ≥ 0, on voit que ces dernières sont en bijection
 avec
 les
n
n-listes (i1 , i2 , . . . , in ) de N, telles que i1 + i2 + . . . + in = p − 1, donc au nombre de . On
p−1
a donc bien démontré la relation (**).    
n n+p−1
Pour obtenir (*), on va montrer que A(n, p) = − est nul, ce qui prouvera
p p
le résultat demandé. La formule de Pascal entraîne que A(n, p) = A(n − 1, p) + A(n, p − 1). Pour
prouver que A(n, p) = 0 pour toutp ∈ N, on procède ensuite par récurrence sur n ∈ N∗ . Pour
1
n = 1 cette propriété est vraie car = 1, donc A(1, p) = 0. Supposons la propriété vraie pour
p
n − 1. Comme A(n − 1, p) = 0, la relation obtenue plushaut entraîne A(n, p) = A(n, p − 1) pour
n
tout p ≥ 1. En particulier A(n, p) = A(n, 0). Comme = 1, on a bien A(n, 0) = 0, donc la
0
propriété est prouvée au rang n.
b) Considérons une fonction f croissante de {1, . . . , p} vers {1, . . . , n}. On construit une partie
de {1, . . . , n + p − 1} par ϕ(f ) = {f (1), f (2) + 1, . . . , f (p) + p − 1}. Comme f est croissante,
les f (k) + k − 1 sont distincts et donc ϕ(f ) est bien une partie à p éléments. ϕ est injective.
Réciproquement, considérons une partie P de {1, . . . , n + p − 1} à p éléments. On peut écrire
P = {a1 , . . . , ap } avec a1 < . . . < ap . La fonction f (k) = ak − (k − 1) est bien une fonction
croissante de {1, . . . , p} dans {1, . . . , n}. Ainsi, on a montré que ϕ est bijective. On en déduit
l'égalité (*) d'après le résultat de la question 1/b).

c) Rappelons qu'on a le développement en série entière 1/(1 − x) = n≥0 xn , valable lorsque
|x| < 1. Par produit de Cauchy, on a lorsque |x| < 1
   
1     
= xi1  · · ·  xin  = xi1 +···+in = ap xp , ap = 1.
(1 − x)n
i1 ≥0 in ≥0 i1 ,...in ≥0 p≥0 i1 +···+in =p

On remarque que le coecient ap est le  nombre de compositions de p en n sommants. Donc


d'après 1/a), il sut de montrer ap = n+p−1p . Pour cela, on dérive n − 1 fois la série entière
f (x) = 1/(1 − x). On obtient, pour tout x tel que |x| < 1
(n − 1)! 
f (n−1) (x) = n
= k(k − 1) · · · (k − n + 2)xk−(n−1) .
(1 − x)
k≥n−1
308 6. PROBABILITÉS

Par identication avec la valeur du coecient de xp , on en déduit


 
(n + p − 1)! n+p−1
(n − 1)!ap = (n − 1 + p) · · · (p + 1) = , d'où ap = .
p! p

Exercice 5. Soit n et p ∈ N∗ avec p ≤ n. 1/ On note Fs (p, n) l'ensemble des fonctions


strictement croissantes de {1, . . . , p} dans {1, . . . , n}. Calculer |Fs (p, n)|.
2/a) Soit  ∈ N∗ tel que n − p ≥ (p − 1). Compter le nombre de fonctions f de {1, . . . , p}
dans {1, . . . , n} telles que f (k + 1) > f (k) + , pour 1 ≤ k ≤ p − 1.
b) Un ensemble de n personnes se répartit entre p adultes et n − p enfants. Compter
combien il y a de façon de placer les n personnes sur un banc, de sorte qu'entre deux
adultes on ait toujours au moins  enfants (quelle que soit la paire d'adulte).
c) On suppose ici n ≥ p( + 1). Combien y a t-il de façons de placer les p adultes et n − p
enfants autour d'une table ronde, de sorte qu'entre deux adultes (de part et d'autre de la
table) il y ait toujours au moins  enfants ? (on précise ici que seul compte le placement
relatif des personnes autour de la table).

Solution. 1/ On va montrer que Fs (p, n) en est bijection avec les parties de {1, . . . , n} à p
éléments. Considérons une fonction f strictement croissante de {1, . . . , p} vers {1, . . . , n}. On
construit une partie de {1, . . . , n} par ϕ(f ) = {f (1), f (2), . . . , f (p)}. Comme f est stricte-
ment croissante, les f (k) sont distincts et donc ϕ(f ) est bien une partie à p éléments. ϕ est
injective. Réciproquement, considérons une partie P de {1, . . . , n} à p éléments. On peut écrire
P = {a1 , . . . , ap } avec a1 < . . . < ap . La fonction f (k) = ak est bien une fonction strictement
croissante de{1,  . . . , p} dans {1, . . . , n}. Ainsi, on a montré que ϕ est bijective. On en déduit
n
|Fs (p, n)| = .
p
2/a) Notons F (p, n) l'ensemble des fonctions en question. Pour toute fonction f de F (p, n), on
construit la fonction g = ϕ(f ) de Fs (p, n − (p − 1)) par : g(k) = f (k) − (k − 1). Il est clair
que les conditions sur f sont équivalentes à dire
 que g est  strictement croissante. Donc ϕ est
n − (p − 1)
bijective, et |F (p, n)| = |Fs (p, n − (p − 1)| = .
p
b) On compte d'abord les façons de placer les adultes. Notons i1 < . . . < ip leur emplacement
sur le banc. Avoir au moins  enfants entre chaque adulte, revient à avoir ik+1 − ik >  pour
1 ≤ k ≤ p − 1. Ainsiil y a autant 
de façons d'avoir des emplacements d'adultes que de fonctions
n − (p − 1)
dans F (p, n), donc façons. Pour chacun, il y a p! placements d'adultes, et il y a
p
ensuite (n − p)! façons de placer les n − p enfants sur les n − p places restantes. Le nombre de
façons de placer les n personnes sur le banc pour
 avoir toujours au moins  enfants entre deux
n − (p − 1)
adultes est donc égal à p!(n − p)! .
p
c) On numérote les emplacements de la table de 1 à n. Les places prises par les adultes autour
de la table correspondent à une partie P de {1, . . . , n} à p éléments (pour le moment on ne
considère que les placements absolus autour de la table, i.e. on diérencie les placements relatifs,
et on ne prend en compte que les places prises par les adultes). Les placements possibles sont
plus restreints que sur un banc car entre l'adulte d'emplacement de plus petit indice et celui du
plus grand indice, on doit avoir au moins  enfants (du coté où on passe de l'emplacement n à
l'emplacement 1). Désignons par A l'ensemble des façons d'avoir des places d'adultes autour de
la table. On a P ∈ A si et seulement si les éléments i1 , . . . , ip de P , rangés en ordre croissants,
vérient ik+1 − ik >  pour 1 ≤ k ≤ p − 1, et i1 + n − ip > . On partitionne les placements de
A en fonction du fait que le plus petit élément i1 de P vérie 1 ≤ i1 ≤  ou i1 > . Ceci revient
1. DÉNOMBREMENT 309

à considérer les ensembles suivant :


Ak = {P ∈ A | P ∩ {1, . . . , } = {k}}, (1 ≤ k ≤ ),
A∗ = {P ∈ A | P ∩ {1, . . . , } = ∅}.
 Choisir P ∈ Ak revient à placer les p − 1 autres adultes, sur le banc constitué des
emplacements k +  + 1, k +  + 2, . . . , k + n −  − 1, de sorte qu'entre deux adultes il y a
toujours au moins  enfants. Il y a n − 2 − 1 places sur ce banc,  d'après ce qui a été vu
n − 2 − 1 − (p − 2)
dans la solution de la question précédente, on déduit |Ak | = .
p−1
 Choisir P ∈ A revient à placer sur le banc constitué des emplacements  + 1, . . . , n les

p adultes, de sorte qu'entre deux adultes


 il y ait toujours
 au moins  enfants. Comme vu
n −  − (p − 1)
précédemment, on a donc |A | = ∗ .
p
Comme les (Ak )1≤k≤ et A∗ forment une partition de A, on en déduit
      
n − p − 1 n − p n n − p
|A| = |Ak | + |A∗ | =  + = .
p−1 p n − p p
k=1
Pour chaque possibilité d'emplacements d'adultes dans A, on a p! placements possibles d'adultes,
et (n − p)! placements
 possibles
 pour les enfants sur les n − p places restantes. Ainsi il y a en tout
n n − p
p!(n − p)! placements possibles des n personnes. Rappelons nous qu'on ne tient
n − p p
compte que des placements relatifs autour de la table, il faut diviser ce nombre par n (à chaque
placement relatif des n personnes autour de la table correspond n placements absolus
 possibles,

p!(n − p)! n − p
en les faisant tourner autour de la table), donc le résultat demandé est .
n − p p
Remarque. La formule obtenue dans 2/a) lorsque  = −1 est compatible avec le résultat
de la question 2/b) de l'exercice 4 page 306 sur les combinaisons avec répétition.

Exercice 6. 1/ Soit n ∈ N∗ . Donner une forme close des expressions suivantes :


[n/2] 
  [n/3] 
  n
   n
   n  2
n n 1 n n2 n
, , , k , k .
k=0
2k k=0
3k k=0
k+1 k k=0
k k=0
k
2/ Prouver les identités suivantes, pour n ∈ N∗ :
n
    n
  2  −1  −1
n 2n − k n 2n 2n
a) (−1)k = 1, b) (−1)k = .
k=0
k n k=0
k k n

Solution. 1/ Notons Ek la k-ième expression.


(1) Pour déterminer E1 , on utilise la formule du binôme qui permet d'écrire
n  
 n  

n n
2n = (1 + 1)n = et 0 = (1 − 1)n = (−1)k .
k k
k=0 k=0

Par sommation de ces deux sommes, on déduit = 2E1 , donc E1 = 2n−1 .


2n
(2) On procède de manière similaire pour la deuxième expression E2 , à partir de la formule du
binôme. Ici on écrit, en notant j = exp(2iπ/3) :
n
  
n
∀m ∈ {0, 1, 2}, Bm = (1 + j m )n = (j m )n .
k
k=0
310 6. PROBABILITÉS

Par sommation on obtient


n
  
n
B0 + B 1 + B 2 = (1 + j n + j 2n ) . (∗)
k
k=0

Or 1 + j n + j 2n = 1 + j r + j 2r où r est le reste de la division par 3 de n, donc 1 + j n + j 2n = 3


si 3 divise n, et 1 + j n + j 2n = 0 sinon. L'expression (*) entraîne donc
1 
B0 + B1 + B2 = 3E2 , donc E2 = (1 + 1)n + (1 + j)n + (1 + j 2 )n .
3
Comme 1 + j = −j 2 et 1 + j 2 = −j , on a (1 + j)n + (1 + j 2 )n = 2 cos(nπ/3). Finalement on a
E2 = (2n + 2 cos(nπ/3))/3.
   
1 n n k
(3) On reconnait que est le coecient de xk+1 dans la primitive de x . Ceci nous
k+1 k k
invite à intégrer la formule du binôme, appliquée à (1 + x)n . On écrit
 1  1 n  

n   1 n  
n n k n 1 n
(1 + x) dx = x dx = xk dx = .
0 0 k k 0 k+1 k
k=0 k=0 k=0

En calculant la valeur de la première intégrale, on en déduit E3 = − 1)/(n + 1). (2n+1


(4) Au lieu d'intégrer, comme dans l'expression précédente, on va dériver plusieurs fois l'expres-
sion f (x) = (1 + x)n appliquée à la formule du binôme, sur la base de l'observation que pour
fk (x) = xk , on a xfk (x) + x2 fk (x) = k 2 xk . On écrit
n  
 n  
 n  

n n n
xf  (x) + x2 f  (x) = kxk + k(k − 1)xk = k 2 xk .
k k k
k=0 k=0 k=0

En donnant à x la valeur 1 dans la dernière expression on trouve l'expression E4 . En faisant x = 1


dans le membre de gauche on en déduit E4 = f  (1)+f  (1) = n2n−1 +n(n−1)2n−2 = n(n+1)2n−2 .
(5) L'idée est de repartir du principe de la preuve de la formule de Vandermonde, mais en
considérant la dérivée de f (x) = (1 + x)n pour le premier terme du produit. L'expression E5
n
    
n n
s'écrit E5 = k × , c'est donc le coecient de xn dans le produit A(x)B(x), où
k n−k
k=0
n
   n  

n k n
A(x) = k x , B(x) = xk .
k k
k=0 k=0

La formule du binôme donne B(x) = (1 + x)n ,


et A(x) = xB  (x) = nx(1 + x)n−1 , on a donc
A(x)B(x) = nx(1+x)2n−1 . 
La formule
 du binôme appliquée à (1+x)

2n−1 montre que le coecient

2n − 1 2n −1
de x dans A(x)B(x) est n
n . On en déduit donc E5 = n .
n−1 n−1
2/a) L'idée est de calculer le coecient de xn dans p(x) = (1 + x)n (−1 + (1 + x))n de deux
manières diérentes. Comme p(x) = (1 + x)n xn ,
le coecient de xn dans p(x) est égal à 1. Par
ailleurs, l'application de la formule du binôme à (−1 + (1 + x))n , donne
n   n  
n n
(−1 + (1 + x))n = (−1)k (1 + x)n−k donc p(x) = (−1)k (1 + x)2n−k . (∗∗)
k k
k=0 k=0
 
2n − k
La formule du binôme montre que le coecient de xn dans (1 + x)2n−k est égal à . Par
n
linéarité à partir de la dernière égalité de (**), on en déduit que le coecient de xn dans p(x)
n   
n 2n − k
est égal à (−1)k . Nous avons montré plus haut que le coecient de xn dans
k n
k=0
p(x) est aussi égal à 1, on en déduit le résultat.
1. DÉNOMBREMENT 311

 
2n
b) Notons E la somme à gauche dans l'identité de la question 2/b). On va montrer E = 1.
n
Pour cela, on remarque que pour tout k on a
  −1    
n 2n 2n n! k!(2n − k)! (2n)! (2n − k)! 2n − k
= = = .
k k n k!(n − k)! (2n)! (n!)2 (n − k)!n! n
On a donc
  n
     −1    n   
2n n n 2n 2n n 2n − k
E= (−1)k × = (−1)k = 1,
n k k k n k n
k=0 k=0
où la dernière égalité provient de l'identité de la question précédente.

Exercice 7 (Combinatoire et nombres de Fibonacci). 1/ Donner une forme


explicite des termes de la suite de Fibonacci (Fn )n∈N dénie par
F0 = F1 = 1; ∀n ≥ 2, Fn = Fn−1 + Fn−2 .
2/ Soit n ∈ N . a) On note An l'ensemble des listes de {1, 2} dont la somme des termes

vaut n (de manière équivalente, c'est l'ensemble des manières d'écrire n comme la somme
de 1 et de 2). Montrer que |An | = Fn .
b) On note Bn l'ensemble des parties de {1, . . . , n} sans entiers consécutifs. Montrer
|Bn | = Fn+1 , en établissant une bijection entre Bn et An+1 .
c) Montrer que
 n − k
[n/2] 
= Fn . (∗)
k=0
k

Solution. 1/ C'est hyper classique. On a aaire à une récurrence linéaire d'ordre 2 (voir le tome
analyse, dans la section
√ sur les suites),√dont l'équation caractéristique est x2 − x − 1. Elle a deux
racines, ϕ = (1 + 5)/2 et ψ = (1 − 5)/2 (notons que ψ = −1/ϕ). Ainsi on sait qu'il existe
deux coecients a et b tels que Fn √ = aϕn + bψ n . Les
√ cas n = 0 et n = 1 donnent 1 = a + b et
1 = aϕ + bψ d'où on déduit a = ϕ/ 5 et b = −ψ/ 5. On a donc
 
√ n+1  √ n+1
ϕn+1 − ψ n+1 1 1+ 5 1− 5
∀n ∈ N, Fn = √ =√  − 
5 5 2 2

2/ a) On vérie facilement |A1 | = 1 et |A2 | = 2, donc la propriété est vraie pour n ≤ 2.


Supposons maintenant n ≥ 3. L'ensemble An se partitionne en deux ensemble E1 et E2 , où Ek
est l'ensemble des listes de An dont le dernier terme est k (pour k = 1, 2). Les éléments de Ek
sont de la forme x = (y, k) où y est une liste dans An−k . Donc |Ek | = |An−k |. On en déduit
|An | = |E1 | + |E2 | = |An−1 | + |An−2 |.
Ainsi |An | vérie la même récurrence que la suite de Fibonacci. En procédant par récurrence sur
n, on va montrer que |An | = Fn . Comme on l'a vu plus haut c'est déjà vrai pour n = 1 et n = 2.
Si n ≥ 3, l'hypothèse de récurrence entraîne |An | = |An−1 | + |An−2 | = Fn−1 + Fn−2 = Fn .
b) À toute liste x = (x1 , . . . , xp ) de An+1 , on associe la partie ϕ(x) = {sk − 1 | xk = 2} de
{1, . . . , n}, où sk = x1 + · · · + xk . Autrement dit, en regardant la liste x comme un pavage
du rectangle (n + 1) × 1 par des rectangles 1 × 1 ou 2 × 1, ϕ(x) est constitué des entiers qui
correspondent aux premières cases des rectangles 2 × 1 (voir la gure ci-dessous). Il est clair
que ϕ(x) est une partie de {1, . . . , n}, elle ne contient pas d'entiers consécutifs car pour deux
entiers distincts a = sk − 1 et b = s − 1 (avec k < ), on a b − a ≥ x ≥ 2. L'application ϕ est
bien injective. Elle est surjective. En eet, considérons une partie y = {y1 , . . . , yp } dans Bn avec
y1 < . . . < yp . Comme y ∈ Bn on a δk = yk+1 − yk ≥ 2 pour k = 1, . . . , p − 1. On crée un pavage
312 6. PROBABILITÉS

1 2 3 4 5 6 7 8 9 10 11
   

Figure 1. Illustration dans le cas n = 10, d'un pavage du rectangle 11 × 1 par


des rectangles 1 × 1 et 2 × 1. Les premières cases des rectangles 2 × 1 forment une
partie de {1, . . . , 10} sans entiers consécutifs.

du rectangle (n + 1) × 1 du type de celui discuté plus haut, en mettant un rectangle 2 × 1 sur


chaque couple de cases (yk , yk + 1), puis des carrés 1 × 1 sur les cases restantes. Autrement dit,
on considère la liste x = (1y1 −1 , 2, 1δ1 −2 , 2, . . . , 2, 1δp−1 −2 , 2, 1n−yp ) où la notation 1k désigne une
suite de k  1 consécutifs (vide si k = 0). On a bien x ∈ An+1 car la somme de ses termes est
(y1 − 1) + 2 + (δ1 − 2)+ 2 + · · · + (δp−1 − 2) + 2 + n − yp = y1 + 1 + δ1 + · · · + δp−1 + n − yp = n + 1.
On a bien ϕ(x) = y car lorsque xk = 2, la valeur sk − 1 vaut (y1 − 1) + 2 + (δ1 − 2) + 2 + · · · +
(δk−1 − 2) + 2 = yk . Ainsi ϕ est bien une bijection de An+1 vers Bn , donc |Bn | = Fn+1 .
c) On peut montrer directement que la somme des binomiaux de (*) vérie la relation de récur-
rence de Fn (à partir de la formule de Pascal), mais on va proposer ici une preuve combinatoire.
Fixons n ∈ N∗ . Pour tout k ∈ N, on note Ek l'ensemble des listes de An dont le nombre de 2
est égal à k. Comme la somme des termes des listes dans Ek est égal à n, on a 2k ≤ n. Ainsi,
les (Ek )0≤k≤[n/2] forment une partition de An . Dans chaque liste de Ek , le 2 est utilisé k fois et
le 1 est utilisé n − 2k fois. Ainsi les listes dans Ek ont n − k termes. Il ya autant
 de listes dans
n−k
Ek que de manière de placer les 2 parmi les n − k termes, donc |Ek | = . On en déduit
k
l'identité (*) car les (Ek )0≤k≤[n/2] forment une partition de An
Remarque. Les entiers Fn s'appellent les nombres de Fibonacci . Ils possèdent√de nom-
breuses propriétés. Lorsque n → ∞, le ratio Fn+1 /Fn converge vers ϕ = 1+2 5 , qu'on
appelle nombre d'or.
 Les termes de la somme dans (*) forment une diagonale dans le triangle de Pascal.

Exercice 8 (Dérangements). Soit n ∈ N∗ . On note Dn l'ensemble des permutations


de {1, . . . , n} sans point xe (une permutation sans point xe s'appelle un dérangement).
1/ Calculer directement dn = |Dn |.
2/ On propose un autre moyen de calculer dn . Etablir l'égalité
n  
∗ n
∀n ∈ N , n! = dp ,
p=0
p
 dn
et en déduire dn , en utilisant la série génératrice exponentielle D(z) = zn.
n≥1
n!
3/ Montrer que dn = [n!/e + 1/2] (où [x] désigne la partie entière de x).
Solution. 1/ Fixons n ∈ N∗ et désignons par Ak l'ensemble des permutations de {1, . . . , n}
qui laisse k invariant. L'ensemble des dérangements est le complémentaire de ∪1≤i≤n Ai . Pour
calculer le cardinal de ce dernier ensemble, on utilise la formule du crible de Poincaré, qui donne
n 
   n 
 
 Ai  = (−1)k−1 Sk , Sk = |Ai1 ∩ . . . ∩ Aik | .
 
i=1 k=1 1≤i1 <...<ik ≤n

Or pour 1 ≤ i1 < . . . < ik ≤ n, Ai1 ∩. . .∩Aik est l'ensemble des permutations qui laissent i1 , . . . , ik
invariants, il y a donc (n − k)! permutations de ce type. Donc |Ai1 ∩ . . . ∩ Aik | = (n − k)!. Par
1. DÉNOMBREMENT 313

 
n
ailleurs, il y a façons d'avoir des indices i1 , . . . , ik tels que 1 ≤ i1 < . . . < ik ≤ n. Donc
  k
n n!
Sk = (n − k)! = . D'après la formule précédente on en déduit
k k!
n 
  n
(−1)k
 
dn = |Dn | = n! −  Ai  = n! . (∗)
  k!
i=1 k=0

2/ Fixons n ∈ N∗ et désignons par Fk l'ensemble des permutations de {1, . . . , n} qui ont k points
xes. Les (Fk )0≤k≤n forment une partition de l'ensemble des permutations de {1, . . . , n}. Choisir
une permutation dans Fk revient à choisir une partie P de n − k entiers parmi {1, . . . , n} puis à
choisir 
une permutation
 sans point xe de P (et laisser les k autres points xes). On en déduit
n
|Fk | = dn−k . On a donc
n−k
n
 n 
  n  

n n
n! = |Sn | = |Fk | = dn−k = dk .
n−k k
k=0 k=0 k=0

Ceci s'écrit aussi


n
 dk 1
1= .
k! (n − k)!
k=0
 dn
La série génératrice exponentielle D(z) = z n a un rayon de convergence ≥ 1 puisque
n!
n≥1
|dn /n!| < 1. L'égalité précédente entraîne, par produit de Cauchy, pour |z| < 1
 +∞   +∞  +∞  n  +∞
 dn  1   dk 1 
n n
D(z) exp(z) = z z = zn = zn.
n! n! k! (n − k)!
n=0 n=0 n=0 k=0 n=0

Donc
 +∞   +∞   +∞   n
+∞ 

  (−1)n   (−1)k
n n n
D(z) = exp(−z) z = z z = zn.
n! k!
n=0 n=0 n=0 n=0 k=0

Par identication des coecients de D(z), on retrouve l'expression (*) de dn .


3/ L'expression (*) permet d'écrire
+∞

dn (−1)k
= exp(−1) −
n! k!
k=n+1

donc
  +∞
 +∞

 
dn − n!  ≤ n!
=
1
+
1
+ ··· <
1 1
= .
 e  k! n + 1 (n + 1)(n + 2) (n + 1)p n
k=n+1 p=1

Lorsque n ≥ 2 on en déduit dn ≤ dn + 1/2 − 1/n < n!/e + 1/2 < dn + 1/2 + 1/n ≤ dn + 1 donc
dn < n!/e + 1/2 < dn + 1 et on a bien dn = [n!/e + 1/2]. Cette formule est également vraie
lorsque n = 1, d'où le résultat.
Remarque. On a ici répondu au célébre problème des chapeaux : n personnes laissent leur
chapeau à un vestiaire. En repartant, chaque personne reprend un chapeau au hasard.
Quelle est la probabilité qu'aucune personne ne reprenne son propre chapeau ? Cette
probabilité est égale à 1/e (à une erreur < 1/n! près).
 Les dérangements sont un cas particulier des permutations dont les cycles sont tous de
longueur > k , étudiés dans le problème 3 page 369.
314 6. PROBABILITÉS

Exercice 9 (Nombres de Bell). Pour tout n ∈ N∗ , on note Bn le nombre de partitions


de l'ensemble {1, . . . , n}. Par convention on pose B0 = 1.
1/ Déterminer B1 , puis une relation de récurrence sur les Bn .
+∞
 Bn
2/ On dénit la série génératrice exponentielle des Bn par B(z) = z n . Montrer
n=0
n!
que le rayon de convergence de B(z) n'est pas nul, puis calculer B(z).
3/ En déduire une expression de Bn comme la somme d'une série.
Solution. 1/ On a B1 = 1. Supposons n ∈ N∗ et exprimons Bn+1 en fonction des (Bk )0≤k≤n .
Pour tout k ≤ n, on note Ek l'ensemble des partitions P de {1, . . . , n + 1} tel que la partie de
P qui contient n + 1 est de taille k + 1. Choisir P ∈ Ek , c'est choisir k entiers de {1, . . . , n}
(ceux de la partition de  P qui contient n + 1) puis construire une partition des n − k éléments
n
restants. Donc |Ek | = Bn−k . Comme les (Ek )0≤k≤n forment une partition de l'ensemble des
k
partitions de {1, . . . , n + 1}, on en déduit
n   n  
n n
Bn+1 = Bn−k = Bk .
k k
k=0 k=0

2/ A toute partition P de {1, . . . , n}, on peut associer une permutation ϕ(P ) de {1, . . . , n} qui
est le produit des cycles de chaque partition de P . Ainsi construite, ϕ est une application injective
vers le groupe symétrique Sn , donc Bn ≤ n! (on peut aussi retrouver ce résultat par récurrence
sur n avec la formule de récurrence précédente). On en déduit que le rayon de convergence de
B(z) est ≥ 1. La relation de récurrence établie précédemment s'interprète en produit de Cauchy,
en remarquant que
n
Bn+1  Bk 1
=
n! k! (n − k)!
k=0
qui entraîne, lorsque |x| < 1
+∞
 +∞   +∞ 
 Bn+1  Bn  xn
 n n
B (x) = x = x = B(x) exp(x).
n! n! n!
n=0 n=0 n=0

Ainsi, la fonction B vérie l'équation diérentielle B  (x) = B(x)ex sur ]0, 1[. On en déduit
l'existence de λ ∈ R tel que B(x) = λ exp(exp(x)). En faisant x = 0 on a 1 = B0 = B(0) =
λ exp(1) donc λ = 1/e. Donc nalement B(x) = exp(exp(x))/e.
3/ La série entière dénissant l'exponentielle a un rayon de convergence inni. On peut donc
écrire, pour tout z ∈ C
+∞ mz
 +∞ 
 +∞
e (mz)n
exp(exp(z)) = = .
m! m!n!
m=0 m=0 n=0

La série double m,n um,n dénie par um,n = (mz)n /(m!n!) est sommable, car
M 
 N M 
 N M

(m|z|)n exp(m|z|)
∀(M, N ) ∈ N2 , |um,n | ≤ ≤ ≤ exp(exp(|z|)).
m!n! m!
m=0 n=0 m=0 n=0 m=0
On peut donc intervertir les signes de sommations, ce qui donne
+∞
 +∞ 
1 1   mn z n
B(z) = exp(exp(z)) = .
e e m! n!
n=0 m=0

Par identication, avec le coecient Bn /n! de z n dans B(z), on en déduit


+∞
1  mn
Bn = .
e m!
m=0
1. DÉNOMBREMENT 315

n
Remarque. On a Bn = k=1 S(n, k), où S(n, k) est le nombre de Stirling de seconde
espèce, qui compte le nombre de partitions de {1, . . . , n} de k sous-ensembles (voir la
remarque du problème 7 page 379).

Exercice 10 (Nombres de Catalan). On appelle mot binaire une liste de {0, 1}. Le
mot w = (a1 , a2 , . . . , ap ) est noté w = a1 a2 . . . ap , la longueur de w est p. La concaténation
de deux mots u et v est le mot noté uv , obtenu en mettant bout à bout u et v . Un préxe
d'un mot w = a1 . . . ap est tout mot de la forme w = a1 . . . aq avec 1 ≤ q ≤ p. Une
représentation graphique d'un mot binaire w = a1 . . . ap , est obtenue à partir la fonction

1 si ak = 1
fw : {0, 1, . . . , p} → Z fw (0) = 0, fw (k) − fw (k − 1) =
−1 si ak = 0
puis en construisant la ligne brisée qui relie les points (k, fw (k)) (voir la gure ci dessous).
Un mot binaire w est un mot de Dyck s'il contient autant de 0 que de 1, et si dans tous





 



 



 


 

 
2

1 3 4 5 6 7 8 9 10


Figure 2. Exemple de représentation graphique du mot binaire w = 1001110111.

les préxes de w il y a toujours moins de 0 que de 1. On note Dn l'ensemble des mots
de Dyck de longueur 2n. Par convention, le mot vide est un mot de Dyck (cas n = 0).
1/ Interpréter les mots de Dyck à partir de leur représentation graphique. Déterminer
une relation de récurrence sur Cn = |Dn |, puis calculer explicitement Cn .
2/ Pour tout mot w = a1 . . . ap et pour k ∈ N (k < p), on note ck (w) la permutation
circulaire ck (w) = ak+1 . . . ap a1 . . . ak (de même longueur p que w). Montrer que parmi les
permutations circulaires de tout mot binaire w constitué de n + 1 1 et n 0, il y en a
une et une seule qui s'écrit sous la forme w = 1w , où w est un mot de Dyck. Retrouver
ensuite directement l'expression de Cn .
Solution. 1/ Avoir autant de 0 que de 1 dans un mot binaire équivaut à ce que la ligne brisée
de sa représentation graphique revient sur l'axe des abscisses. Avoir tout préxe de ce mot avec
plus de 1 que de 0 revient à avoir cette ligne brisée toujours au dessus de l'axe des abscisses.
Ainsi les mots de Dyck sont ceux dont la représentation graphique est une ligne brisée toujours
au dessus de l'axe des abscisses, qui termine sur l'axe des abscisses (voir la gure ci-dessous).
Soit n ∈ N∗ . Pour obtenir une récurrence sur les Cn , on remarque que tout mot w ∈ Dn s'écrit

  



 



   

 

 
  
1 2 3 4 5 6 7 8 9 10

Figure 3. Représentation graphique du mot de Dyck w = 1100110100.

de manière unique sous la forme w = 1u0v , où u ∈ Dk et v ∈ Dn−1−k , avec k ∈ {0, . . . , n − 1}.


316 6. PROBABILITÉS

On en déduit
n−1

Cn = Ck Cn−1−k .
k=0
On reconnait l'expression de coecients d'un produit de Cauchy. Ceci nous invite à considérer la
+∞

série génératrice ordinaire des (Cn ), dénie par C(z) = Cn z n . Il y a moins de mots dans Dn
n=0
que de mots binaires de longueur 2n, donc Cn ≤ 22n , donc C(z) est une série entière de rayon
de convergence ≥ 1/4. Lorsque x ∈ R, avec |x| < 1/4 et x = 0, la relation de récurrence obtenue
plus haut permet d'écrire
 n
+∞ 
 +∞
  C(x) − 1
C 2 (x) = Ck Cn−k xn = Cn+1 xn = .
x
n=0 k=0 n=0

Ainsi C(x) est solution de


√ l'équation du second degré xC (x) − C(x) + 1 = 0, dont les solu-
2

1 + ε 1 − 4x
tions sont fε (x) = avec ε ∈ {−1, 1}. On note que lim f1 (x) = +∞ alors que
2x x→0
x>0 √
1 − 4x 1−
C(x) est continue en 0, donc C(x) = f1 (x). On en déduit C(x) = f−1 (x) = . Le
√ 2x
developpement en série entière de 1 + u = (1 + u) entraîne
1/2

+∞
 n−1   n−1  
√ 1  1 (−1)n−1  2k − 1
1 − 4x = n
an (−4x) , avec an = −k = .
n! 2 2 · n! 2
n=0 k=0 k=1
On a
 
(−1)n−1 (2n − 2)! (−1)n−1 (2n − 2)! (−1)n−1 1 2n − 2
an = = = 2n−1 .
2n n! 2 × 4 × · · · × (2n − 2) 2n n! 2n−1 (n − 1)! 2 n n−1
 
√ 2 2n − 2
On en déduit que le coecient de xn dans 1 − 4x est − . Compte tenu de l'expression
n n − 1 
1 2n
C(z) = f−1 (x), l'identication de coecients fournit Cn = .
n+1 n
2/ Considérons un mot w formé de n + 1 1 et n 0. On s'aide de la représentation graphique
de w. On obtient les permutations cycliques de w à partir d'une fenêtre glissante de longueur
2n + 1 dans le mot w concaténé avec lui-même (sans la derniere lettre). Trouver un sous-mot
de Dyck de longueur 2n, juste après un 1, revient à pouvoir placer sous le graphe une règle
horizontale de longueur 2n, au dessus de laquelle est posée la représentation de ce sous-mot de
Dyck. Comme le suggère la gure ci-dessous, on trouve un mot de Dyck un pas après le dernier
minimum atteint par la courbe.

 
       
    
    
      









  
1 2 3 4 5 6 7 8 9 10
Figure 4. Représentation de w = 1010110, concaténé avec lui-même (en poin-
tillé) sans la dernière lettre. Un sous-mot de Dyck de longueur 6 (souligné) précédé
d'un pas croissant, se trouve un pas après le dernier moment où la courbe atteint
son minimum.
Cette constatation graphique nous invite à considérer l'indice
 = max{k ≤ 2n | fw (k) = m}, où m = min{fw (0), fw (1), . . . , fw (2n)}.
Nous allons montrer que c (w) = 1y , où y est un mot de Dyck, et que  ∈ N est le seul indice


≤ 2n vériant cette propriété. Notons w = a1 . . . a2n+1 .


1. DÉNOMBREMENT 317

 La première lettre de c (w) est 1 . En eet, par dénition , on a fw (k) > m = fw ()
pour k > , en particulier a+1 = fw ( + 1) − fw () > 0 donc a+1 = 1. Le mot x = c (w)
s'écrit donc sous la forme x = 1y où y est un mot qui a forcément n 1 et n 0. Il reste
à montrer que dans tous les préxes de y , il y a moins de 0 que de 1. On remarque
que la fonction fx vérie


fw (k + ) − fw () pour 0 ≤ k ≤ 2n + 1 − 
fx (k) =
fw (k +  − (2n + 1)) + 1 − fw () pour 2n + 1 −  < k ≤ 2n + 1

Par dénition de , si 1 ≤ k ≤ 2n + 1 −  on a fx (k) > 0. Lorsque 2n + 1 −  < k ≤ 2n + 1,


on a fx (k) ≥ 1 car fw (k +  − (2n + 1)) ≥ fw (). Ainsi fx (k) ≥ 1 pour 1 ≤ k ≤ 2n + 1,
donc fx (k) − fx (1) ≥ 0 pour 1 ≤ k ≤ 2n + 1, ce qui signie que dans tous les préxes de
y , il y a moins de 0 que de 1. Donc y est un mot de Dyck.
 Il reste à montrer que  est le seul indice ≤ 2n ayant cette propriété. Raisonnons par
l'absurde et supposons l'existence de deux indices  et m ( < m) ayant cette propriété.
Soit u le mot u = c (w) et notons p = m − . Compte tenu des propriétés de  et m, on
a fu (k) ≥ 1 pour 1 ≤ k ≤ 2n et fu (k) ≥ 1 + fu (p) pour p < k ≤ 2n + 1. En particulier
fu (2n + 1) ≥ 1 + fu (p) ≥ 2, ce qui est impossible puisque fu (2n + 1) = 1. On a donc
démontré l'unicité recherchée.
Notons An les mots formés de n + 1 1 et n 0, et Bn les classes d'équivalence des mots
de An égaux à une permutation circulaire près. Le résultat montré précédemment montre que
l'application ϕ : Dn → Bn w → 1w (où x désigne la classe d'équivalence dans Bn d'un mot
x de An ) est bijective. On en déduit |Dn | = |Bn |. Or les 2n + 1 permutations circulaires ck (w)
de n'importe quel mot w ∈ An sont distinctes : en eet, soit  l'unique entier de {0, 1, . . . , 2n}
vériant c (w) = 1y avec y ∈ Dn . Si cp (w) = cq (w) alors w = cq−p (w), donc c (w) = c+q−p (w) =
1y , et par unicité de  on en déduit  + p − q ≡  (mod 2n + 1) donc p = q (mod 2n + 1). Donc
|Bn | = |An |/(2n + 1). Il y a autant de mots w dans An que de façon de répartir
 lesn 0 parmi
2n + 1 1 2n + 1
les 2n + 1 lettres de w, donc |An | = . On en déduit |Dn | = . On vérie
  n  2n + 1 n
1 2n + 1 1 2n
facilement que = , retrouvant ainsi le résultat obtenu à la question
2n + 1 n n+1 n
précédente.
 
1 2n
Remarque. Ainsi est un nombre entier, résultat non évident a priori.
n+1 n
 Les nombres de Catalan sont des nombres classiques qu'on retrouve dans le comptage
de nombreuses structures. Par exemple le nombre Cn est :
 le nombre de façons de calculer le produit de n+1 facteurs (avec parenthésages com-
plets). Par exemple pour n = 4 : (a(bc))d, a((bc)d), (ab)(cd), a(b(cd)) et ((ab)c)d,
 le nombre d'arbres binaires avec n + 1 feuilles,
 le nombre de façons de tracer des diagonales entre les sommets d'un polygône
convexe de n + 2 cotés, sans qu'elles ne se coupent.

Exercice 11. Soit m ≥ 2 un entier. On suppose qu'il existe a ∈ N et n ∈ N∗ parties


non vides et distinctes deux a deux A1 , . . . , An de {1, 2, . . . , m} telles que |Ai ∩ Aj | = a
pour i = j . Montrer que n ≤ m (indication : considérer la matrice A = (ai,j )i,j dénie par
ai,j = 1 si i ∈ Aj , ai,j = 0 si i ∈ Aj , et montrer que son rang est ≥ n).

Solution. Considérons la matrice A ∈ Mm,n (R) de l'indication.


 On remarque que les coecients
(bi,j ) de la matrice B = tAA ∈ Mn (R) vérient bi,j = mk=1 ak,j ak,i = |Ai ∩ Aj |. Ainsi, en notant
318 6. PROBABILITÉS

ci = |Ai |, la matrice B a la forme


 
c1 a . . . a
 a c2 . . . a 
 
B =  .. . . . .. .
 . . 
a . . . a cn
On va montrer qu'elle est inversible. C'est évident si a = 0 car les Ai sont non vides. Supposons
maintenant a > 0. On va montrer que les vecteurs colonnes Vi de la matrice B forment une
famille libre. Notons W le vecteur dont toutes coordonnées sont égales à a. On a
n
 n
 n

λi Vi = 0 ⇒ λi (Vi − W ) = −µW, µ= λi .
i=1 i=1 i=1

Comme le vecteur Vi − W a toutes ses coordonnées nulles, sauf la i-ième qui vaut ci − a on en
déduit
λ1 (c1 − a) = −µa, ..., λn (cn − a) = −µa. (∗)
Pour tout i, on a ci = |Ai | ≥ |Ai ∩ Aj | = a (en choisissant un j = i). Au plus l'un des ci est
égal à a (si ci = cj = a on a |Ai ∩ Aj | = |Ai | donc Ai ∩ Aj = Ai , de même Ai ∩ Aj = Aj donc
Ai = Aj , ce qui entraîne i = j d'après les hypothèses). Maintenant on traite deux cas.
 Premier cas : ci > a pour tout i. Alors d'après (*) tous les λi ont le même signe, donc du
signe de µ = λ1 + · · · + λn , et comme λi (ci − a) = −µa la seule possibilité est λi = µ = 0.
 Deuxième cas : l'un des ci est égal à a, par exemple cn = a, et ci > a pour i < n. Dans
ce cas µa = 0 (d'après la dernière égalité de (*)) donc µ = 0. Donc les n − 1 premières
égalités de (*) entraînent λi = 0 pour i < n, puis λn = µ − i<n λi = 0.
Ainsi la famille (Vi )1≤i≤n est libre, donc B est inversible. On en déduit rg tAA = n, donc rg A ≥ n,
et comme A a m lignes ceci n'est possible que si m ≥ n, ce qu'il fallait démontrer.
Remarque. On aurait pu également montrer l'inversibilité de B à partir du calcul de son
déterminant qui est classique (voir la question c) de l'exercice 2 page 145).

2. Espaces probabilisés
2.1. Le langage des probabilités
La théorie des probabilités modélise les phénomènes dans lesquels le hasard intervient.
Elle a des applications dans de nombreux domaines (physique, médecine, météorologie,
marchés boursiers, etc) et dans ce contexte, a son vocabulaire propre.
Les expériences aléatoires sont les expériences E dont le résultat est soumis au hasard.
L'espace des résultats possibles associés à l'expérience s'appelle l' univers, il est souvent
noté Ω (on l'appelle parfois espace d'états). Voici quelques exemples d'expériences aléa-
toires avec l'univers associé :
 Lancement de dé : l'expérience aléatoire est celle du résultat d'un lancement de dé
à 6 faces, et l'univers est Ω = {1, 2, 3, 4, 5, 6}.
 On tire successivement deux boules dans une urne contenant n boules noires et
blanches, puis on observe leurs couleurs. Ici Ω = {(B, B), (B, N ), (N, B), (N, N )}.
 Un colis doit arriver entre 15h et 18h, on observe le temps d'attente. On a Ω = [0, 3].
 On observe le prix d'une action en bourse, sur tout l'intervalle de temps [t0 , t1 ]. Ici
Ω = C([t0 , t1 ], R+ ), l'ensemble des fonctions continues de [t0 , t1 ] dans R+ .
Les événements (la dénition rigoureuse sera donnée plus bas) associés à l'expérience
aléatoire E , d'univers Ω, sont les sous-ensembles de Ω dont on peut dire s'ils sont réalisés
ou non. Des exemples d'événements sont les suivants :
2. ESPACES PROBABILISÉS 319

 Dans l'expérience de lancement de dé, l'événement le dé montre une valeur paire
est le sous-ensemble A = {2, 4, 6} de Ω.
 Dans l'attente du colis entre 15h et 18h, A = ]2, 3] est l'événement l'attente a duré
plus de 2 heures.
 L'événement le prix d'une action en bourse ne varie pas plus de 10% entre t0 et
t1  est A = {f ∈ C([t0 , t1 ], R+ ) | supt0 ≤t≤t1 |f (t) − f (t0 )| ≤ f (t0 )/10}.
Ici aussi, plutôt que d'utiliser des termes ensemblistes, le langage utilisé sur les événements
est propre aux probabilités :
 L'ensemble ∅ est l'événement impossible.
 L'ensemble Ω est l'événement certain.
 Deux événements A et B tels que A ∩ B = ∅ sont dit incompatibles.
 Si A ⊂ B on dit que A implique B .
2.2. Probabilités
Intuitivement, la probabilité d'un événement est la vraisemblance qu'il se produise.
C'est un nombre réel dans [0, 1]. Pour dénir les probabilités sur l'ensemble des événements
A, il faut (pour des raisons techniques) que A vérie certaines propriétés. Lorsque Ω est
ni ou dénombrable, on verra qu'on peut choisir A = P(Ω), mais dans le cas général (par
exemple si Ω = R) , on ne sait pas toujours dénir une probabilité sur n'importe quelle
partie de Ω. La notion de tribu, dénie plus bas, permet de se limiter à des parties de Ω
dont on sait dénir leur probabilité de réalisation.
Tribus.
Définition 1. Soit Ω un ensemble. On appelle tribu sur Ω une famille T de parties de
Ω, vériant les propriétés
(i) ∅ ∈ T et Ω ∈ T .
(ii) Pour tout A ∈ T , on a AC ∈ T (AC désigne le complémentaire ΩA de A).
(iii) Si (An )n∈N est une suite d'éléments de T , alors ∪n∈N An ∈ T .
Le couple (Ω, T ) est alors appelé espace probabilisable , l'ensemble Ω l'univers, et les élé-
ments de T s'appellent des événements.
Remarque 1.  (iii) et (ii) entraînent que l'intersection dénombrable d'éléments de T
est dans T .
 La réunion (ou l'intersection) nie d'éléments de T est dans T (prendre Ak = ∅ à
partir d'un certain rang dans la propriété (iii)).
 Notons que (iii) n'entraîne pas que T soit stable par réunion (ou intersection)
innie non dénombrable.
Exemple 1.  T = {∅, Ω} est une tribu, appelée tribu grossière (ou triviale) sur Ω.
 L'ensemble T = P(Ω) est une tribu sur Ω. C'est cette tribu que l'on choisira
pour l'ensemble A des événements dont on mesure la probabilité, chaque fois que
Ω est ni ou dénombrable. Dans le cas général, pour des raisons fondamentales
discutées rapidement plus bas, cette tribu sera trop grande dès que Ω est inni non
dénombrable, pour que l'on puisse dénir la probabilité de tous ses éléments.
Proposition 1. Soit (Tλ )λ∈Λ une famille de tribu sur Ω. Alors ∩λ∈Λ Tλ est une tribu sur
Ω. Ainsi, si X est une partie de P(Ω), l'intersection des tribus contenant X est la plus
petite tribu contenant X , on l'appelle tribu engendrée par X .
Exemple 2.  Si A ⊂ Ω, la tribu engendré par {A} est T = {∅, A, AC , Ω}.
 Si (Ai )i∈I est une partition nie ou dénombrable
 de Ω, la tribu engendrée par
{Ai , i ∈ I} est l'ensemble des réunions BJ = j∈J Aj où J parcourt l'ensemble
des parties de I .
320 6. PROBABILITÉS

Définition 2. Lorsque Ω = R, la tribu B engendrée par les intervalles ouverts de R


s'appelle la tribu borélienne de R.
Remarque 2. La tribu borélienne est aussi la tribu engendrée par la classe des intervalles
Ia = ] − ∞, a] avec a ∈ R. C'est également la tribu engendrée par {Ia , a ∈ Q}.
Probabilités.
Définition 3. Soit Ω un ensemble et A une tribu sur Ω. On appelle probabilité sur
l'espace (Ω, A) une application P : A → [0, 1] vériant
(i) P (Ω) = 1,
(ii) Pour toute suite (dénombrable) (An )n∈N d'éléments de A, disjoints deux à deux,

P (∪n∈N An ) = P (An ).
n∈N

On dit alors que (Ω, A, P ) est un espace probabilisé, et P sa mesure de probabilité (ou loi
de probabilité).
Proposition 2. Soit (Ω, A, P ) un espace probabilisé. On a les propriétés suivantes :
(i) Pour tout événement A dans A, on a P (AC ) = 1 − P (A).
(ii) Pour tout n ∈ N∗ et A0 , . . . , An des événements dans A,
n

(a) si les (Ak )0≤k≤n sont deux à deux disjoints alors P (∪nk=0 Ak ) = P (Ak ),
k=0
n

(b) dans tous les cas P (∪nk=0 Ak ) ≤ P (Ak ).
k=0

(iii) Si A et B sont deux événements dans A et si A ⊂ B , alors P (A) ≤ P (B).


(iv) Si A et B sont deux événements dans A alors P (A∪B) = P (A)+P (B)−P (A∩B).
(v) Si (An )n∈N est une suite croissante (au sens de l'inclusion, i.e pour tout n ∈ N,
An ⊂ An+1 ) de A, alors P (∪n∈N An ) = lim P (An ).
n→∞

(vi) Si (An )n∈N est une suite décroissante (au sens de l'inclusion, i.e pour tout n ∈ N,
An+1 ⊂ An ) de A, alors P (∩n∈N An ) = limn→∞ P (An ).
+∞

(vii) Si (An )n∈N est une suite d'événéments de A, alors P (∪n∈N An ) ≤ P (Ak ) (la
n=0
dernière somme étant éventuellement innie).
Démonstration.
 Le résultat (ii) (a) est une conséquence de l'assertion (ii) de la dénition précédente en choi-
sissant Ak = ∅ pour k > n.
 La résultat (i) est une conséquence de (ii)(a) appliqué à la partition de Ω formée de A et AC .
 On montre (iii) en considérant l'ensemble C = B A, de sorte que A et C forment une partition
de B , donc d'après (ii)(a) on a P (A) + P (C) = P (B), d'où le résultat car P (C) ≥ 0.
 Pour montrer (iv) on note C = A∩B de sorte que les trois ensembles AC , B C et C forment
une partition de A ∪ B . Ainsi, d'après la propriété (ii)(a), on a P (A  C) + P (B  C) + P (C) =
P (A∪B). Comme AC et C forment une partition de A, on a P (AC)+P (C) = P (A). De même
P (B  C) + P (C) = P (B). On en déduit (P (A) − P (C)) + (P (A) − P (C)) + P (C) = P (A ∪ B),
ce qui prouve (iv) vu que C = A ∩ B .
 La propriété (ii)(b) découle directement de (iv) qui entraîne P (A ∪ B) ≤ P (A) + P (B), puis
en procédant par récurrence sur n.
2. ESPACES PROBABILISÉS 321

 Pour montrer (v), on considère la suite d'événements (Bn )n∈N dénie par B0 = A0 et Bn =
An  An−1 pour n ∈ N∗ . On a P (Bn ) = P (An ) − P (An−1 ) pour n ∈ N∗ et les Bn sont deux à
deux disjoints. On peut donc appliquer l'assertion (ii) de la dénition précédente à (Bn )n∈N :
+∞
 +∞

P (∪n∈N Bn ) = P (Bn ) = P (A0 ) + (P (An ) − P (An−1 )) = lim P (An ).
n→∞
n=0 n=1
On en déduit (iv) car ∪n∈N Bn = ∪n∈N An .
 On prouve (vi) en appliquant (v) à la suite croissante (Bn ) dénie par Bn = AC
n , de sorte que
P (∩n∈N An ) = 1 − P ((∩n∈N An )C ) = 1 − P (∪n∈N Bn ) = 1 − lim P (Bn ) = lim P (An ).
n→∞ n→∞
n
 Pour démontrer

(vii), on pose Bn = ∪nk=0 Ak .
D'après (ii)(b) on a P (Bn ) ≤ k=0 P (Ak ) donc
P (Bn ) ≤ +∞
k=0 P (A k ) . La suite (B n ) est croissante donc on peut lui appliquer (v), qui donne
limn→∞ P (Bn ) = P (∪n∈N Bn ). On en déduit le résultat car ∪n∈N Bn = ∪n∈N An . 

Remarque 3. Les propriétés (v) et (vi) sont parfois appelées théorème de la limite mono-
tone. En corollaire, elles entraînent, pour une suite quelconque (An )n∈N dévénements,
P (∪n∈N An ) = lim P (∪nk=0 Ak ), P (∩n∈N An ) = lim P (∩nk=0 Ak )
n→∞ n→∞

(il sut d'appliquer (v) à Bn = ∪nk=0 Ak et (vi) à Bn = ∩nk=0 Ak ).


Le résultat suivant généralise la propriété (iv) de la proposition précédente, il n'est
pas au programme des classes préparatoires, mais il est utile de le connaitre et de savoir
le démontrer. Il s'agit de la version probabiliste de la formule du crible portant sur le
cardinal de l'union de n ensembles nis (voir la proposition 5 page 301).
Proposition 2 (Formule du crible de Poincaré). Soient A1 , . . . , An n événements
d'un espace probabilisé (Ω, A, P ). Alors on a
n  n
  
P Ai = (−1)k−1 P (Ai1 ∩ . . . ∩ Aik ) .
i=1 k=1 1≤i1 <...<ik ≤n

Démonstration. On procéde par récurrence (une approche du type de la démonstration de la


proposition 5 page 301 est possible en utilisant les espérances des fonctions indicatrices des Ai
lorsqu'elles peuvent être dénies, en particulier dans le cas discret, mais nous ne disposons pas
de ces outils à ce stade du cours). Remarquons déjà que la formule du crible de Poincaré s'écrit
de manière équivalente sous la forme
 n

 
P Ai = (−1)|J|−1 P (∩j∈J Aj ) . (∗)
i=1 J⊂{1,...,n}
J=∅

L'usage de cette forme sera plus commode pour la démonstration. Prouvons donc (*) par ré-
currence sur n. Pour n = 1 le résultat est immédiat, pour n = 2 il s'agit du résultat (iv)
de la proposition précédente. Supposons (*) vrai pour n − 1 et montrons le pour n. On note
B = A1 ∪ . . . ∪ An−1 . Nous utiliserons l'égalité P (B ∪ An ) = P (B) + P (An ) − P (B ∩ An ), pour
ce faire on calcule P (B) et P (B ∩ An ). L'hypothèse de récurrence appliquée à B s'écrit

P (B) = (−1)|J|−1 P (∩j∈J Aj ) .
J⊂{1,...,n−1}
J=∅

On a B ∩ An = ∪n−1
i=1 Bi où Bi = Ai ∩ An donc l'hypothèse de récurrence appliquée à B ∩ An
entraîne
 
P (B ∩ An ) = (−1)|J|−1 P (∩j∈J Bj ) = (−1)|J| P (∩j∈J Aj )
J⊂{1,...,n−1} J⊂{1,...,n}
J=∅ n∈J,J={n}
322 6. PROBABILITÉS

où la dernière égalité provient de l'identité ∩j∈J Bj = (∩j∈J Aj ) ∩ An = ∩j∈J∪{n} Aj lorsque


J ⊂ {1, . . . , n − 1}. En écrivant P (B ∪ An ) = P (B) − P (B ∩ An ) + P (An ) on en déduit
 
P (B ∪ An ) = (−1)|J|−1 P (∩j∈J Aj ) + (−1)|J|−1 P (∩j∈J Aj ) + P (An ),
J⊂{1,...,n−1} J⊂{1,...,n}
J=∅ n∈J,J={n}

ce qui entraîne (*), achèvant ainsi la preuve par récurrence. 


Remarque 4. Il est intéressant de retenir la forme équivalente (*) (dans la démonstration),
car elle fournit parfois un moyen commode d'utilisation de la formule du crible.
Evénements négligeables, presques sûrs.
Définition 4. Soit (Ω, A, P ) un espace probabilisé. Un événement A ∈ A est dit négli-
geable si P (A) = 0, il est dit presque sûr si P (A) = 1. Une propriété vraie sur tous les
éléments d'un événement presque sûr est dite presque sure.
Remarque 5.  Une union dénombrable d'événements négligeable est négligeable, une
intersection dénombrable d'événements presque sûrs est presque sure.
 Lorsque Ω est ni ou dénombrable (avec ∀x ∈ Ω, P ({x}) > 0, ce qu'on rencontre
en pratique), un événement négligeable est forcément impossible. Un exemple
d'événement négligeable non vide, dans le cas des suites innies de pile ou face,
(Ω = {P,F}N ) est l'événement {PN } où PN désigne la suite ne contenant que
des piles. Cet exemple n'est qu'intuitif car nous n'avons pas probabilisé l'espace
Ω = {P,F}N (ceci est abordé dans l'exemple 4 page 326). Un événement négligeable
peut même être inni non dénombrable (voir l'exercice 6 page 331).
Probabilités sur les espaces nis ou dénombrables. On considère ici que Ω est ni
ou dénombrable. On peut numéroter ses élements de sorte que Ω = {wk , k ∈ I} avec
I = {0, . . . , n − 1} si Ω est ni de cardinal n, ou I = N si Ω est dénombrable. La tribu
considérée est ici l'ensemble P(Ω) des parties de Ω.
Proposition 3. Une probabilité sur un univers Ω = {wk , k ∈ I} ni ou dénombrable est
entièrement caractérisée par ses valeurs sur les singletons  P ({wk }) pour wk ∈ Ω. Étant
donnée une suite de nombres réels positifs (pk )k∈I telle que k∈I pk = 1, il lui correspond
une unique probabilité P telle que
 
∀A ∈ P(Ω), P (A) = P ({ωk }) = pk .
ωk ∈A ωk ∈A

Ainsi, la connaissance des P ({ωk }) sut pour connaitre celle de tout événement.
Exemples. Espaces probabilisés nis ou dénombrables classiques.
• Espaces nis
|A|
 Loi uniforme. La loi dénie par P (A) = pour tout A ∈ P(Ω) est la
|Ω|
loi uniforme. Dans ce cas le calcul des probabilités se ramène à des problèmes
combinatoires.
 Loi de Bernoulli. Sur Ω = {0, 1}, la loi de Bernoulli de paramètre p ∈ ]0, 1[
est dénie par P ({1}) = p et P ({0}) = 1 − p. On peut aussi dénir cette loi
pour un jeu de pile ou face ( Ω = {P, F}), elle modélise alors la chance que la
pièce tombe sur pile ou sur face. Lorsque la pièce est équilibrée on a p = 1/2,
dans le cas général la pièce est dite biaisée.
• Espaces dénombrables
 Loi géométrique. Sur Ω = N, la loi géométrique de paramètre p ∈ ]0, 1[ est
dénie par P ({n}) = p(1 − p)n .
2. ESPACES PROBABILISÉS 323

 Loi de Poisson. Sur Ω = N, la loi de Poisson de paramètre λ > 0 est dénie


λn
par P ({n}) = e−λ . Elle modélise le nombre d'événements qui se produisent
n!
dans un intervalle de temps xé.
 Loi zéta. Sur Ω = N∗ la loi zéta de paramètre s > 1 est dénie par P ({n}) =
 1+∞
1 1
s
, où ζ(s) = .
n ζ(s) n=1
ns

2.3. Conditionnement, indépendance


Conditionnement. La notion de conditionnement est particulièrement fructueuse en
probabilité. A partir de la probabilité d'un événement connaissant des informations sup-
plémentaires, elle permet d'en déduire la probabilité de l'événement.

Définition 5 (Probabilité conditionnelle). Soit A un événement d'un espace pro-


babilisé (Ω, A, P ), avec P (A) > 0. Soit B ∈ A un événement. La probabilité conditionnelle
de B sachant A est dénie par
P (A ∩ B)
P (B | A) = .
P (A)
L'application PA : A → [0, 1] B → P (A ∩ B)/P (A) dénit une nouvelle probabilité sur
Ω, appelée probabilité conditionnelle sachant A.

Proposition 4. Soient A1 , . . . , An un nombre ni d'événements d'un espace probabilisé


(Ω, A, P ) tel que P (A1 ∩ . . . ∩ An−1 ) > 0. Alors
P (A1 ∩ . . . ∩ An ) = P (A1 ) P (A2 | A1 ) P (A3 | A1 ∩ A2 ) · · · P (An | A1 ∩ . . . ∩ An−1 ).

Proposition 5 (Formule des probabilités totales). Soit un espace probabilisé


(Ω, A, P ) et (Ai )i∈I une famille nie ou dénombrable d'événements, qui forment une par-
tition de Ω, et telle que P (Ai ) > 0 pour tout i ∈ I . Alors pour tout B ∈ A

P (B) = P (B | Ai )P (Ai ).
i∈I

Proposition 6 (Formule de Bayes). Sous les hypothèses de la propriété précédente,


on a, si P (B) > 0
P (B | Ai )P (Ai )
∀i ∈ I, P (Ai | B) =  .
i∈I P (B | Ai )P (Ai )

Démonstration. On a P (Ai ∩ B) = P (Ai | B)P (B) = P (B | Ai )P (Ai ), donc


P (B | Ai )P (Ai )
P (Ai | B) =
P (B)
et on conclut avec la formule des probabilités totales. 

Remarque 6.  Il n'est pas nécéssaire de retenir par c÷ur la formule de Bayes, on la


redémontre facilement.
 Un cas particulier souvent rencontré est celui où on considère la partition A, AC
de Ω. Dans ce cas on a P (B) = P (B | A)P (A) + P (B | AC )P (AC ), et la formule
de Bayes devient
P (B | A)P (A)
P (A | B) = .
P (B | A)P (A) + P (B | AC )P (AC )
324 6. PROBABILITÉS

Exemple 3. Un test de détection d'une maladie rare est positif à 99% lorsqu'un individu
est atteint de cette maladie, et il est positif à 0,1% lorsqu'il n'est pas atteint. Supposons
que 0,01% de la population soit atteint de cette maladie. On considère un individu pris
au hasard dans la population. Sachant qu'il est positif au test de detection, calculons la
probabilité qu'il soit atteint par la maladie. On considère l'événement A des individus
atteints de la maladie, et AC ceux qui ne le sont pas. Soit B l'événement "le test est
positif". Il s'agit de calculer P (A | B). La formule de Bayes donne
P (B | A)P (A) 0, 99 × 0, 0001
P (A | B) = = ,
P (B | A)P (A) + P (B | AC )P (AC ) 0, 99 × 0, 0001 + 0, 001 × 0.9999
et un calcul donne P (A | B)  0, 09. La probabilité est petite, ce qui peut sembler
contraire à l'intuition.
Indépendance. Étant donnés deux événéments A et B avec P (A) > 0, si le fait de savoir
A ne donne aucune information sur B , on a P (B | A) = P (B), donc P (A ∩ B)/P (A) =
P (B) ce qui entraîne P (A ∩ B) = P (A)P (B). Ceci introduit la notion d'événements
indépendants, dont la dénition ci-dessous reste valide lorque P (A) = 0.
Définition 6. Deux événements A et B d'un espace probabilisé (Ω, A, P ) sont dit indé-
pendants si
P (A ∩ B) = P (A)P (B).
Remarque 7.  Lorsque P (A) > 0, les événements A et B sont indépendants si et
seulement si P (B | A) = P (B).
 Un événement presque sûr est indépendant de tout autre.
 Un événement négligeable est indépendant de tout autre.
Proposition 7. Soir A et B deux événements indépendants d'un espace probabilisé
(Ω, A, P ). Alors il en est de même de AC et B , de A et B C , de AC et B C .
On étend la dénition de l'indépendance à une famille quelconque d'événements.
Définition 7. Soit (Ai )i∈I une famille (éventuellement innie) d'événements d'un espace
probabilisé (Ω, A, P ). On dit que les (Ai )i∈I sont mutuellement indépendants si pour toute
partie nie J ⊂ I , on a 
P (∩j∈J Aj ) = P (Aj ).
j∈J

Remarque 8. On se contente parfois de dire que les (Ai )i∈I sont indépendants. Si les (Ai )i∈I
sont indépendants alors ils sont indépendants deux à deux mais la réciproque est fausse.
Par exemple, on tire deux fois à pile ou face et on considère les événements A ="pile au
premier lancer", B ="pile au deuxième lancer", C ="même résultat aux deux lancers".
Ils sont indépendants deux à deux mais pas mutuellement indépendants.
Proposition 8. Soit (Ai )i∈I une famille d'événements indépendants d'un espace proba-
bilisé (Ω, A, P ). Pour toute famille (εi )i∈I d'éléments de {−1, 1}, (Aεi i )i∈I est une famille
d'événements indépendants (où pour tout événement B on a noté B 1 = B et B −1 = B C ).
Espaces de probabilité produit. Nous étudions ici comment construire un espace pro-
babilisé rendant compte de plusieurs expériences indépendantes les unes des autres.
Cas fini. Considérons n ≥ 2 espaces probabilisés (Ωk , Ak , Pk ) avec 1 ≤ k ≤ n et Ω =
Ω1 ×. . .×Ωn . On muni Ω de la tribu A engendrée par les pavés A1 ×. . .×An avec Ak ∈ Ak .
Un résultat de la théorie des probabilités que nous admettrons, arme qu'il existe une
unique probabilité P (appelée probabilité produit) sur l'espace probabilisable (Ω, A) tel
que sur les pavés de A on ait P (A1 × . . . × An ) = P1 (A1 ) · · · Pn (An ). La probabilité
2. ESPACES PROBABILISÉS 325

P rend ainsi indépendantes les expériences aléatoires correspondantes à chaque espace


(Ωk , Ak , Pk ). Nous énonçons et prouvons ce résultat dans le cas où les Ωk sont nis ou
dénombrables, lorsque Ak = P(Ωk ). Dans ce cas, Ω est ni ou dénombrable et il sut de
dénir P sur ses singletons d'après la proposition 3.
Proposition 9. Considérons n espaces probabilisés (Ωk , P(Ωk ), Pk )1≤k≤n , chacun étant
ni ou dénombrable. Alors Ω = Ω1 × . . . × Ωn est ni ou dénombrable, et la probabilité P
dénie sur les singletons de Ω par
P ({(x1 , . . . , xn )}) = P1 ({x1 }) · · · Pn ({xn }) (∗)
est l'unique probabilité sur (Ω, P(Ω)) telle que pour tout A1 ∈ P(Ω1 ), . . . , An ∈ P(Ωn ),
P (A1 × . . . × An ) = P1 (A1 ) × · · · × Pn (An ). (∗∗)
Démonstration. Le fait que Ω est ni ou dénombrable est un résultat classique sur les ensembles
au plus dénombrables.
 Montrons d'abord que P déni par (*) est bien une probabilité sur Ω. Par commodité notons
pk (xk ) = Pk ({xk }). Lorsque A1 , . . . , An sont des parties nies de Ω1 , . . . , Ωn on a
   
  
p1 (x1 ) · · · pn (xn ) =  p1 (x1 ) · · · pn (xn ) = P1 (A1 ) · · · Pn (An )
x1 ∈A1 ,...,xn ∈An x1 ∈A1 xn ∈An
(∗∗∗)
donc la première somme est majorée par 1. Ainsi la famille de réels positifs p1 (x1 ) · · · pn (xn ) avec
(x1 , . . . , xn ) ∈ Ω est sommable. On peut donc écrire
   
  
p1 (x1 ) · · · pn (xn ) =  p1 (x1 ) · · · pn (xn ) = 1,
x1 ∈Ω1 ,...,xn ∈Ωn x1 ∈Ω1 xn ∈Ωn

donc les hypothèses de la proposition 3 sont vériées, et (*) dénit bien une probabilité P sur
Ω. Pour prouver la propriété (**) on part de l'égalité

P (A1 × · · · × An ) = p1 (x1 ) · · · pn (xn )
x1 ∈A1 ,...,xn ∈An

puis on remarque que l'égalité (***) reste vraie même lorsque les Ak ne sont pas forcément nis,
étant en présence d'une famille sommable.
 L'unicité de P vériant (**) est une conséquence de la même égalité (**) lorsqu'on l'applique
à tous les singletons {x1 } × . . . × {xn } = {(x1 , . . . , xn )}. 

Remarque 9. Un cas particulier courant est celui de n expériences aléatoires indépendantes


modélisées par le même espace (E, T , P ). Dans ce cas Ω = E n , muni de la probabilité
produit P ∗ , et comme on s'y attend, la probabilité que la k -ième expérience ait ses résultats
dans l'événement Ak ∈ A, est égal à P ∗ (E k−1 × Ak × E n−k ) = P (Ak ). Lorsque E = {0, 1}
avec P ({1}) = p ∈ ]0, 1[ , la probabilité du singleton {(w1 , . . . , wn )} avec wj ∈ {0, 1} est
pk (1 − p)n−k , où k est le nombre de wj égaux à 1.
Cas dénombrable. Ici nous nous plaçons dans le cas où on souhaite probabiliser un
espace Ω = E N , modélisant une innité (dénombrable) de fois la même expérience aléa-

toire. Partant d'un espace probabilisé (E, T , P ), on dénit pour tout n ∈ N∗ et pour tout
(A1 , . . . , An ) ∈ T n le cylindre

A1 × . . . × An × E × E × . . . = {w = (wi )i∈N∗ ∈ E N | ∀k ∈ {1, . . . , n}, wk ∈ Ak }
et on dénit la tribu A engendrée par tous les cylindres de cette forme. Ici aussi, nous ad-
mettrons un résultat dû à Kolmogorov, qui arme l'existence et l'unicité d'une probabilité
P ∗ sur (Ω, A) tel que pour tout cylindre, on ait
P ∗ (A1 × . . . × An × E × E × . . .) = P (A1 ) · · · P (An ).
326 6. PROBABILITÉS

C'est l'existence et l'unicité de cette probabilité qui permet par exemple de considérer
des probabilités sur des suites innies de tirage à pile ou face (voir par exemple l'exemple
ci-dessous, ou les exercices 5 et 6 pages 330 et 331), et c'est indispensable pour avoir le
droit de dénir une probabilité sur ces espaces. Dans la même veine, la proposition 17
page 344, assure l'existence d'une suite de variables aléatoires indépendantes qui suivent
une suite de lois donnée.
Exemple 4. On lance successivement et de manière indépendante une pièce, dont la pro-
babilité de tomber sur pile est p ∈ ]0, 1[ . On calcule la probabilité pour que pile appa-
raisse pour la première fois au n-ième lancer. Ici la probabilité P est celle sur les suites
(wn )n∈N∗ ∈ Ω = {P, F}N , dont l'existence et l'unicité est garantie par le résultat que nous

avons présenté plus haut. Notons An l'événement Pile apparait pour la première fois au
lancer numéro n, qui correspond au cylindre {F}×. . .×{F}×{P}×E ×. . ., où il y a n−1
fois {F}. La probabilité P de An est donc P (An ) = (1 − p)n−1 p. Les événements (An )n∈N∗
forment une partition de Ω  {PN∗ }, où PN∗ désigne la suite dont tous les éléments sont
des piles. On en déduit
+∞
 +∞

P (Ω  {PN∗ }) = P (An ) = (1 − p)n−1 p = 1.
n=1 n=1

Donc P ({PN∗ }) = 0, c'est-à-dire que le singleton {PN∗ } est un événement négligeable,


comme déjà discuté dans la remarque 5 page 322.
Lemme de Borel-Cantelli. Considérons une suite (An )n∈N d'événements. On dénit
lim sup An = ∩p∈N (∪n≥p An ).
n

Il n'est pas dicile de voir que


w ∈ lim sup An ⇐⇒ w appartient à une innité de An .
n

Notons également que


w ∈ lim sup An ⇐⇒ w appartient à au plus un nombre ni de An .
n

Mentionnons également la notation lim inf n An = ∪p∈N (∩n≥p An ), qui désigne l'ensemble
des w ∈ Ω qui appartiennent à tous les An sauf éventuellement un nombre ni.
Muni de cette dénition, nous pouvons maintenant énoncer le lemme de Borel-Cantelli,
qui n'est pas au programme des classes préparatoires mais qu'il est très utile de connaitre
et de savoir démontrer (la preuve est assez simple). Il est presque systématiquement utilisé
chaque fois qu'on veut prouver qu'une propriété est vraie presque partout.
 Théorème 1 (Lemme de Borel-Cantelli). Soit (An )n∈N une suite d'événements d'un
espace probabilisé
 (Ω, A, P ). Alors
(i) Si n∈N P (An ) converge, on a P (lim supn An ) = 0.

(ii) Si les (An )n∈N sont mutuellements indépendants, et si n∈N P (An ) diverge, alors
P (lim supn An ) = 1.

Démonstration. (i) Notons Bp = ∪n≥p An . On a P (Bp ) ≤ n≥p P (An ) donc limp→+∞ P (Bp ) = 0.
Comme (Bp )p∈N est une suite décroissante (au sens de l'inclusion), on en déduit d'après (vi) de
la proposition 2 page 320, que P (lim supn An ) = P (∩p∈N Bp ) = limp→∞ P (Bp ) = 0.
(ii) Soit p ∈ N. Les (An ) sont indépendants, donc les (AC
n ) également, donc pour tout m > p,
   
m
 m
 m
 m

 
P Ai  = 1 − P  AC
i
=1− P AC
i =1− (1 − P (Ai )).
i=p i=p i=p i=p
2. ESPACES PROBABILISÉS 327

m m
Lorsque x > 0, on a 1 − x < exp(−x), on en déduit i=p (1 −P (Ai )) ≤ exp(− i=p P (Ai )),
m 
donc limm→∞ i=p (1 − P (Ai )) = 0, donc limm→+∞ P ∪i=p Ai = 1. On en déduit P (Bp ) =
m

P (∪m≥p Ai ) = 1. Donc P (lim supn An ) = P (∩p∈N Bp ) = limp→∞ P (Bp ) = 1. 


Remarque 10. Une autre façon d'exprimer l'assertion (i) est d'armer que si n∈N P (An )
converge, alors presque surement, si ω ∈ Ω, il n'y a qu'un nombre ni de n pour lequel
ω ∈ An .
 Voyons une conséquence typique de ce lemme. On considère l'espace Ω = {P, F}N des

suites innies de tirages à pile ou face d'une pièce équilibrée. Pour tout n ∈ N∗ , considérons
l'événement la suite contient n piles consécutifs à partir de la position n, c'est-à-dire

An = {w = (wi )i∈N∗ ∈ Ω | wn = wn+1 = . . . = w2n−1 = P}.



On a P (An ) = 1/2n , donc n P (An ) converge et d'après le lemme de Borel-Cantelli, on en
déduit que l'ensemble des suites qui contiennent pour une innité de valeurs de n, une série
de n piles consécutifs à partir de la position n, est négligeable. De manière équivalente,
une suite dans Ω ne contient presque surement qu'un nombre ni (éventuellement vide)
de valeurs de n, pour lesquels il y a n piles consécutifs à partir de la position n.
2.4. Exercices
Exercice 1. Le gène de l'hémophilie est porté par le chromosome X, les hommes le
révèlent systématiquement s'ils le portent, et les femmes ne le révèlent pas (nous considé-
rons ici qu'il n'y a pas d'exception à cette règle). Ce gène est transmis aux enfants avec
une probabilité 1/2 par la mère. Une femme a un cousin germain hémophile (le ls de la
soeur de sa mère), ni son grand-père, ni son père ni son beau-frère ne sont hémophiles.
De plus elle a deux ls non hémophiles.
1/ Quelle est sa probabilité de porter le gène de l'hémophilie ?
2/ Quelle est cette probabilité, si on sait de plus qu'elle a un frère non-hémophile ?
Solution.
1/ La soeur de sa mère porte le gène de l'hémophilie, donc sa grand-mère est porteuse (aucun
homme de la famille ne porte le gène). Donc sa mère a une probabilité 1/2 de porter le gène,
donc elle même a une probabilité 1/4 de le porter.
Ainsi l'événement A la femme porte le gène de l'hémophilie vérie P (A) = 1/4. En notant
B l'événement aucun de ses deux ls n'est hémophile, il s'agit de calculer P (A | B). La formule
de Bayes appliqué à la partition A, AC de l'ensemble des cas possibles, donne
P (A ∩ B) P (B | A)P (A) (1/4)(1/4) 1
P (A | B) = = C C
= = .
P (B) P (B | A)P (A) + P (B | A )P (A ) (1/4)(1/4) + 1 · (3/4) 13

2/ La probabilité que sa mère soit porteuse est modiée, ce qui modie P (A). Notons M l'évé-
nement sa mère est porteuse et F l'événement son frère est non-hémophile, de sorte que
P (A) = 12 P (M | F ). Comme précédemment on applique la formule de Bayes qui donne

P (M ∩ F ) P (F | M )P (M ) (1/2)(1/2) 1
P (M | F ) = = = = .
P (F ) P (F | M )P (M ) + P (F | M C )P (M C ) (1/2)(1/2) + 1 · (1/2) 3

Donc P (A) = 1/6. La même formule que celle utilisée dans 1/ avec cette nouvelle valeur de P (A)
donne
P (B | A)P (A) (1/4)(1/6) 1
P (A | B) = = = .
P (B | A)P (A) + P (B | AC )P (AC ) (1/4)(1/6) + 1 · (5/6) 21
328 6. PROBABILITÉS

Exercice 2. Une chaine de fabrication produit des pièces dont le nombre suit une loi de
Poisson : la probabilité d'avoir n pièces fabriquées en une journée est pn = e−λ λn /n! avec
λ = 1000. Une pièce a une probabilité p = 1/250 d'avoir un défault.
1/ Quelle est la plus grande valeur de k ∈ N pour laquelle la probabilité dk d'avoir moins
de k pièces avec défaut la même journée, vérie dk < 1/2 ?
2/ Un automate eectue un test de contrôle automatique de chaque pièce en sortie de la
chaîne et rejette les pièces lorsque celui ci est positif.
 Si la pièce a un défaut, le test de contrôle est positif avec une probabilité q = 0, 98.
 Si la pièce n'a pas de défaut, l'automate la rejette avec une probabilité r = 10−4 .
a) Quelle est la probabilité d'avoir 5 pièces rejetées en une seule journée ?
b) Quelle est la probabilité qu'en une journée, aucune pièce sans défaut n'ait été rejetée,
sachant que 5 pièces ont été rejetées ?
Solution. 1/ Notons An l'événement il y a n pièces fabriquées en une journée et Bk l'événement
il y a k pièces avec défaut
  en une journée. Lorsqu'on a n ≥ k pièces produites en une journée,
n
il y a parmi celles-ci combinaisons possibles de k pièces avec défaut et n − k sans défaut,
k  
n k
chacune ayant une probabilité pk (1 − p)n−k de se produire, donc P (Bk |An ) = p (1 − p)n−k .
k
La formule des probabilités totale donne
+∞
 +∞  
 n k λn
P (Bk ) = P (Bk |An )P (An ) = p (1 − p)n−k e−λ
k n!
n=k n=k
+∞
 (pλ)k ((1 − p)λ)n−k (pλ)k −pλ
= e−λ = e .
k! (n − k)! k!
n=k
Donc la probabilité d'avoir moins de k pièces avec défaut dans la même journée est
k
 k
 (pλ)j
dk = P (Bj ) = e−pλ .
j!
j=0 j=0

On trouve d3  0, 43, d4  0, 63 et (dk ) est croisssante, donc la valeur recherchée est k = 3.


2/a) Commençons par calculer la probabilité de l'événement R =une pièce produite est re-
jetée. Soit D l'événement une pièce produite a un défaut. On a P (R) = P (R|D)P (D) +
P (R|DC )P (DC ) = s avec s = qp + r(1 − p). Soit B l'événement il y a 5 pièces rejetées en une
seule journée. La même approche que précédemment donne
  n λn (sλ)5 −sλ
P (B) = P (B|An )P (An ) = s5 × (1 − s)n−5 e−λ = e .
5 n! 5!
n≥5 n≥5

Un calcul numérique donne P (B)  0, 16.


b) On utilise la formule de Bayes pour calculer la probabilité qu'une pièce ait un défaut sachant
qu'elle est rejetée :
P (D ∩ R) P (R|D)P (D) qp
P (D|R) = = =
P (R) P (R|D)P (D) + P (R|DC )P (DC ) qp + r(1 − p)
La

probabilité
5
recherchée est celle que les 5 pièces rejetées aient toutes un défaut, donc égale à
qp
qp+r(1−p)  0, 88.

Exercice 3. Soit (Ω, A, P ) un espace probabilisé. 1/ Si (An )n∈N est une suite d'événe-
ments deux à deux disjoints. Montrer que limn→+∞ P (An ) = 0.
2/ Soit n ∈ N∗ . Soient A1 , . . . , An des événements tels que P (Ak ) > 1 − 1/n pour
2. ESPACES PROBABILISÉS 329

1 ≤ k ≤ n. Montrer qu'il existe un résultat ω ∈ Ω qui appartient à tous les Ak .


3/ Soient (An )n∈N est une suite d'événements tels que P (An ) ne converge pas vers 0.
Montrer qu'il existe un résultat ω ∈ Ω qui appartient à une innité de Ak .
+∞
Solution. 1/ La dénition

d'une probabilité nous assure que n=0 P (An ) = P (∪n∈N An ), en
particulier la série +∞
n=0 P (A n ) converge, ce qui entraîne lim n→+∞ P (An ) = 0.

2/ Le cas n = 1 est évident car dans ce cas, P (A1 ) > 0 donc A1 = ∅. Pour traiter le cas n = 2,
on écrit P (A1 ∩ A2 ) = P (A1 ) + P (A2 ) − P (A1 ∪ A2 ) > (1 − 1/2) + (1 − 1/2) − 1 = 0, donc
A1 ∩ A2 = ∅.
Le cas n = 2 nous invite à traiter le cas général en prouvant par récurrence sur k la propriété :
k
∀k ∈ {1, . . . , n}, P (A1 ∩ . . . ∩ Ak ) > 1 − . (∗)
n
C'est vrai pour k = 1. Supposons le résultat vérié pour k < n. Par commodité on note B =
A1 ∩ . . . ∩ Ak . On a P (B) > 1 − k/n d'après l'hypothèse de récurrence, donc
P (A1 ∩ . . . ∩ Ak ∩ Ak+1 ) = P (B ∩ Ak+1 ) = P (B) + P (Ak+1 ) − P (B ∪ Ak+1 )
   
k 1 k+1
> 1− + 1− −1=1− .
n n n
Ainsi la propriété (*) est vraie pour tout k ≤ n, en particulier pour k = n, ce qui entraîne
P (A1 ∩ . . . ∩ An ) > 1 − n/n = 0, donc A1 ∩ . . . ∩ An = ∅.
3/ Si les (An )n∈N sont mutuellement indépendants, le résultat est une conséquence du lemme de
Borel-Cantelli (voir (ii) du théorème 1 page 326). Ici on n'a pas l'indépendance donc on procède
autrement. Comme la suite (P (An ))n∈N ne converge pas vers 0, il existe ε > 0 tel que
∀p ∈ N, ∃n ≥ p, P (An ) ≥ ε. (∗∗)
Ainsi, en notant Bp = ∪n≥p An , on a P (Bp ) ≥ ε pour tout p ∈ N (pour tout p, (**) nous assure
l'existence d'un n ≥ p tel que P (An ) ≥ ε, et comme An ⊂ Bp on a bien P (Bp ) ≥ P (An ) ≥ ε).
Comme (Bp )p∈N est une suite décroissante d'événements, on a limp→+∞ P (Bp ) = P (∩p∈N Bp ), on
en déduit P (∩p∈N Bp ) ≥ ε. En particulier ∩p∈N Bp n'est pas vide. En choisissant un ω ∈ ∩p∈N Bp ,
la dénition des Bp entraîne que ω se trouve dans une innité de An , on a donc prouvé le résultat.

Exercice 4. Soient A et B deux événements quelconques d'un espace probabilisé. Dé-


montrer que |P (A ∩ B) − P (A)P (B)| ≤ 1/4 et caractériser le cas d'égalité.
Solution. Notons C = A ∩ B , A = A  C et B  = B  C . Notons a = P (A ), b = P (B  ) et
c = P (C). On a P (A) = a + c et P (B) = b + c, donc |P (A ∩ B) − P (A)P (B)| = |c − (c + a)(c + b)|.
Traitons deux cas :
 Cas 1. Si (c + a)(c + b) ≥ c, alors comme A , B  et C sont disjoints on a a + b + c ≤ 1,
donc c + b ≤ 1 − a, donc
|c − (c + a)(c + b)| = (c + a)(c + b) − c ≤ (c + a)(1 − a) − c = a − a2 − ac ≤ a − a2 . (∗)
On a a − = 1/4 − (a −
a2 ≤ 1/4, l'inégalité est donc prouvée dans ce premier cas.
1/2)2
Dans le cas 1, l'égalité a lieu si et seulement si a = 1/2, et compte tenu de (*), ac = 0
et c + b = 1 − a, ce qui revient à avoir c = 0 et b = 1/2. Autrement dit, l'égalité a lieu
lorsque A ∩ B est négligeable et P (A) = P (B) = 1/2 (notons que dans le cas d'égalité,
P (A ∪ B) = P (A) + P (B) − P (A ∩ B) = 1, i.e. A ∪ B est presque sûr).
 Cas 2. Si c > (c + a)(c + b), alors l'inégalité souhaitée est bien vraie car
|c − (c + a)(c + b)| = c − (c + a)(c + b) ≤ c − c2 . (∗∗)
Le cas d'égalité se produit lorsque c = 1/2 et (c + a)(c + b) = c2 ,
donc a = b = 0.
Autrement dit, l'égalité se produit lorsque P (A) = P (B) = 1/2 et lorsque A et B  sont
négligeables (c'est-à-dire lorsque A = B à un ensemble négligeable près).
330 6. PROBABILITÉS

Exercice 5. Alice et Zoé jouent à pile ou face en lançant indéniment une pièce non
équilibrée, dont la probabilité de tomber sur pile est p ∈ ]0, 1[ . Alice gagne dès que la
séquence FFP (face-face-pile) est apparue, alors que la séquence FPP n'est pas encore
apparue. Bernard gagne dès que la séquence FPP est apparue, alors que la séquence
FFP n'est pas encore apparue. Déterminer la probabilité de gain de Alice, et de Bernard.
Peut-on trouver une valeur de p telle qu'Alice et Bernard aientla même probabilité
de gain ? (indication : on pourra considérer la série génératrice n an z n où an est la
probabilité de gain au n-ième lancer.)
Solution. Supposons que Alice ou Zoé gagne au n-ième lancer. Soit w = (w1 , . . . , wn ) la n-liste
de {P,F} (pile ou face) correspondante. On a n ≥ 3. Notons w la (n − 3)-liste des n − 3 premières
lettres de w. En étudiant les enchaînements possibles de P et de F, on s'aperçoit que w a
la forme d'une séquence de P, suivi d'une séquence de FP, suivi d'une séquence de F (ces
séquences pouvant chacune être vide), ce qu'on note sous la forme w = Pq (FP)r Fs . Pour prouver
ce résultat on traite plusieurs cas :
 w ne contient pas la lettre F. Alors w ne contient que la lettre P : w = Pn−3 .
 Sinon il existe un plus petit entier q ∈ N tel que wq+1 = F. On a deux cas :
• soit il n'y a que des F dans w après la position q . Alors w = Pq Fs avec p+s = n−3.
• sinon le premier F est immédiatement suivi d'un P (sinon, comme on a un P
entre ce F et la n de w , la séquence FFP arriverait avant la position n). On note
r le nombre de FP consécutifs (à partir de la position q + 1). Si q + 2r < n − 3, après
le FP se terminant à la position q + 2r, on a forcément un F (sinon la séquence
FPP arriverait avant la position n). Si q + 2r + 1 < n − 3 on doit encore avoir un
F (par dénition de r ce ne peut pas être un P), puis uniquement des F (sinon
FFP arriverait avant la position n). En résumé, on ne peut avoir qu'une séquence de
F commençant à la position q + 2r + 1, jusque la n de w , et donc w = Pq (FP)r Fs .
En résumé, nous venons de montrer que w est forcément de la forme Pq (FP)r Fs où (q, r, s) ∈ N3
sont tels que q + 2r + s = n − 3. On en déduit que les séquences de gain w ont la forme suivante :
(i) Si Alice gagne, w = Pq (FP)r Fs FFP, avec q, r, s ∈ N , q + 2r + s = n − 3.
(ii) Si Zoé gagne, w = Pq (FP)r FPP, avec q, r ∈ N , q + 2r = n − 3.
Réciproquement il est clair que ces séquences sont bien associées à celles où Alice ou Zoé gagnent
au n-ième lancer.
Calculons maintenant an la probabilité de gain d'Alice au n-ième lancer. D'après (i) et sa
réciproque, on a  
  
an = 
 pq (p(1 − p))r (1 − p)s  2
 (1 − p) p.
q,r,s∈N
q+2r+s=n−3
En considérant les trois séries entières
+∞
 +∞
 +∞

Q(z) = pq z q , R(z) = pr (1 − p)r z 2r , S(z) = (1 − p)s z s ,
q=0 r=0 s=0

dont le rayon
 de convergence est ≥ 1, un produit de Cauchy nous assure que la série génératrice
A(z) = +∞ n=0 an z (de rayon de convergence ≥ 1) vérie, pour |z| < 1
n

1 1 1
z 3 A(z) = Q(z)R(z)S(z)(1 − p)2 p = · · (1 − p)2 p.
1 − pz 1 − p(1 − p)z 2 1 − (1 − p)z
Les séries de fonctions en jeu convergent absolument pour z ∈ [−1, 1], donc sont dénies et
continues sur ce domaine et on en déduit que la probabilité de gain de Alice est
+∞
 (1 − p)2 p 1−p
a= an = A(1) = Q(1)R(1)S(1)(1 − p)2 p = = .
(1 − p)(1 − p(1 − p))p 1 − p(1 − p)
n=0
En notant bn la probabilité de gain de Zoé au n-ième lancer, la même approche permet de
montrer, d'après (ii) et sa réciproque, que la série entière B(z) = +∞
n=0 bn z vérie z B(z) =
n 3
2. ESPACES PROBABILISÉS 331

Q(z)R(z)(1 − p)p2 puis que la probabilité de gain de Zoé est


+∞
 (1 − p)p2 p2
b= bn = B(1) = Q(1)R(1)(1 − p)p2 = = .
(1 − p)(1 − p(1 − p)) 1 − p(1 − p)
n=0
On remarque que a + b = 1, donc presque surement, Alice ou Zoé gagne.
Pour avoir a = b, compte tenu des valeurs obtenues plus haut, il√sut de choisir p tel que
1 − p = p2 , dont il existe une unique solution dans [0, 1] qui est p = ( 5 − 1)/2  0, 618.

Exercice 6. On lance indéniment une pièce de monnaie non équilibrée, dont la probabi-
lité de tomber sur pile est p ∈ ]0, 1[ . On note Ω = {P,F}N l'ensemble des suites possibles

de pile ou face correspondantes.


1/ a) Soit N ∈ N∗ et a = (a1 , . . . , aN ) une N -liste de {P,F}. Montrer que l'ensemble
A = {w = (wi )i∈N∗ ∈ Ω | ∃n ∈ N∗ , wn+1 = a1 , . . . , wn+N = aN }
est presque sûr.
b) Montrer l'existence d'événement négligeable et inni non dénombrable.
2/ Soit α > 0. Pour tout n on note An l'événement la suite a au moins α log n piles
consécutifs à partir de la position n, c'est-à-dire
An = {w = (wi )i∈N∗ ∈ Ω | wn+1 = . . . = wn+(n) = P}, (n) = α log n,
(où x désigne le plus petit entier ≥ x).
a) Lorsque α > 1/ log(1/p), montrer que presque surement, les suites de Ω ont au plus un
nombre ni de n tels qu'il y a au moins α log n piles consécutifs à partir de la position n.
b) Lorsque α ≤ 1/ log(1/p), montrer que presque surement, les suites de Ω ont un nombre
inni de n tels qu'il y a au moins α log n piles consécutifs à partir de la position n.
Solution. 1/a) On va construire un événement plus petit, presque sûr, ce qui montrera que A est
presque sûr. Pour tout p ∈ N, notons Ap = {w = (wi )i∈N∗ ∈ Ω | wpN +1 = a1 , . . . , wpN +N = aN }.
Les événements (Ap )p∈N sont
 mutuellement indépendants, la probabilité de chacun est P (Ap ) =
P (A0 ) > 0, donc la série p P (Ap ) diverge. On peut donc appliquer le lemme de Borel-Cantelli
(assertion (ii), voir le théorème 1 page 326), qui entraîne que B = ∩n∈N ∪p≥n Ap est presque
sûr. Toute suite w dans B appartient à une innité de Ap , donc vérie en particulier wn+1 =
a1 , . . . , wn+N = aN pour une innité de valeurs de n. Donc B ⊂ A, donc P (A) ≥ P (B) = 1 ce
qui prouve que A est presque sûr.
b) On choisit un cas particulier de la question précédente : N = 2 et a = (P,P). D'après la
question précédente, l'événement A = {w = (wi )i∈N∗ ∈ Ω | ∃n ∈ N∗ , wn+1 = wn+2 = P}
est presque sûr. Donc son complémentaire C , qui est l'ensemble des suites n'ayant jamais deux
pile consécutifs, est négligeable. On va montrer que C est inni non dénombrable. Pour cela
on considère l'ensemble des suites
D = {w = (wi )i∈N∗ ∈ Ω | ∀n ∈ N, (w2n+1 , w2n+2 ) ∈ {(F,F), (F,P)}}.
On a D ⊂ C . On va montrer que D est inni non dénombrable, en utilisanr un procédé diagonal,
similaire à celui utilisé pour la preuve de la non-dénombrabilité de R. Raisonnons par l'absurde et
supposons D dénombrable, de sorte qu'il existe une bijection ϕ : N → D. On note xn,i ∈ {P,F}
le i-ième terme de la suite ϕ(n). On construit la suite w = (wi )i∈N∗ ∈ Ω comme suit : pour tout
i ∈ N, on choisit (w2i+1 , w2i+2 ) ∈ {(F,F), (F,P)}  {(xi,2i+1 , xi,2i+2 )} (il n'y a qu'un seul élément
possible). Comme w ∈ D, il existe n ∈ N tel que w = ϕ(n), ce qui entraîne (w2n+1 , w2n+2 ) =
(xn,2n+1 , xn,2n+2 ), et ceci est absurde étant donnée la dénition de w. Donc D est inni non
dénombrable, donc c'est aussi le cas pour C car D ⊂ C .
2/a) La probabilité de An est  p
(n) ≤ pα log n = nα log p . Ainsi on a P (A ) ≤ n−β avec β =
n
α log(1/p) > 1. Donc la série n P (An ) converge, et d'après le lemme de Borel-Cantelli (assertion
332 6. PROBABILITÉS

(i)), on en déduit que ∩n∈N∗ ∪p≥n Ap est négligeable. Donc, presque surement toute suite w
n'appartient qu'à un nombre ni de An , ce qu'il fallait démontrer.
b) Ici on ne peut pas appliquer directement l'assertion (ii) du lemme de Borel-Cantelli car les
(An ) ne sont pas mutuellement indépendants. On s'en sort en se restreignant à une sous-suite
de (An ) tels que les indices des suites impliqués dans la dénition des An ne se chevauchent pas.
On choisit Bn = Amn avec mn = 2n(n). Il existe N ∈ N tel que pour tout n ≥ N ,
(mn ) ≤ 1 + α log(2n(n)) = 1 + α log n + α log(2(n)) < 2α log n ≤ 2(n).
Lorsque n ≥ N , on a donc mn+1 = 2(n + 1)(n + 1) ≥ 2(n + 1)(n) = mn + 2(n) > mn + (mn ).
Ainsi les ensembles d'indices {mn + 1, . . . , mn + (mn )} impliqués dans la dénition de Bn sont
disjoints lorsque n ≥ N , ce qui entraîne que les (Bn )n≥N sont mutuellement indépendants. La
probabilité de Bn vérie
p p
P (Bn ) = p(mn ) ≥ pα log mn +1 = p mαn log p = α log(1/p)
≥ .
(2n(n)) 2n(n)
p p/(2α) 
Comme ∼ , on en déduit que la série n≥N P (Bn ) diverge. On peut appliquer
2n(n) n log n
l'assertion (ii) du lemme de Borel-Cantelli, qui entraîne que ∩n≥N ∪p≥n Bn est presque sûr. Donc
presque surement, toute suite de Ω appartient à une innité de Bn , donc à une innité de Am ,
ce qu'il fallait démontrer.

Exercice 7. On note P l'ensemble


 des1 nombres premiers.
1/ Soit s > 1. On note ζ(s) = +∞
n=1 ns (fonction zêta de Riemann), et on dénit une
probabilité P sur N∗ par
1 1
∀n ∈ N∗ , P ({n}) = .
ζ(s) ns

a) Pour tout q ∈ N∗ , on note Aq = qN∗ . Montrer que les événements (Ap )p∈P sont
mutuellement indépendants.
b) En notant p1 < p2 < . . . les nombres premiers dans l'ordre croissant, en déduire que
+∞ 
 
1 1
= 1− s .
ζ(s) k=1 pk

c) Déterminer la nature de la série k≥1 1/pk .
2/a) Montrer qu'il n'existe pas de probabilité P sur N∗ telle que P (Aq ) = 1/q pour tout
q ∈ N∗ . 
b) Soit n∈N∗ u(n) une série à termes positifs et convergente. Montrer qu'il n'existe pas
de probabilité P sur N∗ telle que |P (Aq ) − 1/q| < u(q) pour tout q ∈ N∗ .
Solution. 1/a) On commence par remarquer que pour tout q ∈ N∗ , on a
+∞
 1 1 1
P (Aq ) = = s.
ζ(s) (qn)s q
n=1
Par ailleurs, lorsque q, r sont premiers entre eux, Aqr est l'ensemble des nombres entiers divisibles
par q et par r, donc Aqr = Aq ∩ Ar . Considérons maintenant k nombres premiers distincts
p1 , . . . , pk . L'observation précédente entraîne Ap1 ···pk = Ap1 ∩ . . . ∩ Apk donc on a
1 1 1
P (Ap1 ∩ . . . ∩ Apk ) = P (Ap1 ···pk ) = s
= s · · · s = P (A1 ) · · · P (Ak ),
(p1 · · · pk ) p1 pk
ce qui prouve bien l'indépendance des (Ap )p∈P .
2. ESPACES PROBABILISÉS 333

b) Comme les (Ap )p∈P sont indépendants, les (Ap )p∈P également (où A désigne le complémen-
taire de A). Ainsi pour tout K ∈ N∗ , l'événement BK = ∩K
k=1 Apk , qui est l'ensemble des entiers
divisibles par aucun des (pk )1≤k≤K , vérie
K
 K
 K 
 
1
P (BK ) = P (Apk ) = (1 − P (Apk )) = 1− . (∗)
psk
k=1 k=1 k=1

Or {1} ⊂ BK ⊂ {1} ∪ {n ∈ N∗ , n > pK } donc



P ({1}) ≤ P (BK ) ≤ P ({1}) + P ({n})
n>pK

donc   +∞ 
1 1  1 1 1 dt
≤ P (BK ) ≤ + ≤ 1+ .
ζ(s) ζ(s) n>p ζ(s) ns ζ(s) pK ts
K

Il y a une innité de nombres premiers donc pK tend vers +∞ et comme l'intégrale 1+∞ dt/ts
converge, on en déduit limK→+∞ P (BK ) = 1/ζ(s), d'où le résultat en faisant tendre K vers +∞
dans (*).
c) Nous allons montrer que la série diverge. Raisonnonspar l'absurde et supposons qu'elle
converge. Alors comme | log(1 − 1/pk )| ∼ 1/pk , la série k≥1 | log(1 − 1/pk )| converge. Soit
M sa somme. Lorsque s > 1, on a | log(1 − 1/psk )| ≤ | log(1 − 1/pk )| et avec le résultat de la
question précédente, on en déduit
  
+∞
1 

∀s > 1, |log ζ(s)| =  log 1 − s  ≤ M. (∗∗)
 pk 
k=1
Or on a la minoration
+∞
 +∞  n+1
  +∞
1 dt dt 1
∀s > 1, ζ(s) = ≥ = = .
ns t s t s s − 1
n=1 n=1 n 1

ce qui est incompatible avec (**). La série k≥1 1/pk diverge donc.
2/a) Supposons qu'une telle probabilité existe. Le même raisonnement que
 dans 1/a) , montre
que les (Ap )p∈P sont mutuellement indépendants. D'après 1/c), la série k≥1 P (Apk ) diverge,
on peut donc appliquer le lemme du Borel-Cantelli (assertion (ii)) qui nous assure que presque
surement, tout entier est dans une innité de Apk , autrement dit que presque surement, tout
entier est divisible par une innité de nombres premiers, ce qui est absurde. On en déduit qu'une
telle probabilité n'existe pas.
b) On va également raisonner par l'absurde en supposant qu'une telle probabilité existe. Ici
l'utilisation du lemme de Borel-Cantelli n'est pas possible car les (Ap )p∈P ne sont pas indépen-
dants. On s'en sort en s'inspirant de la preuve de l'assertion (ii) du lemme de Borel-Cantelli,
en commençant par déterminer une minoration de P (∪m≤k≤n Apk ). En l'absence d'indépendance
des événements en présence, on utilise la formule du crible, qui s'écrit

P (∪m≤k≤n Apk ) = (−1)|J|−1 P (∩j∈J Apj ).
J⊂{m,...,n},|J|≥1

Or ∩j∈J Apj = Aq avec q = j∈J pj donc
   
 1  
 
P (∩j∈J Apj ) −   ≤ u pj  .
 j∈J pj  j∈J

On a donc
   
  +∞
  (−1) |J|−1    
P (∪m≤k≤n Ap ) −  ≤ u  p ≤ u(k). (∗∗∗)
 k  j
 J⊂{m,...,n},|J|≥1 j∈J pj  J⊂{m,...,n},|J|≥1 j∈J k=pm
334 6. PROBABILITÉS

La dernière majoration est une conséquence du fait que, lorsque J parcourt les parties non vides
de {m, . . . , n}, les entiers j∈J pj sont tous distincts (d'après l'unicité de la décomposition en
facteurs premiers) et supérieurs à pm . On minore maintenant le terme de droite dans la valeur
absolue :
n   n
 n

 (−1)|J|−1  1   1
 =1− 1− ≥1− exp(−1/pk ) = 1 − exp − .
J⊂{m,...,n},|J|≥1 j∈J pj k=m
pk
k=m
pk
k=m

Avec (***) on en déduit


 n
 +∞
 1 
P (∪m≤k≤n Apk ) ≥ 1 − exp − − u(k).
pk
k=m k=pm

En faisant tendre n vers +∞, on obtient, compte tenu du fait que 1/pk diverge
+∞

P (∪k≥m Apk ) ≥ 1 − u(k).
k=pm

Comme k u(k) converge, ceci entraîne
P (∩m∈N∗ ∪k≥m Apk ) ≥ 1,
donc ∩m∈N∗ ∪k≥m Apk est presque sûr. Comme précédemment, on en déduit que presque surement,
tout entier est dans une innité de Apk , donc divisible par une innité de pk , ce qui est absurde.
Remarque. Nous avons ainsi démontré par des moyens probabilistes l'expression de ζ(s)
comme produit eulérien (question 1/b)). Cette formidable identité est également dé-
montrée par des moyens analytiques dans le tome Analyse, c'est notamment l'un des
résultats utilisés pour la preuve du théorème des nombres premiers (qui arme que
π(x) = |{p ∈ P, p ≤ x}| ∼ x/ log x).

 On peut montrer que p∈P, p≤n 1/p = log log n + O(1). La divergence de la série est
donc très lente.

3. Variables aléatoires discrètes


Nous nous limiterons ici au cas des variables aléatoires discrètes, conformément au
programme des classes préparatoires. Nous donnons néanmoins la dénition générale d'une
variable aléatoire, et nous discuterons un peu plus loin des variables aléatoires réelles. Sauf
mention expresse, Ω désigne dans cette section un ensemble associé à un espace probabilisé
(Ω, A, P ).
3.1. Généralités
Définition 1. Soient (Ω, A, P ) un espace probabilisé et (E, F) un espace probabilisable.
On appelle variable aléatoire de Ω vers E une application X : Ω → E telle que ∀F ∈
F, X −1 (F ) ∈ A. La fonction PX : F → [0, 1], F → P (X −1 (F )) est alors une probabilité
sur (E, F), appelée loi de probabilité de X .
En pratique, on peut avoir (E, F) = (E, P(E)) avec E un ensemble ni ou dé-
nombrable (cas des variables aléatoires discrètes, qui est le cadre de cette section), soit
(E, F) = (R, B) (on parle alors de variable aléatoire réelle, B étant la tribu borélienne),
soit E = Rd , soit un espace plus sophistiqué (comme par exemple l'espace des fonctions
continues de [0, 1] dans R).
Notation. On utilise en général la notation {X ∈ B} pour désigner l'ensemble X −1 (B).
On écrira donc P (X ∈ B) pour désigner P (X −1 (B)). On utilisera également la notation
3. VARIABLES ALÉATOIRES DISCRÈTES 335

P (X = x) = P (X −1 ({x})) pour x ∈ E . Pour les variables aléatoires réelles, on écrira


P (X ≤ a) = P (X −1 ( ] − ∞, a])), P (X ≥ b) = P (X −1 ([b, +∞[ )), P (a ≤ X < b) =
P (X −1 ([a, b[ )), etc.
Cas des variables aléatoires réelles. Même si ces dernières ne sont pas au programme
des classes préparatoires, il est bon de connaitre les dénitions et propriétés suivantes.
 La loi PX d'une variable aléatoire réelle X est entièrement déterminée par les
probabilités P (X ≤ x), x ∈ R.
 La fonction FX : R → [0, 1] x → P (X ≤ x) est appelée fonction de répartition
de X . Elle est croissante. Elle est continue à droite en tout point de R, car pour
toute suite réelle (xn ) convergeant vers x et décroissante on a
lim FX (xn ) = lim P (X −1 ( ] − ∞, xn ])) = P (∩n∈N X −1 ( ] − ∞, xn ]))
n→+∞ n→+∞

= P (X −1 (∩n∈N ] − ∞, xn ])) = P (X −1 ( ] − ∞, x])) = FX (x).


Elle vérie limx→−∞ FX (x) = 0 et limx→+∞ FX (x) = 1.
 On a P (X < b) = limx→b− F (x) et P (X ≥ a) = 1 − limx→a− F (x).
 Les sauts de discontinuité de FX correspondent aux probabilités ponctuelles non
nulles : P (X = x) = FX (x) − limt→x− FX (t).
 On dit que X possède une densité s'il existe une fonction f : R → R+ , continue
sur R sauf éventuellement en
 xun nombre ni de points, intégrable sur R, telle que
pour tout x ∈ R, FX (x) = −∞ f (t) dt. Dans ce cas, FX est continue et pour tout
x ∈ R on a P (X = x) = 0.
Variables aléatoires discrètes.
Définition 2. On dit qu'une variable aléatoire X : Ω → E est discrète si X(Ω) est ni
ou dénombrable.
Remarque 1.  Lorsque X(Ω) est ni, on dit que la variable aléatoire est nie.
 Dans le cas des variables aléatoires discrètes, la tribu considérée pour l'espace
d'arrivée est en général P(X(Ω)).
 L'espace Ω n'est pas forcément ni ou dénombrable. Par exemple l'espace Ω des
suites w = (wn )n∈N à valeur dans {0, 1} est inni non dénombrable (c'est classique),
et la variable aléatoire X dénie par X(w) = inf{n ∈ N | wn = 0} est discrète, à
valeur dans N ∪ {+∞} (la valeur +∞ est l'image de la suite constante égale à 1).
 D'après la proposition 3 page 322, une variable aléatoire discrète X est caractérisée
par les valeurs P (X = x), avec x ∈ X(Ω). Ainsi, pour tout A ⊂ X(Ω), on a

P (X ∈ A) = P (X = x).
x∈A

Vecteurs aléatoires discrets.


Définition 3. Soit n ∈ N∗ et X1 , . . . , Xn des variables aléatoires discrètes de Ω vers E .
L'application X = (X1 , . . . , Xn ) est une variable aléatoire discrète de Ω vers E n , appelée
vecteur aléatoire discret . La loi du n-uplet (X1 , . . . , Xn ) est appelée loi conjointe des
variables aléatoires X1 , . . . , Xn . Les lois des variables aléatoires X1 , . . . , Xn sont appelées
les lois marginales du n-uplet (X1 , . . . , Xn ).

Notation. On généralise l'usage de la notation P (X ∈ A) aux vecteurs aléatoires :


P (X1 ∈ A1 , . . . , Xn ∈ An ) désigne la valeur P (X (A1 × . . . × An )) (on la note parfois
−1

P ({X1 ∈ A1 } ∩ . . . ∩ {Xn ∈ An })). On utilise aussi la notation P (X1 = a1 , . . . , Xn = an ),


ou toute expression de cette forme où les égalités sont remplacées par des inégalités.
336 6. PROBABILITÉS

Remarque 2.  Un vecteur aléatoire discret X = (X1 , . . . , Xn ) est caractérisé par les


valeurs P (X1 = x1 , . . . , Xn = xn ), avec (x1 , . . . , xn ) ∈ (X1 (Ω), . . . , Xn (Ω)).
 On déduit les lois marginales à partir de la loi conjointe à partir de l'égalité

∀a ∈ Xk (Ω), P (Xk = a) = P (∪j=k {Xj = xj } ∪ {Xk = a}).
xj ∈Xj (Ω),j=k

Réciproquement on ne peut pas déduire la loi conjointe à partir des lois marginales.
Proposition 1. Soit n ∈ N∗ et X = (X1 , . . . , Xn ) :Ω → E n un vecteur aléatoire discret.
Soit f : E → F une fonction. Alors f (X) : Ω → F est une variable aléatoire discrète,
n

dont la loi de probabilité vérie, pour tout y ∈ f (X(Ω))


 
P (f (X) = y) = P (X = x) = P (X1 = x1 , . . . , Xn = xn ).
x∈X(Ω) x1 ∈X1 (Ω),...,xn ∈Xn (Ω)
f (x)=y f (x1 ,...,xn )=y

Exemple 1. Une conséquence typique de ce résultat, est que la somme X + Y de deux


variables aléatoires discrètes réelles X et Y , est une variable aléatoire discrète réelle, dont
la valeur sur les singletons est donnée par

P (X + Y = z) = P (X = x, Y = y).
x∈X(Ω), y∈Y (Ω)
x+y=z

(Une somme de cette forme est appelée convolution). De même min(X, Y ) est une variable
aléatoire discrète réelle, pour laquelle
 
P (min(X, Y ) = z) = P (X = z, Y = y) + P (X = x, Y = z).
x∈X(Ω), y∈Y (Ω) x∈X(Ω), y∈Y (Ω)
y≥z x>z

Lois conditionnelles, indépendance.


Définition 4. Soient X et Y deux variables aléatoires discrètes de Ω vers E . Soit y ∈ E
tel que P (Y = y) = 0. On appelle loi conditionnelle de X sachant (Y = y) la probabilité
Py dénie sur X(Ω) par
P (X = x, Y = y)
∀x ∈ X(Ω), Py ({x}) = .
P (Y = y)
Définition 5. Deux variables aléatoires discrètesX et Y de Ω vers E sont dites indé-
pendantes si pour toutes parties A ⊂ X(Ω) et B ⊂ Y (Ω), on a
P (X ∈ A, Y ∈ B) = P (X ∈ A)P (Y ∈ B).
Plus généralement, étant donnée une famille (Xi )i∈I (éventuellement innie) de variables
aléatoires discrètes de Ω vers E , on dit que les variables (Xi )i∈I sont mutuellement indé-
pendantes (ou plus simplement indépendantes) si pour toute partie nie J ⊂ I et pour
toutes parties (Aj )j∈J avec Aj ⊂ Xj (Ω) pour tout j ∈ J , on a

P (∩j∈J {Xj ∈ Aj }) = P (Xj ∈ Aj ).
j∈J

Remarque 3. La dénition ci dessous est générale et peut s'appliquer aux variables aléa-
toires non discrètes. Dans le cas discret, il sut d'avoir l'indépendance sur les singletons,
comme l'arme la propostion suivante.
Proposition 2. Avec les notations de la dénition précédente, les variables aléatoires
discrètes X et Y sont indépendantes si et seulement si
∀(x, y) ∈ X(Ω) × Y (Ω), P (X = x, Y = y) = P (X = x)P (Y = y).
3. VARIABLES ALÉATOIRES DISCRÈTES 337

Les variables aléatoires discrètes (Xi )i∈I sont mutuellement indépendantes si et seulement
si pour toute partie nie J ⊂ I , on a
 
∀(xj )j∈J ∈ Xj (Ω), P (∩j∈J {Xj = xj }) = P (Xj = xj ).
j∈J j∈J

Proposition 3. Soit m, n ∈ N avec 1 ≤ m < n. Soient X1 , . . . , Xn des variables aléa-


toires discrètes sur un espace probabilisé (Ω, A, P ), et f : X1 (Ω) × . . . × Xm (Ω) → F ,
g : Xm+1 (Ω) × . . . × Xn (Ω) → F  deux fonctions. Si les variables X1 , . . . , Xn sont indé-
pendantes, il en est de même des variables f (X1 , . . . , Xm ) et g(Xm+1 , . . . , Xn ).
Remarque 4. Dans le cas particulier m = 1 et n = 2, cette proposition s'écrit : si X et Y
sont deux variables aléatoires indépendantes et f et g deux fonctions dénies sur X(Ω)
et Y (Ω), alors f (X) et g(Y ) sont indépendantes.
3.2. Espérance, variance, covariance
Espérance. La notion intuitive de moyenne (ou celle de centre de gravité), trouve une
dénition mathématique rigoureuse dans la notion d'espérance, dans la dénition suivante.
Définition 6 (Espérance). Soit X une variable aléatoire discrète réelle sur Ω. On
dit que X admet une espérance (ou que X est d'espérance nie) si la famille (xP (X =
x))x∈X(Ω) est sommable. Dans ce cas on appelle espérance de X la valeur notée E(X)
dénie par 
E(X) = xP (X = x).
x∈X(Ω)

Remarque 5.  Une variable aléatoire nie admet toujours une espérance.


 Une variable aléatoire bornée admet toujours une espérance.
 La semi-convergence n'est pas susante pour admettre une espérance. En eet,
l'ensemble X(Ω) n'est pas ordonné, et la somme dénissant l'espérance doit être
indépendante de l'ordre de sommation.
 X admet une espérance si et seulement si |X| admet une espérance.
 Si A ⊂ X(Ω), on a E(1A ) = P (A) en notant 1A la fonction caractéristique de A.
 X est dite centrée si E(X) = 0. Si X admet une espérance, alors la variable aléatoire
X − E(X) également et X − E(X) est centrée.
 On dénit de même l'espérance d'un vecteur aléatoire discret X = (X1 , . . . , Xn ),
il vérie E(X) = (E(X1 ), . . . , E(Xn )). En particulier on peut dénir l'espérance
d'une variable aléatoire discrète à valeurs dans C (ceci permettra plus tard de
dénir la fonction caractéristique de X , voir la dénition 13 page 348).
Proposition 4. Supposons Ω ni ou dénombrable et soit X une variable aléatoire discrète
réelle sur Ω. Alors X admet une espérance si et seulement si la famille (P ({ω})X(ω))ω∈Ω
est sommable, et on a alors

E(X) = P ({ω})X(ω).
ω∈Ω

Remarque 6.  Le résultat se généralise comme suit : si (An )n∈I est une partition
nie ou dénombrable de Ω (où Ω n'est pas supposé ni ou dénombrable) telle que
X est constante sur chaque An , égale à xn , alors X admet une espérance si et
seulement si (P (An )xn )n∈I est sommable, et on a

E(X) = xn P (An ).
n∈I
338 6. PROBABILITÉS

La proposition précédente est un cas particulier de ce résultat lorsque Ω est ni ou


dénombrable, en choisissant I = Ω et An = {n} pour n ∈ Ω.
 Dans le cas d'une variable
x aléatoire réelle X admettant une densité f (x), de sorte
que P (X ≤ x) = −∞ f (t) dt (avec f continue sur R sauf éventuellement en un
nombre ni de points), si x → xf (x) est intégrable sur R, alors X admet une
 +∞
espérance dénie par E(X) = −∞ xf (x) dx. Ce résultat peut être vu comme une
version continue de la formule de la proposition précédente.
Proposition 5. Soient X et Y deux variables aléatoires discrètes réelles sur Ω admettant
une espérance. Alors
(i) X + Y admet une espérance qui vérie E(X + Y ) = E(X) + E(Y ),
(ii) pour tout λ ∈ R, λX admet une espérance qui vérie E(λX) = λE(X),
(iii) si X ≥ 0 on a E(X) ≥ 0,
(iv) si X ≤ Y on a E(X) ≤ E(Y ),
(v) on a |E(X)| ≤ E(|X|).
(vi) Si X et Y sont indépendantes, XY admet une espérance et E(XY ) = E(X)E(Y ).
Remarque 7.  L'ensemble noté L1 (Ω, R) des variables aléatoires discrètes réelles sur
Ω est donc un espace vectoriel. L'espérance est une forme linéaire sur L1 (Ω, R).
 Si X et Y ne sont pas indépendantes, l'existence de E(XY ) n'est pas garantie et
le résultat (vi) est faux. La proposition 9 page 340 donne une condition susante
d'existence de E(XY ) et fournit une majoration de cette dernière.
 Les résultats (i), (ii) et (v) restent vrais sur les vecteurs aléatoires discrets (en
remplaçant la valeur absolue par la norme pour (v)). La propriété (vi) reste vraie
pour les variables aléatoires discrètes à valeur dans C.

Proposition 6 (Théorème de transfert). Soit X une variable aléatoire discrète de


Ω sur E et f : E → R une fonction. La variable aléatoire discrète réelle f (X) admet une
espérance si et seulement la famille (f (x)P (X = x))x∈X(Ω) est sommable, et dans ce cas :

E(f (X)) = f (x)P (X = x).
x∈X(Ω)

Les résultats portant sur l'espérance qui suivent sont des compléments hors programme
qu'il est utile de connaître.
Proposition 7. Soit X : Ω → N une variable aléatoire discrète. Alors X admet une
espérance si et seulement si la famille (P (X > n))n∈N est sommable, et on a
+∞

E(X) = P (X > n).
n=0

Démonstration. D'après le théorème de Fubini (cas particulier des résultats sur les familles som-
 
mables), la somme double n∈N ( k>n P (X = k)) converge 
absolument

si et seulement si la
somme double (obtenue par intervertion de sommation) k>0 
( n∈N,n<k P (X = k)) converge
absolument,

et alors les deux sommes sont égales.Comme k>n P (X = k) = P (X > n) et
n∈N,n<k P (X = k) = kP (k), on en déduit que n∈N P (X > n) converge absolument si et

seulement

si k>0 kP (k) converge absolument, et dans ce cas on a l'égalité des sommes, ce qui
s'écrit n∈N P (X > n) = E(X). 

Exemple 2. Soit m, n ∈ N∗ , m ≤ n, et Y une variable aléatoire sur Ω = Pm ({1, . . . , n})


(ensemble des parties de {1, . . . , n} à m éléments), muni d'une loi équiprobable, dénie
3. VARIABLES ALÉATOIRES DISCRÈTES 339

par Y = min ω . Nous souhaitons calculer E(Y ). La proposition précédente entraîne


n
 n 
  −1   −1
n−k n n+1 n n+1
E(Y ) = P (Y > k) = = =
k=0 k=0
m m m+1 m m+1

(où nous avons utilisé la dernière assertion de la proposition 11 page 303).


Définition 7. Soit A un événement non négligeable et X une variable aléatoire discrète
réelle sur Ω. On dit que X admet une espérance conditionnelle sachant A si X admet une
espérance pour la loi de probabilité PA , c'est-à-dire si la série
 
xPA (X = x) = xP (X = x | A),
x∈X(Ω) x∈X(Ω)

est absolument convergente, et on note alors sa somme E(X | A), appelée espérance
conditionnelle de X sachant A.
Proposition 8. Soit (An )n∈I une partition nie ou dénombrable d'événements non né-
gligeables de Ω, et X une variable aléatoire discrète réelle sur Ω admettant une espérance.
Alors pour tout n ∈ I , X admet une espérance conditionnelle sachant An et on a

E(X) = E(X | An )P (An ).
n∈I

Démonstration. Pour tout n ∈ I , la famille (xP (X = x | An )P (An ))x∈X(Ω) est sommable car
P (X = x | An )P (An ) = P ({X = x} ∩ An ) ≤ P (X = x), donc (xP (X = x | An ))x∈X(Ω) est
sommable ce qui assure l'existence de l'espérance conditionnelle de X sachant An . Or
 
∀x ∈ X(Ω), P (X = x | An )P (An ) = P ({X = x} ∩ An ) = P (X = x),
n∈I n∈I

et comme X admet une espérance on en déduit que (xP (X = x | An )P (An ))x∈X(Ω),n∈I est
sommable. Le théorème de Fubini permet d'intervertir les signe de sommation, ce qui donne
    
xP (X = x) = xP (X = x | An )P (An ) = xP (X = x | An )P (An ).
x∈X(Ω) x∈X(Ω) n∈I n∈I x∈X(Ω)

Le terme de gauche est égal à E(X), celui de droite à n∈I E(X | An )P (An ), d'où le résultat.


Moment. Avant d'introduire la variance, il est commode d'introduire les moments d'une
variable aléatoire, et de montrer que l'ensemble L2 (Ω, R) des variables aléatoires de carré
sommable est un espace vectoriel.

Définition 8 (Moment). Soit p ∈ N∗ et X une variable aléatoire discrète réelle sur Ω.


On dit que X admet un moment d'ordre p lorsque X p est sommable (c'est-à-dire lorsque
la famille (xp P (X = x))x∈X(Ω) est sommable), ce qui équivaut à dire que X p admet une
espérance. On appelle alors moment d'ordre p de X la valeur

E(X p ) = xp P (X = x).
x∈X(Ω)

Remarque 8.  L'équivalence entre  X p sommable et  X p admet une espérance est


une conséquence du théorème de transfert, ainsi que la formule de E(X p ).
 Si X admet un moment d'ordre p ∈ N∗ , alors X admet un moment d'ordre q pour
tout q ≤ p (ceci est une conséquence de l'inégalité |X|q ≤ 1 + |X|p dès que q ≤ p.)
 Ainsi, si X admet un moment d'ordre p ∈ N∗ , X admet un moment factoriel
E(X(X − 1) · · · (X − p + 1)).
340 6. PROBABILITÉS

Proposition 9. Soient X et Y deux variables aléatoires discrètes réelles sur Ω, possédant


un moment d'ordre 2. Alors XY admet une espérance, et on a
|E(XY )| ≤ E(X 2 )1/2 E(Y 2 )1/2 .
Démonstration. On peut démontrer l'inégalité directement à partir de l'expression de E(XY )
sous forme d'une série mais nous proposons une preuve plus élégante qui s'appuie sur l'inégalité
de Schwarz des formes quadratiques positives.
L'inégalité |XY | ≤ (X 2 + Y 2 )/2 assure que XY admet bien une espérance. En particulier si
X, Y admettent un moment d'ordre 2, l'égalité (X + Y )2 = X 2 + 2XY + Y 2 montre que X + Y
admet également un moment d'ordre 2. Si X admet un moment d'ordre 2, λX également, pour
λ ∈ R. Ainsi l'ensemble L2 (Ω, R) des variables aléatoires discrètes réelles est un espace vectoriel.
L'application ϕ : (L2 (Ω, R))2 → R (A, B) → E(AB) est bilinéaire et la forme quadratique
associée Φ(A) = E(A2 ) est positive. On peut donc appliquer l'inégalité de Schwarz (voir le
théorème 3 page 246) qui s'écrit ϕ(X, Y )2 ≤ Φ(X)Φ(Y ), d'où le résultat. 

Remarque 9. Comme démontré dans la preuve de cette proposition, l'ensemble L2 (Ω, R)


des variables aléatoires discrètes réelles sur Ω qui admettent un moment d'ordre 2, est
un espace vectoriel. De plus, cette proposition entraîne que X → E(X 2 )1/2 est une semi-
norme sur L2 (Ω, R) (on a E(X 2 ) = 0 si et seulement si X = 0 presque surement).
Variance. L'espérance donne la valeur moyenne d'une variable aléatoire, mais ne mesure
pas sa dispersion autour de celle ci. Pour celà, on introduit la notion de variance, qui est
la moyenne du carré de l'écart de la variable par rapport à sa moyenne.
Définition 9 (Variance, écart type). Soit X une variable aléatoire discrète réelle
sur Ω, admettant un moment d'ordre 2. On appelle variance de X la valeur notée V (X)
ou encore Var(X) dénie par
 
V (X) = E (X − E(X))2 ,

et on appelle écart type de X la valeur σ(X) = V (X).
Remarque 10.  Une variable aléatoire admet une variance si elle admet un moment
d'ordre 2. D'après la remarque 8, si X admet une variance alors elle admet une
espérance.
 On dit qu'une variable aléatoire discrète réelle X est centrée si E(X) = 0, réduite
si V (X) = 1. Pour toute variable aléatoire discrète réelle X de variance non nulle,
la variable aléatoire X ∗ = (X − E(X))/σ(X) est centrée réduite.
Proposition 10. Soit X une variable aléatoire discrète réelle, admettant un moment
d'ordre 2. Alors
(i) On a V (X 2 ) = E(X 2 ) − E(X)2 (Théorème de Köenig-Huygens) .
(ii) Pour tout a, b ∈ R, V (aX + b) = a2 V (X).
Covariance.
Définition 10. Soient X et Y deux variables aléatoires discrètes réelles, admettant un
moment d'ordre 2. On appelle covariance de X et Y la valeur notée Cov(XY ) dénie par
 
Cov(X, Y ) = E (X − E(X))(Y − E(Y )) .

Remarque 11.  On a Cov(X, X) = V (X).


 Si Cov(X, Y ) > 0, X et Y ont tendance à être du même coté de leur espérance
respective. Lorsque Cov(X, Y ) = 0 on dit que les variables X et Y sont décorrélées.
Le résultat plus bas arme que les variables X et Y sont décorrélées si elles sont
indépendantes, mais la réciproque est fausse.
3. VARIABLES ALÉATOIRES DISCRÈTES 341

Proposition 11. Soient X et Y deux variables aléatoires discrètes réelles, admettant un


moment d'ordre 2. Alors
(i) On a Cov(X, Y ) = E(XY ) − E(X)E(Y ).
(ii) L'application (X, Y ) → Cov(X, Y ) est bilinéaire symétrique sur L2 (Ω, R).
(iii) Si X et Y sont indépendantes, on a Cov(X, Y ) = 0.
(iv) On a | Cov(X, Y )| ≤ σ(X)σ(Y ). Si σ(X)σ(Y ) = 0, le coecient de corrélation
Cov(X, Y )
de X et Y , déni par ρ(X, Y ) = , vérie −1 ≤ ρ(X, Y ) ≤ 1.
σ(X)σ(Y )
(v) On a V (X + Y ) = V (X) + V (Y ) + 2 Cov(X, Y ). En particulier si X et Y sont
indépendantes, on a V (X + Y ) = V (X) + V (Y ).
Proposition 12. Soit n ∈ N∗ et X = (X1 , . . . , Xn ) un vecteur aléatoire discret à valeurs
dans R . On appelle matrice de covariance de X1 , . . . , Xn la matrice symétrique n × n
n

dénie par
V (X) = (Cov(Xi , Xj ))1≤i,j≤n .
Alors
 Pour tout (λ1 , . . . , λn ) ∈ Rn et (µ1 , . . . , µn ) ∈ Rn on a


µ1
Cov(λ1 X1 + · · · + λn Xn , µ1 X1 + · · · + µn Xn ) = (λ1 , . . . , λn ) V (X)  ...  .
µn
 Pour tout (λ1 , . . . , λn ) ∈ Rn on a
n
 
V (λ1 X1 + · · · + λn Xn ) = λ2i V (Xi ) + 2 λi λj Cov(Xi , Xj )
i=1 1≤i<j≤n
 
λ1
= (λ1 , . . . , λn ) V (X)  ...  .
λn
 Si les variables X1 , . . . , Xn sont indépendantes deux à deux, on a
V (X1 + · · · + Xn ) = V (X1 ) + · · · + V (Xn ).
3.3. Lois discrètes usuelles
Dans cette partie, X désigne une variable aléatoire discrète réelle sur Ω.
Loi uniforme. On dit que X suit une loi uniforme lorsque X(Ω) est ni, de cardinal
n ∈ N∗ , et lorsque pour tout x ∈ X(Ω) on a P (X = x) = 1/n. Cette loi correspond à la
probabilité de tirer une boule donnée dans une urne de n boules diérenciées, lors d'un
tirage équiprobable.
Loi de Bernoulli. Soit p ∈ ]0, 1[ . On dit que X suit une loi de Bernoulli de paramètre
p, (et on note X → B(p)), si
X(Ω) = {0, 1} et P (X = 0) = 1 − p, P (X = 1) = p.
On a E(X) = p et V (X) = p(1 − p).
Il s'agit de la loi qui modélise un tirage à pile ou face avec une pièce déséquilibrée,
associé à la valeur aléatoire X dénie par X = 1 si on tombe sur pile (succés), X = 0 si
on tombe sur face (une telle expérience s'appelle expérience de Bernoulli ).
342 6. PROBABILITÉS

Remarque 12. Une loi qui ressemble à celle de Bernoulli dans le cas p = 1/2 est la loi
de Rademacher. La variable X suit une loi de Rademacher si X(Ω) = {−1, 1} et si
P (X = −1) = P (X = 1) = 1/2.
Loi binomiale. Soit p ∈ ]0, 1[ et n ∈ N∗ . On dit que X suit une loi binomiale de
paramètre (n, p) (et on note X → B(n, p)) si
 
n k
X(Ω) = {0, . . . , n}, et ∀k ∈ {0, . . . , n}, P (X = k) = p (1 − p)n−k .
k
On a E(X) = np et V (X) = np(1 − p).
La loi binomiale est celle d'une variable aléatoire X qui est la somme de n variables
indépendantes X1 , . . . , Xn qui suivent chacune une loi de Bernoulli de paramètre p, on
l'appelle parfois loi du nombre du succés .
Si X → B(n, p) et Y → B(m, p) sont indépendantes, alors X + Y → B(n + m, p).
Loi géométrique. Soit p ∈ ]0, 1[ et n ∈ N∗ . On dit que X suit une loi géométrique de
paramètre p (et on note X → G(p)) si
X(Ω) = N∗ , et ∀n ∈ N∗ , P (X = n) = p(1 − p)n−1 .
On a E(X) = 1/p et V (X) = (1 − p)/p2 .
Lors d'une succession innie d'expériences de Bernoulli, cette loi est celle de la variable
X dénie par le rang du premier succés rencontré. Les lois géométriques sont caractérisées
par des lois dans mémoire, comme l'exprime la proposition suivante.
Proposition 13. Soit X une variable aléatoire à valeurs dans N∗ . Alors X suit une loi
géométrique si et seulement si P (X = 1) ∈ ]0, 1[ et X est sans mémoire, c'est-à-dire
∀(n, k) ∈ (N∗ )2 , P (X > n + k | X > n) = P (X > k). (∗)
Démonstration. Si X suit une loi géométrique de paramètre p ∈ ]0, 1[ , on a pour tout  ∈ N
+∞
 +∞

P (X > ) = P (X = k) = p(1 − p)k−1 = (1 − p) .
k=+1 k=+1
Donc
P (X > n + k, X > n) P (X > n + k)
P (X > n + k | X > n) = = = (1 − p)k = P (X > k).
P (X > n) P (X > n)
Réciproquement supposons X sans mémoire, et notons p = P (X = 1) ∈ ]0, 1[. Comme X est à
valeurs dans N∗ , on a P (X > 1) = 1 − P (X = 1) = 1 − p. En appliquant (*) avec k = 1 on
obtient
P (X > n + 1, X > n) P (X > n + 1)
1 − p = P (X > 1) = P (X > n + 1 | X > n) = =
P (X > n) P (X > n)
donc P (X > n+1) = (1−p)P (X > n), ce qui par récurrence sur n entraîne P (X > n) = (1−p)n .
La variable aléatoire X suit donc bien une loi géométrique, de paramètre p ∈ ]0, 1[ puisque
P (X = 1) = p et si n > 1, P (X = n) = P (X > n − 1) − P (X > n) = (1 − p)n−1 p. 

Loi de Poisson. Soit λ > 0. On dit que X suit une loi de Poisson de paramètre λ (et
on note X → P(λ)) si
λn
X(Ω) = N, et ∀n ∈ N, P (X = n) = e−λ .
n!
On a E(X) = λ et V (X) = λ.
La loi de Poisson est celle d'une variable aléatoire X qui compte le nombre d'événé-
ments indépendants qui se produisent dans un intervalle de temps donné (par exemple : le
nombre de clients rentrant dans un magasin, dans un intervalle de temps donné). Elle est
3. VARIABLES ALÉATOIRES DISCRÈTES 343

la limite de la loi binomiale de paramètre (n, λ/n) lorsque n → +∞. En eet, si (Xn ) est
une suite de variables aléatoires discrètes suivant chacune un loi binomiale de paramètre
(n, λ/n), on a, pour tout k xé, lorsque n → +∞,
   k  n−k  k  n
n λ λ nk λ λ λk
P (Xn = k) = 1− ∼ 1− ∼ e−λ ,
k n n k! n n k!
  k
n n(n − 1) · · · (n − k + 1) n
où on a utilisé l'équivalent = ∼ . Par exemple, si chaque
k k! k!
seconde, il y a une probabilité p = 1/600 qu'un client entre dans un magasin, le nombre
de clients qui entrent sur un intervalle d'une heure suit approximativement une loi de
poisson de paramètre λ = 3600p = 6. Pour cette raison, on appelle parfois cette loi la loi
des événements rares .
Si X → P(λ) et Y → P(µ) sont indépendantes, alors X + Y → P(λ + µ).
Si à chaque événement comptabilisé par une loi de Poisson de paramètre λ, on associe
une expérience de Bernoulli de paramètre p, le nombre d'événements à succés suit une
loi de Poisson de paramètre pλ. Par exemple, si le nombre de clients X entrant dans un
magasin suit une loi de Poisson de paramètre λ et si chaque client a une probabilité p
d'être un enfant, le nombre d'enfants Y qui entrent dans le magasin suit une loi de Poisson
de paramètre pλ. En eet, on a, pour tout k ∈ N
+∞

P (Y = k) = P (Y = k | X = n) P (X = n)
n=k
+∞ 
  +∞
n k λn λk pk  (1 − p)n−k −λ n−k (λp)k −λp
= p (1 − p)n−k e−λ = e λ = e .
n=k
k n! k! n=k (n − k)! k!

3.4. Estimations et convergence


Proposition 14 (Inégalité de Markov). Soit X une variable aléatoire discrète
réelle, admettant une espérance. Alors
E(|X|)
∀a > 0, P (|X| ≥ a) ≤ .
a
Si X admet une variance, on a
E(X 2 )
∀a > 0, P (|X| ≥ a) ≤ .
a2
En appliquant cette proposition à ϕ(X) où ϕ est une fonction croissante positive, on
obtient le corollaire suivant :
Corollaire 1. Soit ϕ une fonction positive croissante sur un intervalle réel I . Soit X
une variable aléatoire discrète à valeurs dans I . Si ϕ(X) admet une espérance, on a
E(ϕ(X))
∀a > 0, P (X ≥ a) ≤ .
ϕ(a)
Démonstration. La preuve est immédiate (à refaire à chaque fois) : la croissance de ϕ implique
{X ≥ a} ⊂ {ϕ(X) ≥ ϕ(a)}, donc l'inégalité de Markov appliquée à ϕ(X) permet d'écrire
E(ϕ(X))
P (X ≥ a) ≤ P (ϕ(X) ≥ ϕ(a)) ≤ .
ϕ(a)


Remarque 13.  La deuxième inégalité de la proposition 15 est la conséquence de ce


corollaire, appliqué à la variable aléatoire |X| et à ϕ(x) = x2 .
344 6. PROBABILITÉS

 En appliquant ce corollaire à ϕ(x) = eλx avec λ > 0, on aboutit à l'inégalité


E(eλX )
P (X ≤ a) = P (eλX ≥ eλa ) ≤ ,
eλa
valide si eλX admet une espérance. Cette inégalité est la première étape de la preuve
de l'inégalité de Hoeding (voir l'exercice 7 page 352).
 En appliquant ce corollaire à la fonction ϕ(X) = (X −E(X))2 on obtient l'inégalité
de Bienaymé-Tchébyche ci-dessous.
Proposition 15 (Inégalité de Bienaymé-Tchébycheff). Soit X une variable
aléatoire discrète réelle, admettant une variance. Alors X admet une espérance et on a
V (X)
∀a > 0, P (|X − E(X)| ≥ a) ≤ .
a2
Proposition 16 (Inégalité de Jensen). Soit X une variable aléatoire discrète, pre-
nant ses valeurs dans un intervalle réel I et ϕ : I → R une fonction convexe. Alors si X
et ϕ(X) admettent une espérance, on a
E(ϕ(X)) ≥ ϕ(E(X)).
Démonstration. Comme ϕ est une fonction convexe, on peut écrire
∀a ∈ R, ∃λa ∈ R; ∀x ∈ I, ϕ(x) ≥ ϕ(a) + λa (x − ϕ(a)).
(ϕ étant convexe elle admet une dérivée à gauche ϕg (a) et à droite ϕd (a) pour tout a ∈ I . On
choisit λa = ϕg (a), ou λa = ϕd (a) dans le cas où I est fermé à gauche d'extrémité a). L'inégalité
précédente appliquée à a = E(X) entraîne ϕ(x) ≥ ϕ(E(X)) + λa (x − E(X)), donc en prenant
les espérances de chaque membre on obtient
E(ϕ(X)) ≥ ϕ(E(X)) + λa E(X − E(X)) = ϕ(E(X)).


Remarque 14. L'inégalité de Jensen n'est pas au programme des classes préparatoires mais
se prouve facilement en reprenant la démonstration proposée ci-dessus. En l'appliquant
à la fonction convexe ϕ(x) = x2 , on obtient l'inégalité E(X 2 ) ≥ E(X)2 (qu'on obtient
aussi à partir du théorème de Koënig-Huygens, car E(X 2 ) − E(X)2 = V (X 2 ) ≥ 0). Plus
généralement, pour tout p > q > 1, l'inégalité de Jensen appliquée à ϕ(x) = xp/q entraîne
E(X p ) ≥ E(X q )p/q , en particulier E(X p ) ≥ E(X)p .
Suites de variables aléatoires. Avant de présenter la loi faible des grands nombres,
il convient de s'intéresser aux suites de variables aléatoires indépendantes. L'existence
de telles suites indépendantes n'est pas évident a priori (de fait, l'espace Ω doit être
assez grand et en général inni non dénombrable, voir l'exercice 5 page 351). Elle est
garantie par le résultat suivant que nous admettrons (ceci est à rapprocher du résultat
sur l'existence d'une probabilité sur E N discutée page 326 dans le cas dénombrable des

espaces de probabilités produits).


Proposition 17. Soit (Pn ) une suite de probabilités sur R, telles que pour tout n, il existe
Sn ⊂ R, au plus dénombrable, tel que Pn (Sn ) = 1. Alors il existe un espace probabilisé
(Ω, A, P ) et une suite de variables aléatoires discrètes (Xn ) dénies sur Ω et mutuellement
indépendantes, tels que chaque variable aléatoire Xn suit la loi Pn .
Remarque 15. Un exemple classique est celui de l'existence d'une suite de variables aléa-
toires indépendantes (Xn ) suivant chacune une loi de Bernoulli de paramètre p. Dans ce
cas, on peut prendre pour Ω l'espace des suites ω = (ωn )n∈N∗ ∈ {0, 1}N , et Xn dénie par

Xn (ω) = ωn ∈ {0, 1} (correspondant à l'expérience aléatoire du résultat du n-ième tirage


à pile ou face).
3. VARIABLES ALÉATOIRES DISCRÈTES 345

Loi faible des grands nombres. Nous nous limitons ici à la loi faible des grands
nombres dans le cas des variables aléatoires admettant une variance, conformément au
programme des classes préparatoires. Diverses généralisations, incluant la loi forte des
grands nombres, sont discutées dans la remarque 16 plus bas.

Définition 11 (Convergence en probabilité). On dit qu'une suite (Xn ) de va-


riables aléatoires discrètes réelles sur Ω converge en probabilité vers une variable aléatoire
discrète réelle X si
∀ε > 0, lim P (|Xn − X| ≥ ε) = 0.
n→+∞

 Théorème 1 (Loi faible des grands nombres). Soit (Xn )n∈N∗ une suite de va-
riables aléatoires discrètes réelles, mutuellement indépendantes, suivant une même loi (on
dit alors que les Xn sont identiquement distribuées ) admettant une espérance m et une va-
riance σ 2 . Alors la variable aléatoire Sn /n, où Sn = X1 + . . . + Xn , converge en probabilité
vers m, et plus précisément
  
 Sn  σ2
∀ε > 0, ∀n ∈ N ,∗  
P  − m ≥ ε ≤ 2 . (∗)
n nε
Démonstration. L'inégalité (*) entraîne la convergence en probabilité de Sn /n vers m. En appli-
quant l'inégalité de Bienaymé-Tchébyche à Sn on a P (|Sn /n−E(Sn /n)| ≥ ε) ≤ (V (S )/n2 )/ε2 ,
n n
d'où (*) car E(Sn /n) = m et l'indépendance de X1 , . . . , Xn entraîne V (Sn ) = k=1 V (Xi ) =
nσ 2 . 

Remarque 16. √ Ce résultat exprime que l'erreur entre Sn /n et m√a l'ordre de gran-
deur de 1/ n. L'estimation plus précise de la distribution de n(Sn /n − m) fait
l'objet du théorème central limite , qui exprime que cette distribution se rapproche
d'une Gaussienne. Le théorème central limite n'est pas au programme des classes
préparatoires, il fait l'objet du problème 9 page 386 dans le cas des variables aléa-
toires entières.
 L'estimation (*) est en général très grossière lorsque ε est beaucoup plus grand
que n−1/2 . L'inégalité de Hoeding donne sous certaines conditions une estimation
beaucoup plus ne des queues de probabilité (voir l'exercice 7 page 352).
 La loi faible des grands nombres reste vraie même sans supposer que la loi commune
des (Xn ) admet un moment d'ordre 2 (voir l'exercice 12 page 362).
 La loi forte des grands nombres exprime que Sn /n converge vers m presque sur-
ement. Elle n'est pas au programme des classes préparatoires. Une démonstration
dans des cas particuliers fait l'objet de l'exercice 7 page 352 (voir la remarque),
ou de l'exercice 13 page 363. Une preuve dans le cas général est donnée dans le
problème 10 page 389.
 Il existe plusieurs modes de convergence des suites de variables aléatoires (en pro-
babilité, convergence presque sure, en loi, L1 , . . .). Ceci fait l'objet du problème 5
page 375.
3.5. Fonctions génératrices
Séries génératrices.
Définition 12. Soit X : Ω → N une variable aléatoire.On appelle série génératrice de
X la série entière notée GX (z) et dénie par GX (z) = +∞n=0 P (X = n) z , de rayon de
n

convergence ≥ 1.
Proposition 18. Soit X : Ω → N une variable aléatoire. La série génératrice de X
converge normalement pour |z| ≤ 1, elle vérie les propriétés suivantes :
346 6. PROBABILITÉS

(i) z → GX (z) est dénie et continue sur |z| ≤ 1, en particulier sur [0, 1].
(ii) Lorsque t ∈ [0, 1], on a GX (t) = E(tX ). On a GX (1) = 1.
(iii) X admet une espérance si et seulement si GX est de classe C 1 sur [0, 1], et dans
ce cas E(X) = GX (1).
(iv) X admet une variance si et seulement si GX est de classe C 2 sur [0, 1], et dans
ce cas V (X) = GX (1) + GX (1) − GX (1)2 .
(v) Soit Y : Ω → N une variable aléatoire. Alors GX = GY sur [0, 1] si et seulement
si X et Y ont même loi.
(vi) Soit Y : Ω → N une variable aléatoire indépendante de X . Alors GX+Y = GX GY .

Démonstration. (i) Pour |z| ≤ 1, on a |P (X = n)z n | ≤ P (X = n) donc la série converge


normalement sur |z| ≤ 1, elle est donc dénie et continue sur le disque fermé |z| ≤ 1.
(ii) Lorsque t ∈ [0, 1], l'égalité E(tX ) = GX (t) est une conséquence du théorème de transfert
(voir la proposition 6 page 338). L'égalité GX (1) = 1 est immédiate.

(iii) Notons pn  = P (X = n). Si X admet une espérance, alors npn converge donc la série des
termes dérivés  npn tn−1 converge normalement sur t ∈ [0, 1], donc est bien C 1 sur [0, 1], et de
plus GX (t) = +∞ n=1 npn t
n−1 sur [0, 1], en particulier pour t = 1 ce qui donne G (1) = E(X).
X 
Réciproquement supposons GX de classe C 1 sur [0, 1]. La série des termes dérivés npn tn−1
converge
+∞
normalement sur tout segment inclus dans [0, 1[ , donc pour tout t ∈ [0, 1[ on a GX (t) =
np n−1 . Ainsi G est croissante sur [0, 1[, et comme G est continue en 1 on en déduit
n=1 nt X X

N
 N
 +∞

∀N ∈ N∗ , npn = lim npn tn−1 ≤ lim npn tn−1 = GX (1).
t→1− t→1−
n=1 n=1 n=1


Donc la série à termes positifs n∈N∗ npn est majorée, donc elle converge.
(iv)
 Le même raisonnement que pour (iii) montre que GX est C 2 sur [0, 1] si et seulement si
n(n − 1)pn converge, et comme n(n − 1)pn = n 2 ceci équivaut à dire que
pn (1 + o(1))   X admet
une variance. On obtient facilement E(X 2 ) = n≥1 n2 pn = n≥1 n(n − 1)pn + n≥1 npn =
GX (1) + GX (1), et on conclut avec la formule de Koênig-Huygens V (X) = E(X 2 ) − E(X)2 .
(v) est une conséquence du principe des zéros isolés, qui entraîne que les coecients de GX et
GY sont identiques.
(vi) Si X et Y sont indépendants, alors tX et tY aussi, donc GX (t)GY (t) = E(tX )E(tY ) =
E(tX+Y ) = GX+Y (t). 
Séries génératrices des lois usuelles . Les séries génératrices fournissent un
moyen commode de calculer l'espérance et la variance d'une variable aléatoire à partir de
leur forme close. Les séries génératrices des lois usuelles d'une variable aléatoire X sont
les suivantes :
 Loi de Bernoulli de paramètre p : GX (t) = 1 − p + pt.
 Loi binomiale de paramètre (n, p) : GX (t) = (1 − p + pt)n . Ce résultat est aussi une
conséquence de de la propriété (vi) ci dessus, appliquée à une somme de n variables aléa-
toires indépendantes suivant chacune une loi de Bernoulli de paramètre p. Cette formule
permet de calculer E(X) et V (X) par les formules

E(X) = GX (1) = np,


V (X) = GX (1) + GX (1) − GX (1)2 = n(n − 1)p2 + np − (np)2 = np(1 − p).

Remarquons également que les propriétés (vi) et (v) ci dessus permettent de montrer que
si X → B(n, p) et Y → B(m, p) sont indépendantes, alors X + Y → B(n + m, p).
3. VARIABLES ALÉATOIRES DISCRÈTES 347

 Loi géométrique de paramètre p :


+∞
  
n−1 n pt p 1
GX (t) = (1 − p) pt = = −1 + ,
n=1
1 − (1 − p)t 1−p 1 − (1 − p)t

d'où on déduit
p 1−p 1
E(X) = GX (1) = =
1 − p p2 p
2p(1 − p) 1 1 1−p
V (X) = GX (1) + GX (1) − GX (1)2 = 3
+ − 2 = .
p p p p2
+∞
 λn n
 Loi de Poisson de paramètre p : GX (t) = e−λ · t = eλ(t−1) , donc
n=0
n!

E(X) = GX (1) =λ


V (X) = GX (1) + GX (1) − GX (1)2 = λ2 + λ − λ2 = λ.

Nous terminons par un résultat sur les séries génératrices qui n'est pas au programme
des classes préparatoires mais qui est facile à retenir et à redémontrer.

Proposition 19 (Formule de Wald). Soit (Xn )n∈N∗ une suite de variables aléatoires
et indépendantes de Ω sur N, identiquement distribuées, et N : Ω → N∗ une variable
aléatoire indépendante des Xn . On note SN la variable aléatoire dénie sur Ω par SN (ω) =
N (ω)
n=1 Xn (ω). Alors la série génératrice de SN s'exprime en fonction de celle de N et X1
sous la forme GSN = GN ◦ GX1 . Si N et les Xn admettent une espérance, SN également
et on a E(SN ) = E(N )E(X1 ).
Démonstration. Comme N et les Xn sont indépendants on peut écrire
+∞
 +∞

P (SN = n) = P (N = k, X1 + · · · + Xk = n) = P (N = k)P (X1 + · · · + Xk = n).
k=1 k=1

On peut donc écrire, pour |z| ≤ 1,


+∞
 +∞
+∞ 

 
n n
GSN (z) = P (SN = n)z = P (N = k)P (X1 + · · · + Xk = n)z
n=0 n=0 k=1
+∞
 +∞ 
 
n
= P (N = k) P (X1 + · · · + Xk = n)z .
k=1 n=0

(par dénition d'une série génératrice d'une variable aléatoire, les séries en présence sont à termes
positifs
+∞ et sommables, on peutn donc bien intervertir les signes de sommation). Remarquons que
n=0 P (X1 + · · · + Xk = n)z = GX1 +···+Xk (z), et que les Xk étant indépendants, ceci est égal
à GX1 (z) · · · GXk (z) = GX1 (z)k . On a donc
+∞

GSN (z) = P (N = k) GX1 (z)k = GN (GX1 (z)).
k=1

Si N et X1 admettent une espérance, alors GN et GX1 sont de classe C 1 sur [0, 1], et comme
GX1 ([0, 1]) ⊂ [0, 1], on en déduit que GSN = GN ◦ GX1 est de classe C 1 sur [0, 1]. Donc SN
admet une espérance (voir la proposition 18, assertion (iii)), et on a E(SN ) = GSN (1) =
GN (GX1 (1)) GX1 (1) = GN (1) GX1 (1) = E(N ) E(X1 ). 
348 6. PROBABILITÉS

Fonctions caractéristiques. Les fonctions caractéristiques ne sont pas au programme


des classes préparatoires mais outre le fait qu'elles fournissent un outil très utilisé en
probabilité, on tombe parfois sur des exercices qui s'appuie sur ces dernières. Elles sont
la transformée de Fourier de la loi d'une variable aléatoire. La notion d'espérance, dénie
sur les variables aléatoires réelles, se généralise facilement au cas complexe, permettant
l'usage de E(eiuX ).
Définition 13 (fonction caractéristique). Soit X une variable aléatoire discrète
réelle sur Ω. On appelle fonction caractéristique de X la fonction notée ϕX et dénie par

ϕX : R → C u → E(eiuX ) = P (X = x)eiux .
x∈X(Ω)

Remarque17. Un cas courant est celui où X prend ses valeurs dans Z, et dans ce cas
ϕX (u) = n∈Z P (X = n)einu est 2π -périodique. Lorsque X prend ses valeurs dans N, on
a ϕX (u) = GX (eiu ) où GX est la série génératrice de X .
Dans la suite on suppose que X est à valeur dans Z, mais les résultats restent vrais
pour toute variable aléatoire discrète réelle X . Comme pour les séries de Fourier, on
utilisera
 la convention suivante pour les séries dont les termes sont indexés sur Z : la
série  n∈Z an e inu
désigne la série a0 + n∈N ∗ (an e inu
+ a−n e−inu ) (ici nous serons dans le
cas où n∈Z |an | est sommable, donc l'ordre des indices n'importe pas, néanmoins cette
convention sera une commodité pour nous permettre d'utiliser les théorèmes sur les séries
de fonction).
Proposition 20. La fonction caractéristique ϕX d'une variable aléatoire discrète X à
valeurs dans Z vérie les propriétés suivantes :
(i) ϕX est dénie, continue et 2π -périodique sur R, et vérie |ϕX (u)| ≤ 1 sur R.
(ii) Si X admet une espérance, ϕX est de classe C 1 sur R et on a ϕX (0) = iE(X).
(p)
(iii) Si X admet un moment d'ordre p, ϕX est de classe C p et ϕX (0) = ip E(X p ).
(iv) Soit Y une variable aléatoire sur Ω. Alors ϕX = ϕY si et seulement si X et Y
ont même loi.
(v) Soit Y une variable aléatoire sur Ω indépendante de X . Alors ϕX+Y = ϕX ϕY .
Démonstration. (i) Pour simplier nous notons pn = P (X = n). L'inégalité |pn einu | ≤ pn entraîne
la convergence normale de la série de fonctions  n∈N∗ (pn e
inu + p
−n e

−inu ) sur R, donc ϕ
X est
bien dénie et continue sur R. De plus |ϕX (u)| ≤ n∈Z |pn e | = n∈Z pn = 1.
inu

(ii) Si X admet une espérance alors n∈N∗ (npn +np−n ) converge, donc la série des termes dérivés
 inu −inu ) converge normalement sur R, donc ϕ est bien de classe C 1 sur
n∈N∗ (inpn e − inp−n e X
R et ϕX (u) = n∈Z inpn einu , en particulier ϕX (0) = iE(X).


(iii) La dérivée p-ième de pn einu est ip np pn einu , donc la série des dérivées p-ièmes converge

normalement, donc ϕX est de classe C p et ϕ(p)X (u) =
p p
n∈Z i n pn e
inu , d'où le résultat.

(iv) Si X et Y ont même loi il est immédiat que ϕX = ϕY . La réciproque est une conséquence
du fait qu'une série de Fourier convergeant normalement est égale à sa série de Fourier, donc
P (X = n) = P (Y = n) pour tout n ∈ Z (cette égalité est aussi une conséquence de la formule
(*) de la remarque 18 plus bas).
(v) Si X et Y sont indépendants, eiuX et eiuY également donc ϕX (u)ϕY (u) = E(eiuX )E(eiuY ) =
E(eiu(X+Y ) ) = ϕX+Y (u). 

 Remarque 18. Pour toute variable aléatoire X à valeurs dans Z on a l'égalité


 π
1
∀n ∈ Z, P (X = n) = e−int ϕX (eit ) dt. (∗)
2π −π
3. VARIABLES ALÉATOIRES DISCRÈTES 349

Cette identité est très utile, elle permet de connaître la loi de X à partir de ϕX . En parti-
culier, elle entraîne le résultat suivant : si (Xn ) est une suite de variables aléatoires sur Ω à
valeurs dans Z, et X : Ω → Z une variable aléatoire, telle que (ϕXn ) converge simplement
vers ϕX sur R, alors pour tout p ∈ Z, on a limn→+∞ P (Xn = p) = P (X = p) (on dit
alors que (Xn ) converge en loi vers X ). Cette propriété est une conséquence du théorème
de convergence dominée appliqué à l'intégrale de (*). Dans sa forme plus générale, ce ré-
sultat est appelé théorème de convergence de Lévy , il permet notamment de démontrer le
théorème central limite (qui n'est pas au programme des classes préparatoires, une preuve
est néanmoins proposée dans le cas des variables aléatoires entières dans le problème 9
page 386) par critère de convergence simple des fonctions caractéristiques.

3.6. Exercices
Exercice 1. Soit (Xn )n∈N∗ une suite de variables aléatoires à valeurs dans N∗ , indépen-
dantes et identiquement distribuées. On note Cn = Card{X1 , . . . , Xn }.
1/ Montrer que E(Cn ) = o(n). √
2/ On suppose que les Xn admettent une espérance. Montrer que E(Cn ) = o( n).
Solution. 1/ Lorsque n est grand, les Xi ont tendances à rester "petits" car la probabilité que
Xi soit grand est faible, donc beaucoup d'entre eux sont égaux, et Cn est petit. Pour quantier
ceci, on xe a > 0, et on partitionne les Xk entre ceux ≤ a et les autres. On obtient
Cn = Card{Xk | 1 ≤ k ≤ n, Xk ≤ a} + Card{Xk | 1 ≤ k ≤ n, Xk > a}
n

≤ a + Card{k ≤ n | Xk > a} = a + 1{Xk >a} ,
k=1
(où 1A désigne la fonction indicatrice de A, dénie par 1A (x) = 1 si x ∈ A, = 0 sinon) donc
n

E(Cn ) ≤ a + P (Xk > a) = a + nP (X1 > a). (∗)
k=1
√ √ √
En choisissant a =√ n, on en déduit en particulier E(Cn ) ≤ n + nP (X1 > n), et comme
limn→+∞ P (X1 > n) = 0 (et E(Cn ) ≥ 0), ceci entraîne bien E(Cn ) = o(n).
2/ On va réutiliser (*), en choisissant correctement a. L'inégalité de Markov entraîne
√ P (X1 >
a) ≤ E(X1 )/a, ce qui n'est pas susant pour conclure (on en déduit E(Cn ) = O( n) mais on
n'a pas le petit o). Une amélioration de cette borne lorsque a est grand s'obtient en écrivant
 
aP (X1 > a) = aP (X1 = k) ≤ kP (X1 = k) = o(1),
k>a k>a

car l'existence de l'espérance de X1 entraîne la convergence de la série k kP (X√1 = k). On
en√ déduit aP (X1 ≥ a) = o(1). Donnons
√ maintenant
√ ε > 0. Choisissons a = ε n. Comme
ε n → +∞, il existe N ∈ N tel que ε nP (X1 > ε n) ≤ ε2 , donc
√ √ √ ε2 √
∀n ≥ N, E(Cn ) ≤ ε n + nP (X1 > ε n) ≤ ε n + n √ = 2ε n.
ε n

Exercice 2. Soit (Xn )n∈N∗ une suite de variables aléatoires discrètes réelles, admettant
un moment d'ordre 2. On suppose que les Xn ont la même espérance µ = E(X1 ) et qu'il
existe σ > 0 tel que V (Xn ) ≤ σ 2 pour tout n ∈ N∗ . On pose Sn = X1 + · · · + Xn .
1/ On suppose que pour tout (i, j) ∈ (N∗ )2 tels que i + 1 < j , les variables aléatoires Xi
et Xj sont indépendantes. Montrer que (Sn /n) converge vers µ en probabilité, c'est-à-dire
∀ε > 0, lim P (|Sn /n − µ| > ε) = 0.
n→+∞
350 6. PROBABILITÉS

2/ On suppose que pour tout (i, j) ∈ (N∗ )2 tels que i < j , Cov(Xi , Xj ) ≤ σ2 /(j − i).
Montrer que (Sn /n) converge vers µ en probabilité.
Solution. 1/ On procède comme dans la démonstration de la loi faible des grands nombres (voir
la preuve du théorème 1 page 345). On majore la variance de Sn , en écrivant
n
  n
 n−1

V (Sn ) = V (Xi ) + 2 Cov(Xi , Xj ) = V (Xi ) + 2 Cov(Xi , Xi+1 )
i=1 i<j i=1 i=1
n−1

≤ nσ 2 + 2 V (Xi )1/2 V (Xi+1 )1/2 ≤ (3n − 2)σ 2 ≤ 3nσ 2 .
i=1
En appliquant l'inégalité de Bienaymé-Tchébyche à Sn on en déduit, compte tenu du fait que
E(Sn /n) = µ,
V (Sn /n) V (Sn )/n2 3σ 2
P (|Sn /n − µ| ≥ ε) ≤ = ≤ ,
ε2 ε2 nε2
d'où le résultat.
2/ On utilise la même approche. Une borne supérieure sur V (Sn ) est fournie par
n
   σ2
V (Sn ) = V (Xi ) + 2 Cov(Xi , Xj ) ≤ nσ 2 + 2
j−i
i=1 1≤i<j≤n 1≤i<j≤n
 
n−1
 n−1
  σ2   σ2
= nσ 2 +   = nσ 2 + (n − k) = σ 2 + nσ 2 Hn−1 ,
 j−i  k
k=1 1≤i<j≤n k=1
j−i=k
k  
où intervient
n
le nombre harmonique Hn = 1 + 12 + · · · + n1 . On a Hn ≤ 1 + nk=2 k−1 dt/t =
1 + 1 dt/t = 1 + log n, et le résultat souhaité s'obtient à partir de l'inégalité de Bienaymé-
Tchébyche appliquée à Sn , en écrivant
V (Sn )/n2 1/n + Hn σ 2 2 + log n
P (|Sn /n − µ| ≥ ε) ≤ 2
≤ σ2 2
≤ 2 .
ε nε ε n

Exercice 3. Montrer qu'il est impossible de piper deux dés pour que la somme de leurs
points suive la loi uniforme sur {2, . . . , 12}.
Solution. Nous allons utiliser les séries génératrices ϕX et ϕY des variables aléatoires X et Y des
points de chaque dé, qui ici sont des polynômes de degré ≤ 6. Comme P (X = 0) = P (Y = 0) = 0,
on peut écrire ϕX (z) = z ψX (z) et ϕY (z) = z ψY (z) où ψX (z) et ψY (z) sont des polynômes de
degré ≤ 5. Raisonnons par l'absurde et supposons que les deux dés soient pipés de sorte que la
somme des points des deux dés suive la loi uniforme sur {2, . . . , 12}. On aurait alors
z 2 + z 3 + · · · + z 12 1 − z 11
ϕX (z)ϕY (z) = ϕX+Y (z) = donc ψX (z)ψY (z) = . (∗)
11 11(1 − z)
Comme ψX et ψY ont un degré ≤ 5, on en déduit deg ψX = deg ψY = 5. Par ailleurs, le terme de
droite de (*) s'annule lorsque z = zk = exp(2ikπ/11) pour 1 ≤ k ≤ 10. Ces dix valeurs distinctes
zk forment donc l'ensemble des racines de de ψX et ψY , et aucune n'est réelle. Or ψX et ψY
sont des polynômes à coecients réels de degré impair, donc ils ont chacun au moins une racine
réelle, ce qui est absurde.

Exercice 4 (Convergence dominée L2 ). Soit (Ω, A, P ) un espace probabilisé. On


note L (Ω) (resp. L (Ω)) l'espace vectoriel des variables aléatoires discrètes réelles sur Ω
1 2
3. VARIABLES ALÉATOIRES DISCRÈTES 351

qui admettent une espérance (resp. qui admettent un moment d'ordre 2). Soit (Xn )n∈N
une suite de L1 (Ω). On suppose que
(i) (Xn )n∈N converge en probabilité vers une variable aléatoire discrète réelle X sur Ω,
c'est-à-dire
∀ε > 0, lim P (|Xn − X| ≥ ε) = 0.
n→+∞

(ii) Il existe Y ∈ L2 (Ω), telle que |X| ≤ Y et ∀n ∈ N, |Xn | ≤ Y .


Démontrer que X ∈ L1 (Ω) et que limn→+∞ E(Xn ) = E(X).
Solution. Remarquons déja qu'on a bien X ∈ L1 (Ω), car l'inégalité |X| ≤ Y avec Y ∈ L2 (Ω),
entraîne |X| ≤ 1 + Y 2 , donc X admet une espérance.
Montrons maintenant la limite recherchée. Soit ε > 0. Pour tout n ∈ N on note An =
{|X − Xn | ≥ ε} et 1An la fonction indicatrice de An (dénie par 1An (x) = 1 si x ∈ An , = 0
sinon). On a 1An + 1An = 1 donc
E(|Xn − X|) = E(1An |Xn − X|) + E(1An |Xn − X|). (∗)
Lorsque x ∈ An on a |Xn −X|(x) ≤ ε donc 1An |Xn −X| ≤ ε, ce qui entraîne E(1An |Xn −X|) ≤ ε.
Quant au premier terme de la somme de (*), on a
E(1An |Xn − X|) ≤ 2E(1An Y ) ≤ 2E(1An )1/2 E(Y 2 )1/2 .
Comme E(1An ) = P (An ) l'hypothèse (i) assure l'existence de N ∈ N tel que ∀n ≥ N , E(1An ) ≤
ε2 . Ainsi, (*) entraîne
∀n ≥ N, |E(Xn ) − E(X)| ≤ E(|Xn − X|) ≤ ε + 2εE(Y 2 )1/2 .
On en déduit limn→+∞ E(Xn ) = E(X).

Exercice 5. Soit (Ω, A, P ) un espace probabilisé tel qu'il existe une suite de variables
aléatoires discrètes réelles indépendantes (Xn )n∈N∗ , suivant chacune une loi non triviale,
c'est-à-dire que pour tout n ∈ N∗ et pour tout x ∈ R, P (Xn = x) < 1.
1/ Si les Xn sont identiquement distribuées, montrer que Ω est inni non dénombrable.
2/ Montrer que le résultat précédent est faux si on ne suppose pas les Xn non identique-
ment distribuées (on pourra s'inspirer de l'exercice 7 page 332).
Solution. 1/ Comme X1 est une loi discrète, il existe x ∈ X1 (Ω) tel que p = P (X1 = x) > 0.
D'après les hypothèses, p < 1. Pour tout y ∈ X1 (Ω), y = x, P (X1 = y) ≤ 1 − P (X1 = x) = 1 − p.
En notant q = max{p, 1 − p}, on a donc
0<q<1 et ∀t ∈ X1 (Ω), P (X1 = t) ≤ q.
On en déduit, pour tout ω ∈ Ω, les Xn étant indépendantes et identiquement distribuées,
n

∀n ∈ N∗ , P ({ω}) ≤ P (X1 = X1 (ω), . . . , Xn = Xn (ω)) = P (Xk = Xk (ω)) ≤ q n .
k=1

Comme q< 1 on en déduit que forcément, P ({ω}) = 0. Si Ω était ni ou dénombrable, on aurait
P (Ω) = ω∈Ω P ({ω}) = 0, ce qui est absurde. Donc Ω est inni non dénombrable.
2/ En procédant comme dans la solution de 1/, on montre facilement que même si les Xn
ne
+∞sont pas identiquement distribuées, sous l'hypothèse plus générale que ∀x ∈ R, ∀n ∈ N∗ ,
n=1 P (Xn = x) = 0 alors  Ω est forcément inni non dénombrable. Pour trouver un contre-
exemple, on doit donc avoir +∞ n=1 P (Xn = x) > 0 pour au moins une valeur de x.
Un tel contre-exemple est fourni en choisissant Ω = N∗ , muni de la loi zéta
1 1
P ({n}) =
ζ(2) n2
352 6. PROBABILITÉS

(on pourrait choisir P ({n}) = ζ(s)−1 /ns pour n'importe quel s > 1), puis en choisissant pour
tout n la variable aléatoire Xn dénie sur N∗ par : Xn (k) = 1 si k > 1 est divisible par le n-ième
nombre premier pn , Xn (k) = 0 sinon.
Montrons que les variables aléatoires Xn sont bien indépendantes. On note Aq = qN∗ pour
q ∈ N∗ . On a {Xn = 1} = Apn et {Xn = 0} = AC pn . Comme on l'a vu dans l'exercice 7
page 332, les (Apn )n∈N∗ sont indépendants. D'après la proposition 8 page 324, pour toute suite
(εn ) d'éléments de {0, 1}, les événéments (P (Xn = εn ))n∈N∗ sont indépendants. On en déduit
avec la proposition 2 page 336 que les Xn sont indépendants. On a donc construit un espace
probabilisé dénombrable et une suite de variables aléatoires indépendantes et non triviales sur
cet espace.

Exercice 6. Soient (Xn )n∈N∗ une suite de variables aléatoires à valeurs dans N, avec les
Xn mutuellement indépendantes et identiquement distribuées. On note Sn = X1 +· · ·+Xn .
On suppose que, presque surement, (Sn /n)n∈N∗ converge. Montrer que les Xn admettent
une espérance. (Indication : raisonner
 par l'absurde en supposant E(X1 ) = +∞, montrer
que pour tout K ∈ N∗ , on a n P (Xn ≥ Kn) = +∞, puis que presque surement,
lim sup Xn /n = +∞).

Solution. On suit l'indication en supposant que X1 n'admet pas d'espérance, ce qui implique
que la série n∈N P (X1 > n) diverge (voir la proposition 7 page 338). Or pour K ∈ N∗ , on a
K(n+1)−1 K(n+1)−1
 
P (X1 > j) ≤ P (X1 > Kn) = KP (X1 > Kn) = KP (Xn > Kn).
j=Kn j=Kn
 
Comme la série n∈N P (X1 > n) diverge, on en déduit que n P (Xn > Kn) diverge. Les évé-
néments {Xn > Kn}n∈N∗ étant indépendants, l'assertion (ii) du lemme de Borel-Cantelli (voir le
théorème 1 page 326) permet de déduire que l'événement AK = ∩p∈N ∪n>p {Xn > Kn} est presque
sûr. Sur AK on a limp→+∞ supn>p Xn /n ≥ K . On en déduit que sur B = ∩K∈N∗ AK , événement
presque sûr (intersection dénombrable d'événements presque sûrs) on a limp→+∞ supn>p Xn /n =
+∞. La minoration Sn /n ≥ Xn /n entraîne donc que presque surement, limp→+∞ supn>p Sn /n =
+∞. Ceci est incompatible avec l'hypothèse que (Sn /n)n∈N∗ converge presque surement. Donc
X1 admet une espérance, donc tous les Xn puisque ces variables aléatoires sont identiquement
distribuées.
Remarque. Ce résultat peut être vu comme une réciproque de la loi forte des grands
nombres.

Exercice 7 (Inégalité de Hoeffding). Soit (Xn )n∈N∗ une suite de variables aléatoires
discrètes, indépendantes et centrées, à valeurs dans [−α, α] avec α > 0.
1/ a) Soit Y une variable aléatoire discrète centrée, à valeurs dans [−1, 1]. Montrer que
pour tout t ∈ R, on a E(etY ) ≤ ch (t) ≤ et /2 .
2

b) On note Sn = X1 + · · · + Xn . Montrer l'inégalité de Hoeding :


 
ε2
∀ε > 0, ∀n ∈ N∗ , P (|Sn | ≥ ε) ≤ 2 exp − .
2nα2

2/ Montrer que presque surement, limn→+∞ Sn /n = 0.


3/ On suppose ici que les variables aléatoires indépendantes Xn suivent une loi de Rade-
macher P (Xn√= −1) = 1/2, et P (Xn = 1) = 1/2. Montrer que presque surement, on a
lim supn |Sn |/ 2n log n ≤ 1 (on rappelle que lim supn f (n) = limn→+∞ supp≥n f (p)).
3. VARIABLES ALÉATOIRES DISCRÈTES 353

Solution. 1/a) La convexité de la fonction exponentielle entraîne


1 − y −t 1 + y t
∀y ∈ [−1, 1], ety ≤ e + e.
2 2
On en déduit
 t2n +∞
 t2n +∞
E(1 − Y ) −t E(1 + Y ) t 2
E(etY ) ≤ e + e = ch t = ≤ n
= et /2 .
2 2 (2n)! n!2
n=0 n=0

b) Le résultat précédent appliqué à la variable aléatoire Xn /α entraîne E(etXn /α ) ≤ et2 /2 pour


tout t ∈ R, et l'inégalité est vraie lorsqu'on remplace t par αt ce qui donne E(etXn ) ≤ et .
2 α2 /2

Les Xi étant indépendants, les etXi également et ceci entraîne


2 nα2 /2
E(etSn ) = E(etX1 · · · etXn ) = E(etX1 ) · · · E(etXn ) ≤ et .
L'inégalité de Markov permet d'en déduire
E(etSn ) 2 2
P (Sn > ε) = P (etSn > etε ) ≤ ≤ et nα /2−tε .
etε
En choisissant t = ε/(nα2 ) (valeur qui minimise t2 nα2 /2 − tε), on en déduit P (Sn > ε) ≤
e−ε /(2nα ) . La même inégalité appliquée à la suite (−Xn ) entraine P (Sn < −ε) ≤ e−ε /(2nα ) ,
2 2 2 2

on en déduit l'inégalité souhaitée pour P (|Sn | < ε).


2/ En choisissant ε = n3/4 , l'inégalité obtenue à la question précédente s'écrit P (|Sn /n| ≥

n−1/4 ) ≤ exp(−n1/2 /(2α2 )).On en déduit que la série n P (|Sn /n| ≥ n−1/4 ) converge, donc
d'après l'assertion (i) du lemme de Borel-Cantelli (voir le théorème 1 page 326), lim supn {|Sn /n| ≥
n−1/4 )} est négligeable. En passant au complémentaire on a donc montré que presque surement,
on a |Sn /n| < n−1/4 sauf eventuellement pour un nombre ni de valeurs de n. On en déduit que
presque surement, limn→+∞ Sn /n = 0.
3/ Soit c > 1. On peut appliquer l'inégalité de Hoeding à (Xn ), avec α = 1, ce qui donne
 
 2cn log n 2
P (|Sn | ≥ 2cn log n) ≤ 2 exp − = c.
2n n
 √
Donc la série n P (|Sn | ≥ 2cn log n) converge, et avec le lemme de Borel-Cantelli√ on en
déduit l'existence d'un événement A(c) presque sûr tel que sur A(c), |Sn | < 2cn √ log n sauf
eventuellement

pour un nombre ni d'entiers n. Sur A(c) on a donc lim supn |Sn |/ 2n log n ≤
c. En donnant à c les valeurs c = e1/p avec p ∈ N∗ , on en déduit que sur l'événement
presque sûr A√ = ∩p∈N∗ A(e1/p ) (intersection dénombrable d'événements √ presque sûrs), on a
lim supn |Sn |/ 2n log n ≤ e1/(2p) pour tout p ∈ N∗ , donc que lim supn |Sn |/ 2n log n ≤ 1 sur A.
Remarque. On déduit facilement du résultat 2/ que pour toute suite de variables aléatoires
discrètes (Xn ) indépendantes, identiquement distribuées, et uniformément bornées, on a
presque surement limn→+∞ (X1 +· · ·+Xn )/n = E(X1 ) (il sut d'appliquer 2/ aux variables
Yi = Xi − E(X1 )). On vient donc de démontrer la loi forte des grands nombres dans le
cas des variables aléatoires bornées. Une preuve dans le cas plus général L4 fait l'objet de
l'exercice 13 page 363, et dans le cas général, du problème 10 page 389.

 Lorsque ε est beaucoup plus grand que 1/ n (on parle de grandes déviations), l'inégalité
de Hoeding est bien plus ne que l'inégalité (*) du théorème 1 page 345. Une approxima-
tion des déviations par rapport à la moyenne est obtenue avec le théorème central limite,
qui fait l'objet du problème 9 page 386.

Exercice 8. On considère une famille (Xi,j )(i,j)∈(N∗ )2 de variables aléatoires discrètes


réelles, indépendantes, admettant une même variance V (Xi,j ) = b2 avec b > 0. Pour tout
n ∈ N∗ on note Mn la matrice aléatoire (Xi,j )1≤i,j≤n ∈ Mn (R).
354 6. PROBABILITÉS

1/a) On suppose que les Xi,j sont centrées. Calculer l'espérance et la variance de tr Mn
et det Mn . √
b) Si (un ) est une suite vériant bn = o(un ), montrer limn→+∞ P (| det Mn | ≥ un n!) = 0.
2/ On suppose ici que les Xi,j admettent toutes une même espérance a ∈ R.
a) Calculer l'espérance et la variance de tr Mn , et l'espérance de det Mn .
b) Pour
 tout n ∈ N , on note Fn l'ensemble des permutations de Sn sans point xe, et

fn = σ∈Fn ε(σ) (où ε(σ) désigne la signature de la permutation σ ). Montrer que


n  

2 2 2 n n a2
E((det Mn ) ) = n!(a + b ) fk ρk , ρ= .
k=0
k a2 + b2

c) Établir une relation


 de récurrence vériée par fn puis calculer la série génératrice
exponentielle F (z) = +∞ n=0 fn /n!. En déduire une expression simpliée de V (det Mn ).
d) Retrouver la variance de det Mn en centrant les Xi,j , en complétant Mn par une matrice
An de taille n + 1 bordée par des 1 sur la dernière ligne et des 0 sur sa dernière colonne
(le coecient d'indice (n + 1, n + 1) étant égal à 1).
Solution. 1/a) Pour tr Mn le résultat est immédiat car l'indépendance des Xi,j entraîne
n
 n

E(tr Mn ) = E(Xi,i ) = 0 et V (tr Mn ) = V (Xi,i ) = nb2 .
i=1 i=1

Pour le déterminant, l'indépendance des Xi,j entraîne


 n
  n
 n
       
E(det Mn ) = E ε(σ) Xi,σ(i) = ε(σ)E Xi,σ(i) = ε(σ) E Xi,σ(i)
σ∈Sn i=1 σ∈Sn i=1 σ∈Sn i=1

et comme les Xi,j sont centrées on en déduit E(det Mn ) = 0. Pour la variance on écrit
 n
 n
     
2
E((det Mn ) ) = ε(σ)ε(µ)E Xi,σ(i) Xi,µ(i) = ε(σ)ε(µ) E Xi,σ(i) Xi,µ(i) .
(σ,µ)∈Sn2 i=1 (σ,µ)∈Sn2 i=1

      (∗)
Si σ = µ, il existe i tel que σ(i) = µ(i) donc E Xi,σ(i) Xi,µ(i) = E Xi,σ(i) E Xi,µ(i) = 0. Dans
la somme de (*), on ne doit donc considérer que les cas où σ = µ, ce qui donne,
 n
   n
 
E((det Mn )2 ) = ε(σ)2 2
E Xi,σ(i) = b2 = n! b2n .
σ∈Sn i=1 σ∈Sn i=1

On conclut avec le théorème de Koënig-Huygens qui donne V (det Mn ) = E((det Mn )2 ) = n! b2n .


b) Il sut d'appliquer l'inégalité de Bienaymé-Tchébyche qui entraîne
 2
√ V (Mn ) bn
P (| det Mn | > un n!) ≤ 2 = .
un n! un

2/a) En procédant comme dans 1/a) on obtient E(tr Mn ) = na et V (tr Mn ) = nb2 , et


 n
  n
 
 
E(det Mn ) = ε(σ) E Xi,σ(i) = ε(σ) a = an ε(σ).
σ∈Sn i=1 σ∈Sn i=1 σ∈Sn

On en déduit E(det Mn ) = a si n = 1, E(det Mn ) = 0 si n > 1.


b) On récrit la formule (*) en posant µ = σν , ce qui donne
 n
  
E((det Mn )2 ) = ε(σ)ε(σν) E Xi,σ(i) Xi,σ(ν(i)) .
(σ,ν)∈Sn2 i=1
3. VARIABLES ALÉATOIRES DISCRÈTES 355

On a ε(σ)ε(σν) = ε(σ)2 ε(ν) = ε(ν). Par ailleurs,


    
  E Xi,σ(i) E Xi,σ(ν(i)) = a2 si ν(i) = i,
E Xi,σ(i) Xi,σ(ν(i)) = 2
E Xi,σ(i) = a2 + b 2 si ν(i) = i.
En notant D(ν) = {i ∈ {1, . . . , n} | ν(i) = i} on a donc
  
E((det Mn )2 ) = ε(ν)a2|D(ν)| (a2 + b2 )n−|D(ν)| = n!(a2 + b2 )n ε(ν)ρ|D(ν)| .
σ∈Sn ν∈Sn ν∈Sn

Soit k ∈ {0, . . . , n}. Notons Pk = {I ⊂ {1, . . . , n}, |I| = k}. Fixons I ∈ Pk et q ∈ Sn telle
que q({1, . . . , k}) = I . Pour tout ν ∈ Sn telle que D(ν) = I , la permutation τν = q −1 νq vérie
τν (i) = i pour k < i ≤ n, et la restriction τν de τν à {1, . . . , k} est dans Fk . On a par ailleurs
ε(ν) = ε(τν ) = ε(τν ). L'application
 ν → τν est une bijection de {ν ∈ Sn | D(ν) = I} vers Fk ,
on a donc ν: D(ν)=I ε(ν) = τ ∈Fk ε(τ ) = fk (notons qu'on doit avoir f0 = 1 pour que cette
égalité reste vraie). On en déduit le résultat demandé en écrivant
 n 
  n 
 n  
 n
ε(ν)ρ|D(ν)| = ε(ν)ρk = f k ρk = fk ρk .
k
ν∈Sn k=0 I∈Pk ν∈Sn k=0 I∈Pk k=0
D(ν)=I

c) L'égalité précédente appliquée avec ρ = 1 entraîne


n
 n   
∗ fk 1 1  n  1 si n = 1
∀n ∈ N , = fk = ε(σ) =
k! (n − k)! n! k 0 si n > 1.
k=0 k=0 σ∈Sn

Notons que |fk | ≤ |Fk | ≤ k!, donc F (z) a un rayon de convergence ≥ 1. On reconnait dans
l'égalité précédente un produit de Cauchy, qui montre que pour tout z tel que |z| < 1,
 +∞   +∞ 
 fk  1
z k n
F (z) e = z z = f0 + z = 1 + z.
k! n!
k=0 n=0
+∞ 
 
(−1)k (−1)k−1
On en déduit F (z) = e (1 + z) = 1 +
−z
+ z k et par identication de
k! (k − 1)!
k=1
coecient on en tire fk = (−1)k (1 − k). On en déduit, en posant ϕ(x) = (1 + x)n ,
n  
 n  
 
n n
fk ρk = (−ρ)k + ρk(−ρ)k−1 = ϕ(−ρ) + ρϕ (−ρ) = (1 − ρ)n−1 (1 − ρ + nρ).
k k
k=0 k=0
En remplaçant dans l'expression obtenue dans la question précédente, on en déduit, lorsque
n ≥ 2, compte tenu du fait que det Mn soit centré et de la valeur de ρ,
 n−1  
b2 a2
V (det Mn ) = n!(a2 + b2 )n 1 + (n − 1) = n!b2n−2 (b2 + na2 ).
a 2 + b2 a 2 + b2
Il reste à traiter le cas n = 1, immédiat car det M1 = X1,1 donc V (det M1 ) = b2 .
 
Mn 0
d) Notons que An s'écrit par blocs sous la forme An =
1 1
et que det An = det Mn .
Notons Bn la matrice obtenue à partir de An en retranchant à chacune des n premières lignes a
fois la dernière. On a det Bn = det An = det Mn . Notons Xi,j∗ = X
i,j − a les variables aléatoires
Xi,j centrées. Les coecients de Bn sont Bn = (Yi,j )1≤i,j≤n+1 , avec Yi,j = Xi,j
∗ pour 1 ≤ i, j ≤ n,

Yi,n+1 = −a pour 1 ≤ i ≤ n, et Yn+1,j = 1 pour 1 ≤ j ≤ n + 1. Les variables aléatoires Yi,j sont


indépendantes donc on peut appliquer la formule (*) à E((det Bn )2 ) , ce qui donne
 n+1
  
E((det Bn )2 ) = ε(σ)ε(µ)Pσ,µ , Pσ,µ = E Yi,σ(i) Yi,µ(i) .
(σ,µ)∈(Sn+1 )2 i=1

Si σ = µ, on a au moins deux indices distincts i et j tels que σ(i) = µ(i) et σ(j) = µ(j). L'un de
ces deux indices est ≤ n, par exemple i. Comme σ(i) = µ(i), l'un de ces deux indices est ≤ n,
356 6. PROBABILITÉS

par exemple σ(i) ≤ n. On a alors E(Yi,σ(i) Yi,µ(i) ) = E(Xi,σ(i)


∗ )E(Yi,µ(i) ) = 0. Donc les seuls Pσ,µ
non nuls sontceux pour lesquels σ = µ. On traite maintenant deux cas. Si σ(n + 1) = n + 1,
alors Pσ,σ = ni=1 E((Xi,σ(i)
∗ )2 ) = b2n . Si σ(n + 1) = n + 1, alors en notant j = σ −1 (n + 1) on a
 2   2   


Pσ,σ = E Yj,n+1 E Yn+1,σ(n+1) E (Xi,σ(i) )2 = a2 b2n−2 .
i≤n,i=j

On en déduit
  
E((det Bn )2 ) = Pσ,σ = Pσ,σ + Pσ,σ = n!b2n + n n! a2 b2n−2 .
σ∈Sn+1 σ∈Sn+1 σ∈Sn+1
σ(n+1)=n+1 σ(n+1)=n+1

Comme det Mn = det Bn , on retrouve ainsi le résultat de la question 1/c).

Exercice 9 (Problème du collectionneur). Soit r ∈ N∗ et (Xn ) une suite de


variables aléatoires à valeurs dans {1, . . . , r}, indépendantes. qui suivent une loi uniforme
sur {1, . . . , r}. Les Xn modélisent des vignettes réunies par un collectionneur, qui les
achète une par une sans savoir à l'avance laquelle il va avoir. On note tk le nombre
d'achats eectués par le collectionneur pour avoir k vignettes diérentes, c'est-à-dire
t0 = 0 et ∀k ∈ N∗ , k ≤ r, tk = min{n ≥ 1 | Card{X1 , . . . , Xn } = k}.
On s'interesse au temps Tr = tr nécessaire pour compléter l'ensemble de la collection.
1/ Montrer que l'espérance de Tr est égale à
r
 1
E(Tr ) = rHr , où Hr = .
k=1
k

(indication : montrer que les τk = tk − tk−1 suivent une loi géométrique).


2/a) Calculer la variance de Tr .
b) Montrer que   
 Tr 
∀ε > 0, 
lim P  
− 1 > ε = 0.
r→+∞ r log r

3/a) Montrer que


r
   n
r k
∀n ∈ N, P (Tr > n) = (−1) k−1
1− .
k=1
k r

b) Pour tout a > 0, montrer que


  
 Tr − r log r  −a a

lim P   < a = e−e − e−e .
r→+∞ r 

c) En déduire, dans le cas r = 100, un encadrement du nombre de vignettes Tr à acheter


pour avoir 95% de chance de compléter la collection.
Solution. 1/ Lorsque 1 ≤ k ≤ r, la variable aléatoire τk = tk − tk−1 est le nombre d'achats
nécéssaires pour passer d'une collection de k − 1 vignettes diérentes à k vignettes diérentes,
autrement dit
τk = min{m ≥ 1 | Xtk−1 +m ∈ {X1 , . . . , Xtk−1 }}.
La variable aléatoire τk est le temps d'apparition du premier gain dans un jeu de pile ou face,
pour lequel la probabilité de gain est (r −k +1)/r (probabilité que Xtk−1 +m soit l'une des r −k +1
3. VARIABLES ALÉATOIRES DISCRÈTES 357

vignettes diérentes des k − 1 déjà obtenues). Elle suit donc une loi géométrique de paramètre
(r − k + 1)/r, en particulier on a E(τk ) = r/(r − k + 1). Comme Tr = τ1 + · · · + τr , on en déduit
r
 r
 r
E(Tr ) = E(τk ) = = rHr .
r−k+1
k=1 k=1

2/a) On va d'abord prouver que les τk sont indépendants. La valeur de τk ne dépend que des
des vignettes obtenues après le moment où on a k − 1 vignettes diérentes, et de celles obtenues
à ce moment (pour savoir si une vignette est nouvelle). Or les tirages sont indépendants, donc
les vignettes obtenues après en avoir eu k − 1 diérentes sont indépendantes des précédentes, et
donc de τ1 , . . . , τk−1 . Par ailleurs, l'ensemble des k − 1 premières vignettes diérentes obtenues
est indépendant du temps τ1 , . . . , τk−1 mis à les obtenir, puisque chaque type de vignette est
équiprobable. Ainsi, τk est indépendant de τ1 , . . . , τk−1 . Ceci étant vrai pour tout k, on en déduit
l'indépendances de τ1 , . . . , τr .
L'indépendance des τk permet de calculer la variance de Tr = τ1 + · · · + τr comme somme
des variances des τk . Comme la variance d'une loi géométrique de paramètre p est (1 − p)/p2 , on
en déduit
r
 r
 r
 r
 r

1 − (r − k + 1)/r 1 − k/r r−k 1
V (Tr ) = V (τr ) = = =r = r2 − rHr .
(r − k + 1)2 /r2 k 2 /r2 k2 k2
k=1 k=1 k=1 k=1 k=1
+∞
b) Notons que l'expression ci-dessus entraîne V (Tr ) ≤ r2 S avec S = k=1 1/k
2. L'inégalité de
Bienaymé-Tchébyche entraîne ensuite
V (Tr ) r2 S
P (|Tr − E(Tr )| ≥ a) ≤
2
≤ 2 . (∗)
a a
Le nombre harmonique Hr est proche de log r (on a même Hr = log r + γ + o(1) où γ est la
constante d'Euler, ici nous nous contenterons d'une majoration simple), ce qui permet d'appro-
cher E(Tr ) par r log r. Plus précisément on a
 r       
 n
1 1 r
dt
|E(Tr ) − r log r| = r|Hr − log r| ≤ r 1 + − dt ≤r 1+ ≤ 2r.
t n t2
n=2 n−1 1

On en déduit
|Tr − r log r| ≤ |Tr − E(Tr )| + |E(Tr ) − r log r| ≤ |Tr − E(Tr )| + 2r.
Donc si |Tr − r log r| ≥ εr log r, alors |Tr − E(Tr )| ≥ εr log r − 2r. En remplaçant dans (*) on
obtient, lorsque r est assez grand pour que ε log r − 2 > 0,
  
 Tr  S
P  − 1  ≥ ε ≤ P (|Tr − E(Tr )| ≥ εr log r − 2r) ≤ .
 r log r  (ε log r − 2)2
On en déduit le résultat souhaité.
3/a) La forme de l'expression suggère l'utilisation de la formule du crible de Poincaré (voir la
proposition 2.2 page 321). On a {Tr > n} = ∪rk=1 Ak , avec Ak = {X1 = k, . . . , Xn = k}. La
formule du crible entraîne donc
 r

 
P (Tr > n) = P Ai = (−1)|J|−1 P (∩j∈J Aj ) .
i=1 J⊂{1,...,r}
J=∅

Lorsque J ⊂ {1, . . . , r}, on a ∩j∈J Aj = {X1∈ J, . . ., Xn ∈ J}, et comme les Xi sont indépen-
 n
dants on a P (∩j∈J Aj ) = ni=1 P (Xi ∈ J) = 1 − |J| r , d'où
r
   n
k−1 k
P (Tr > n) = (−1) 1− .
r
k=1 J⊂{1,...,r}
|J|=k
358 6. PROBABILITÉS

 
r
Comme il y a parties de {1, . . . , r} à k éléments, on en déduit le résultat.
k
b) Donnons l'idée de l'approche. Lorsqu'on remplace n par r log r + ar dans l'expression précé-
dente, chaque terme de la somme converge vers
 
k−1r −nk/r r(r − 1) · · · (r − k + 1) −k −ak e−ak
(−1) e ≈ (−1)k−1 r e ≈ (−1)k−1 ,
k k! k!
 −a
donc on s'attend à ce que P (Tr > r log r + ar) converge vers k>0 (−1)k−1 e−ak /k! = 1 − e−e .
Cette observation nous amène à montrer que
 
Tr − r log r −a
∀a ∈ R, lim P >a = G(a), G(a) = 1 − e−e . (∗∗)
r→+∞ r
Par commodité on note Tr∗ = (Tr − r log r)/r. Si on montre (**), on aura prouvé le résultat
demandé compte tenu de l'égalité
P (|Tr∗ | < a) = P (Tr∗ > −a) − P (Tr∗ ≥ a) = P (Tr∗ > −a) − P (Tr∗ > a) − P (Tr∗ = a)
et du fait que limr→+∞ P (Tr∗ = a) = 0. On prouve cette dernière assertion. Soit ε > 0 ; choisis-
sons α > 0 tel que G(a − α) − G(a) < ε/2. l'inégalité P (Tr∗ = a) ≤ P (Tr∗ > a − α) − P (Tr∗ > a)
et la limite
lim (P (Tr∗ > a − α) − P (Tr∗ > a)) = G(a − α) − G(a) < ε/2,
r→+∞
entraînent que pour r assez grand, P (Tr∗ = a) < ε, on a donc bien limr→+∞ P (Tr∗ = a) = 0.
Montrons maintenant (**). Fixons a ∈ R. Soit ε > 0. On a Tr∗ > a si et seulement si Tr > nr
où nr = [r log r + ar] (où [x] désigne la partie entière de x). Supposons r assez grand pour que
nr ≥ 0. Soit k ∈ N, k ≤ r. La convexité de la fonction t → e−t entraîne 1 − k/r ≤ e−k/r donc
        
r k nr r −nr k/r r −(r log r+ar−1)k/r r −k −ak k/r e−ak k/r
0≤ 1− ≤ e ≤ e = r e e ≤ e ,
k r k k k k!
 
r
où nous avons utilisé l'inégalité = r(r − 1) · · · (r − k + 1)/k! ≤ rk /k!. Soit N ∈ N∗ tel que
 k
−ak /k! < ε. Lorsque r > N , l'inégalité précédente entraîne
k>N e
 r    
  k nr
+∞
 −ak  r
e−ak k/r
 k−1 r k−1 e 
 (−1) 1 − − (−1)  ≤ e + ε ≤ εe + ε. (∗∗∗)
 k r k!  k!
k=N +1 k=N +1 k=N +1

Fixons maintenant N , et k ≤ N . On a nr log(1 − k/r) = (r log r + ar + O(1))(−k/r + O(1/r2 )) =


−k log r − ak + O(log r/r) donc
     k−1  
r k nr −ak+o(1) r −k eak+o(1) r r − 1 r−k+1 eak+o(1)  j
1− =e r = ··· = 1− .
k r k k! r r r k! r
j=0

Donc lorsque r → +∞, le terme de gauche converge vers e−ak /k!.


Ainsi, comme N est xé, on a
N     
 k nr 
N −ak 
 k−1 r k−1 e 
∃N1 > N, ∀r > N1 ,  (−1) 1− − (−1)  < ε.
 k r k! 
k=1 k=1

Avec (***) on en déduit


    
r
k nr 
+∞ −ak 
 k−1 r k−1 e 
∀r > N1 , |P (Tr∗ > a) − G(a)| =  (−1) 1− − (−1)  < (2 + e)ε.
 k r k! 
k=1 k=1

On a donc bien démontré l'assertion (**).


c) On a −a
e−e − e−e = 0.95 pour a  2.97, on en déduit, d'après la question précédente,
a

que P (r log r − ar < Tr < r log r + ar)  0.95, donc avec r = 100 ceci fournit l'encadrement
163 < Tr < 758, vérié environ 95% du temps.
3. VARIABLES ALÉATOIRES DISCRÈTES 359

Remarque. - On peut montrer que P (Tr ≤ n) = Sn,r r!/rn , où Sn,r est le nombre de
Stirling de deuxième espèce (voir le problème 7 page 379).
 La majoration obtenue en 2/b) fournit l'encadrement −εr log r < Tr − r log r < εr log r
avec probabilité > 1 − S/(ε log r − 2). En choisissant r = 100 et ε = 1,7 on trouve que
−323 < Tr < 1244 au moins 95% du temps. La borne inférieure n'apporte rien, et cet
encadrement est beaucoup moins bon que celui obtenu à la question 2/b).
 La loi dénie par P ( ] − ∞, x]) = e−e est appelée loi de Gumbel. Nous avons montré
−x

dans la question 3/b) la convergence en loi de (Tr − r log r)/r vers la loi de Gumbel.

Exercice 10 (Ruine du joueur). Soit (Xn )n∈N∗ une suite de variables de Bernoulli
indépendantes et identiquement distribuées, centrées, de paramètre p ∈ ]0, 1[ , c'est-à-dire
P (Xn = 1) = p et P (Xn = −1) = 1−p. On pose Sn = S0 +X1 +· · ·+Xn . On interprète Sn
comme la fortune d'un joueur qui gagne 1 euro si Xn = 1, et qui perd 1 euro si Xn = −1.
Le joueur part d'une fortune initiale S0 = k > 0, et joue jusqu'à atteindre une fortune
de N ou jusqu'à ce qu'il soit ruiné. On note T le plus petit entier n tel que Sn = 0 (le
joueur est ruiné) ou Sn = N (le joueur a atteint son objectif), T = +∞ si un tel entier
n'existe pas. On note q = 1 − p.
1/ Montrer que presque surement, T est ni, et que T admet une espérance.
2/ Montrer que la probabilité pk = P ((T < +∞, ST = 0) | S0 = k) de ruine du joueur,
partant d'une fortune initiale k , vérie
k (q/p)k − (q/p)N
Si p = 1/2 : pk = 1 − , si p = 1/2 : pk = .
N 1 − (q/p)N

3/ Montrer que l'espérance Ek du temps de jeu T , lorsque le joueur part d'une fortune
initiale k , vérie
 
1 1 − (q/p)k
Si p = 1/2 : Ek = k(N − k), si p = 1/2 : Ek = k−N .
q−p 1 − (q/p)N

Solution. 1/ On va montrer que Sn a une faible probabilité de rester entre 0 et N lorsque n


devient grand. Soit m ∈ N∗ . Pour que T > mN il faut que 0 < SjN < N pour tout j ≤ m,
en particulier on doit avoir |S(j+1)N − SjN | < N pour tout j < m. Or l'événement Aj =
{|S(j+1)N −SjN | < N } ne contient pas l'événement {XjN +1 = 1, . . . , X(j+1)N = 1} de probabilité
pN , donc P (Aj ) ≤ r avec r = 1 − pN < 1. Par ailleurs les événements A1 , . . . , Am−1 sont
indépendants, car Aj = {|XjN +1 + · · · + X(j+1)N | < N } et les Xi sont indépendants. On en
déduit
P (T > mN ) ≤ P (A1 ∩ . . . ∩ Am−1 ) = P (A1 ) · · · P (Am−1 ) ≤ rm−1 .
Soit n ∈ N, n > M . On a n > aM avec a = [(n − 1)/M ] donc P (T = n) ≤ P (T > aM ) ≤ ra−1 .
Comme a ≥ n/M − 1, on a donc P (T = n) ≤ αβ n avec α = 1/r2 et β = r1/M < 1. On en déduit
P (T = +∞) = P (∩n∈N {T > n}) = limn→+∞ P (T > n) = 0, donc T est presque surement ni.
On en déduit aussi que la série n∈N∗ nP (T = n) est sommable, donc T admet une espérance.
2/ Notons Ak l'événement correspondant à la ruine du joueur, partant d'une fortune initiale k,
c'est-à-dire
Ak = {∃n | k + X1 + · · · + Xn = 0 et ∀m < n, 0 < k + X1 + · · · + Xm < N }
de sorte que pk = P (Ak ). Supposons 0 < k < N . On a
(Ak | X1 = 1) = {∃n | k + 1 + X2 + · · · + Xn = 0 et ∀m < n, 0 < k + 1 + X2 + · · · + Xm < N }
360 6. PROBABILITÉS

et comme les Xi suivent tous une même loi et sont indépendants, X2 + · · · + Xk suit la même loi
que X1 + · · · + Xk−1 , donc : P (Ak | X1 = 1) = P (Ak+1 ). Un raisonnement du même type fournit
P (Ak | X1 = −1) = P (Ak−1 ). On en déduit, pour tout k ∈ N tel que 0 < k < N , l'égalité
pk = P (Ak ) = P (Ak | X1 = 1)P (X1 = 1) + P (Ak | X1 = −1)P (X1 = −1) = p pk+1 + q pk−1 .
Par ailleurs on a les conditions aux limites p0 = 1 et pN = 0. La relation obtenue est une relation
de récurrence linéaire d'ordre 2, dont les solutions sont de la forme pk = ar1k + br2k lorsque
l'équation caractéristique pr2 − r + q = 0 a deux racines distinctes r = r1 ou r = r2 , de la forme
pk = (a + kb)r1n si cette équation a une racine double r = r1 .
Si p = 1/2, l'équation caractéristique a une racine double r1 = 1, donc pk a la forme a + bk.
Comme p0 = 1 et pN = 0, on en déduit a = 1 et b = −1/N , donc dans ce cas, pk = 1 − k/N . Si
p = 1/2, les racines de pr2 − r + q sont 1 et q/p, donc pk a la forme a + b(q/p)k . Les conditions
aux limites p0 = 1 et pN = 0 fournissent a = −q N /(pN − q N ) et b = pN /(pN − q N ), et on en
déduit la formule souhaitée.
3/ Comme pour la question 2/, on va déterminer une relation de récurrence sur Ek . Notons Tk la
variable aléatoire T lorsque la fortune initiale du joueur est égale à k, de sorte que Ek = E(Tk ).
La proposition 8 page 339 sur les espérances conditionnelles donne
Ek = E(Tk ) = E(Tk | X1 = 1)P (X1 = 1) + E(Tk | X1 = −1)P (X1 = −1). (∗)
Supposons 0 < k < N . On a
{Tk = n | X1 = 1} = {inf{j | k + 1 + X2 + · · · + Xj ∈ {0, N }} = n}
et comme X2 + · · · + Xj suit la même loi que X1 + · · · + Xj−1 , on en déduit
P (Tk = n | X1 = 1) = P (inf{j | k + 1 + X1 + · · · + Xj ∈ {0, N }} = n − 1) = P (Tk+1 = n − 1).
On a donc
 
E(Tk | X1 = 1) = nP (Tk = n | X1 = 1) = nP (Tk+1 = n − 1) = 1 + E(Tk+1 ).
n∈N∗ n∈N∗

Un raisonnement similaire donne E(Tk | X1 = −1) = 1 + E(Tk−1 ). Avec (*), on en déduit


∀k ∈ N, 0 < k < N, Ek = p(1 + Ek+1 ) + q(1 + Ek−1 ). (∗∗)
Les conditions aux limites sont E0 = EN = 0. Pour abaisser l'ordre de la récurrence, on écrit
l'égalité (**) sous la forme 1 + p(Ek+1 − Ek ) + q(Ek−1 − Ek ) = 0, on a donc 1 + p∆k − q∆k−1 = 0
où ∆k = Ek+1 − Ek .
Lorsque p = 1/2, la récurrence s'écrit 1 + (∆k − ∆k−1 )/2 = 0, donc ∆k − ∆k−1 = −2, ce qui
entraîne ∆k = ∆0 − 2k. On en déduit
k−1

Ek = E0 + ∆j = k∆0 − k(k − 1).
j=0

Comme EN = 0, on trouve ∆0 = N − 1. Finalement on a Ek = k(N − k) pour 0 ≤ k ≤ N .


Lorsque p = 1/2, on linéarise en recherchant α tel que p(∆k − α) − q(∆k−1 − α) = 0.
Ceci est vrai pour (−p + q)α = 1, c'est-à-dire α = 1/(q − p). Donc pour 0 < k < N , on a
∆k − α = (q/p)(∆k−1 − α). Donc ∆k − α = (∆0 − α)(q/p)k . On en déduit
k−1 k−1
  j 
  q 1 − (q/p)k
Ek = E0 + ∆j = α + (∆0 − α) = kα + (∆0 − α) .
p 1 − q/p
j=0 j=0

Comme EN = 0, on en déduit ∆0 − α = −N α(1 − q/p)/(1 − (q/p)N ). On a donc


 
1 − (q/p)k 1 1 − (q/p)k
∀k ∈ N, 0 ≤ k ≤ N, Ek = kα − N α = k−N .
1 − (q/p)N q−p 1 − (q/p)N

Remarque. Cet exercice modélise un joueur au casino avec une fortune initiale k , le casino
ayant une fortune N . La fortune du casino est bien plus grande que celle du joueur, donc
même si p = 1/2, le joueur est ruiné avec la probabilité 1 − k/N , proche de 1. En jouant
3. VARIABLES ALÉATOIRES DISCRÈTES 361

à la roulette, on a en fait p = 18/37 < 1/2 (lorsque la bille atterrit sur le "0", la banque
empoche toutes les mises), donc la probabilité de ruine du joueur, donnée par la deuxième
formule de 2/, est encore plus importante.

Exercice 11. 1/ Soit (Xn )n∈N∗ une suite de variables aléatoires indépendantes à valeurs
dans Z, suivant toutes une loi de Rademacher :
1 1
P (Xn = −1) = , P (Xn = 1) = .
2 2
On note Sn la variable dénie par Sn = X1 + · · · + Xn . Donner un équivalent, lorsque
n → +∞, de P (S2n = 0).
2/ (Généralisation) Soit K ∈ N∗ . Donner un équivalent de P (S2n = 0) lorsque les variables
aléatoires Xn sont indépendantes, à valeurs dans {2k + 1 − 2K, 0 ≤ k < 2K} = {1 −
2K, 3 − 2K, · · · , 2K − 1} et équidistribuées, c'est-à-dire
1
∀k ∈ 0, . . . , 2K − 1, P (Xn = 2k + 1 − 2K) = .
2K

Solution. 1/ On a S2n = 0 si et seulement si il y a exactement n valeurs parmi les (X


k )1≤k≤2n

2n
qui sont égales à 1 (et les n autres forcément égales à −1), donc P (S2n = 0) = 2−2n . On
√ n
obtient un équivalent de cette expression en utilisant la formule de Stirling m! ∼ 2πm(m/e)m ,
ce qui donne
 2n  
1 √ 2n 1  e n 2 1
P (S2n = 0) ∼ 2n 2π2n · √ =√ .
2 e 2πn n πn

2/ Lorsque K > 1, l'expression explicite de P (S2n = 0) est une somme multiple et n'est pas
adaptée au calcul d'un équivalent. On s'en sort en utilisant les fonctions caractéristiques (voir la
dénition 13 page 348). Puisque les Xk sont indépendantes et de même loi, la fonction caracté-
ristique ϕS2n de S2n s'exprime sous la forme
2K−1
1  ((2k+1)−2K)iθ
ϕS2n (θ) = ϕX1 (θ)2n , avec ϕX1 (θ) = e , (∗)
2K
k=0
et la formule (*) de la remarque 18 page 348 fournit l'identité
 π  π  π/2
1 1 2
P (S2n = 0) = ϕS2n (θ) dθ = ϕX1 (θ)2n dθ = ϕX1 (θ)2n dθ. (∗∗)
2π −π π 0 π 0
où on a utilisé la parité de la fonction 2π -périodique ϕX1 et l'identité ϕX1 (π − θ) = ϕX1 (θ). Pour
calculer un équivalent à partir de cette dernière expression, on va utiliser la méthode de Laplace
(voir le tome Analyse), que nous redémontrons ici dans notre contexte. L'approche consiste à
remarquer que ϕX1 (θ) admet son module maximum lorsque θ = 0, dictant ainsi la valeur de
l'intégrale. Au voisinage de θ = 0 (θ = 0) on a
e(1−2K)iθ e4Kiθ − 1 sin(2Kθ) 2Kθ − (2Kθ)3 /6 + o(θ3 )
ϕX1 (θ) = 2iθ
= = = 1−αθ2 +o(θ2 ), (∗∗∗)
2K e −1 2K sin(θ) 2K(θ − θ3 /6 + o(θ3 ))
où α = (4K 2 − 1)/6, on a donc ϕX1 (θ)2n ≈ e−2αnθ et donc la dernière intégrale de (**)
2

 
est approximée par 0π/2 e−2αn θ dθ ∼ (2αn)−1/2 0+∞ e−t dt (par le changement de variable
2 2

t = (2αn)1/2 θ).
Procédons maintenant rigoureusement. Soit ε > 0. L'estimation (***) entraîne ϕX1 (θ) =
donc il existe a ∈ ]0, π/2[ tel que
−αθ 2 (1+o(1))
e
∀θ ∈ [0, a], exp(−α(1 + ε)θ 2 ) ≤ ϕX1 (θ) ≤ exp(−α(1 − ε)θ2 )
362 6. PROBABILITÉS

donc  a  a  a
2 2
e−2nα(1+ε)θ dθ ≤ ϕX1 (θ)2n dθ ≤ e−2nα(1−ε)θ dθ.
0 0 0
Un équivalent des deux intégrales qui encadrent celle du milieu est obtenu avec le résultat suivant :
 a  a(nβ)1/2  +∞
2 2 I 2
∀β > 0, e−nβθ dθ = (nβ)−1/2 e−t dt ∼ , I= e−t dt.
0 0 (nβ)1/2 0
En appliquant ce résultat avec β = 2α(1 + ε) puis β = 2α(1 − ε), on en déduit l'existence de
N ∈ N∗ tel que pour tout n ≥ N
 a
I I
(1 − ε) ≤ ϕX1 (θ)2n dθ ≤ (1 + ε).
(2nα(1 + ε))1/2 0 (2nα(1 − ε))1/2
On majore ensuite |ϕX1 (θ)| sur [a, π/2] à partir de son expression sous forme de somme dans
(*) dont les termes d'indice K − 1 et K valent respectivement e−iθ et eiθ , et les autres ont leur
module majorés par 1. Ceci permet d'écrire
2K − 2 + 2 cos θ 2K + 2(cos a − 1)
∀θ ∈ [a, π/2], |ϕX1 (θ)| ≤ ≤ q, avec q = < 1.
2K 2K
 π/2
Donc | a ϕX1 (θ)2n dθ| ≤ (π/2)q 2n , et pour tout n ≥ N
 π/2
I 1−ε π 2n I 1+ε π
1/2 1/2
− q ≤ ϕX1 (θ)2n dθ ≤ 1/2 1/2
+ q 2n .
(2nα) (1 + ε) 2 0 (2nα) (1 − ε) 2
Comme 0 < q < 1, on a q 2n = o(n−1/2 ) donc ceci entraîne l'existence de N1 ≥ N tel que
 π/2
I (1 − ε)2 I (1 + ε)2
∀n ≥ N1 , 1/2 1/2
≤ ϕX1 (θ)2n dθ ≤ .
(2nα) (1 + ε) 0 (2nα) (1 − ε)1/2
1/2

L'existence de N1 étant assurée pour tout ε > 0, les deux fonctions de ε en présence étant
continues en ε = 0, on en déduit que 0π/2 ϕX1 (θ)2n dθ ∼ I/(2nα)1/2 . Compte tenu de la valeur
de α = (4K 2 − 1)/6 et avec (**) on en déduit
2 I
P (S2n = 0) ∼ .
π ((4K − 1)n/3)1/2
2

La valeur de I est classique (voir le tome Analyse), ici on peut la retrouver à partir de l'équivalent

obtenu dans
√ la question précédente, qui correspond au cas K = 1, ce qui fournit 2I/π = 1/ π ,
donc I = π/2. En conclusion on a donc
1
P (S2n = 0) ∼ .
((4K 2 − 1)πn/3)1/2

Exercice 12 (Loi faible des grands nombres, cas L1 ). Soit (Xn )n∈N∗ une suite
de variables aléatoires discrètes réelles, indépendantes, identiquement distribuées, et ad-
mettant une espérance (on ne suppose pas que les Xn admettent une variance).
1/ Montrer que (Xn )n∈N∗ converge en probabilité vers m = E(X1 ), c'est-à-dire
∀ε > 0, lim P (|(X1 + · · · + Xn )/n − m| > ε) = 0.
n→+∞

(indication : considérer la variable aléatoire tronquée Yn = Xn × 1|Xn |≤M (où 1A est la


fonction indicatrice de A dénie par 1A (ω) = 1 si ω ∈ A, = 0 sinon), avec M bien choisi).
2/ Montrer que même si les Xn admettent tous une espérance, égale à m, ce résultat est
faux si on ne suppose pas les Xn identiquement distribuées.
Solution. 1/ Quitte à considérer la suite (Xn − m), on peut supposer m = 0. Par commodité,
pour toute suite (An )n∈N∗ de variables aléatoires réelles, on note (An )n∈N∗ la suite de variables
aléatoires des moyennes, dénie par An = (A1 + · · · + An )/n.
3. VARIABLES ALÉATOIRES DISCRÈTES 363

Soit ε > 0. On suit l'indication en considèrant la variable aléatoire tronquée Yn = Xn 1|Xn |≤M ,
où la valeur de M > 0 sera choisie plus tard. On note Zn = Xn − Yn = Xn 1|Xn |>M . On a
X n = X n − E(X n ) = (Y n − E(Y n )) + (Z n − E(Z n )).
Donc si |X n | ≥ 2ε alors |Y n − E(Y n )| ≥ ε ou |Z n − E(Z n )| ≥ ε, ce qui entraîne
P (|X n | ≥ 2ε) ≤ P (|Y n − E(Y n )| ≥ ε) + P (|Z n − E(Z n )| ≥ ε).
Comme Yk est bornée, à valeur dans [−M, M ], elle admet un moment d'ordre 2 et sa variance
vérie V (Yk ) ≤ E(Yk2 ) ≤ M 2 . En appliquant l'inégalité de Bienaymé-Tchébyche on a donc
n
V (Y n )  V (Yk ) M2
P (|Y n − E(Y n )| ≥ ε) ≤ 2
= 2 2
≤ 2.
ε n ε nε
k=1

Par ailleurs, l'inégalité de Markov fournit


n
E(|Z n − E(Z n )|) 2E(|Z n |) 2  E(|Zk |) 2E(|X1 | 1|X1 |≥M )
P (|Z n − E(Z n )| ≥ ε) ≤ ≤ ≤ = .
ε ε ε n ε
k=1

On a E(|X1 | 1|X1 |≥M ) = x∈X1 (Ω),|x|≥M |x|P (X1 = x) donc E(|X1 | 1|X1 |≥M ) tend vers 0 lorsque
M → +∞. Choisissons M de sorte que E(|X1 | 1|X1 |≥M ) ≤ ε2 . On a alors P (|Z n − E(Z n )| ≥
ε) ≤ 2ε. On a donc nalement montré
M2
P (|X n | ≥ 2ε) ≤ + 2ε,
nε2
donc lorsque n ≥ M 2 /ε3 , on a P (|X n | ≥ 2ε) ≤ 3ε.
Fixons nous maintenant δ > 0. Soit ε > 0, ε ≤ δ/2. D'après ce que nous venons de montrer,
il existe N ∈ N∗ tel que pour tout n ≥ N , on a P (|X n | ≥ 2ε) ≤ 3ε. On en déduit que pour
n ≥ N , P (|X n | ≥ δ) ≤ P (|X n | ≥ 2ε) ≤ 3ε. On a donc bien limn→+∞ P (|X n | ≥ δ) = 0.
2/ Considérons une suite de variables aléatoires (Xn )n∈N∗ indépendantes vériant P (Xn = −1) =
1 − 1/n2 et P (Xn = n2 − 1) = 1/n2 . Pour tout n on a E(Xn ) = 0 et
n 
   
1 1
P (X1 = 0, X2 = −1, . . . , Xn = −1) = 1− = e−(u2 +···+un ) , uk = log .
k2 1 − 1/k 2
k=2

La série à termes positifs uk converge car uk ∼ 1/k 2 . En notant S sa somme on a donc
∀n ∈ N∗ , P (X1 + · · · + Xn = 1 − n) ≥ P (X1 = 0, X2 = −1, . . . , Xn = −1) ≥ e−S .
Donc P (|(X1 + · · · + Xn )/n)| ≥ 1/2) ≥ P (X1 + · · · + Xn = 1 − n) ≥ e−S ne tend pas vers 0. Le
résultat 1/ est donc faux avec ε = 1/2.
Remarque. Même si les Xn ne sont pas identiquement distribuées, le résultat 1/ reste vrai
si on suppose que les Xn ont la même espérance, et sont equi-sommables, c'est-à-dire si
∀ε > 0, ∃M > 0, ∀n ∈ N∗ , E(|Xn |1|Xn |≥M ) ≤ ε.

Exercice 13 (Loi forte des grands nombres, cas L4 ). Soit (Xn )n∈N∗ une suite
de variables aléatoires discrètes réelles, indépendantes. On suppose que les Xn admettent
toutes un moment d'ordre 4 et sont centrées, et qu'il existe K > 0 tel que E(Xn4 ) ≤ K
pour tout n ∈ N∗ .
1/ Montrer que chaque Xk admet des moments d'ordre 1, 2 et 3. Pour tout n ∈ N∗ , on
note Sn = X1 + · · · + Xn , montrer que
n
 
E(Sn4 ) = E(Xi4 ) + 3 E(Xi2 Xj2 ),
i=1 1≤i,j≤n,i=j
364 6. PROBABILITÉS

puis montrer que E(Sn4 ) ≤ 3n2 K . 


2/ En déduire que pour tout ε > 0, n P (|Sn /n| > ε) converge, puis que presque sur-
ement, limn→+∞ Sn /n = 0.
Solution. 1/ Comme vu dans la remarque 8 page 339, l'inégalité |Xk |m ≤ 1 + |Xk |4 pour
1 ≤ m ≤ 3 montre que Xk admet bien un moment d'ordre 1, 2 et 3. Montrons maintenant
l'identité demandée. On a

E(Sn4 ) = E(Xi1 Xi2 Xi3 Xi4 ). (∗)
1≤i1 ,i2 ,i3 ,i4 ≤n

S'il existe k  ∈ {1, 2, 3, 4} tel que ik n'apparait qu'une fois parmi i1 , i2 , i3 , i4 , alors Xik est indé-
pendant de j=k Xij , donc E(Xi1 Xi2 Xi3 Xi4 ) = E(Xik )E( j=k Xij ) = 0. On peut donc retirer
dans la somme (*) tous les termes dont un (au moins) des indices ik n'apparait qu'une fois parmi
i1 , i2 , i3 , i4 . Il ne reste donc que les termes pour lesquels chaque indice ik apparait au moins deux
fois parmi i1 , i2 , i3 , i4 . Ces indices sont soit de la forme (i1 , i2 , i3 , i4 ) = (i, i, i, i) avec 1 ≤ i ≤ n,
soit de la forme (i1 , i2 , i3 , i4 ) = (i, i, j, j) avec i = j , soit (i1 , i2 , i3 , i4 ) = (i, j, i, j) avec i = j , soit
(i1 , i2 , i3 , i4 ) = (i, j, j, i) avec i = j . En résumé on a donc
n
 
E(Sn4 ) = E(Xi4 ) + 3 E(Xi2 Xj2 ). (∗∗)
i=1 1≤i,j≤n,i=j

Lorsque i = j , l'indépendance de Xi et Xj entraîne E(Xi2 Xj2 ) = E(Xi2 )E(Xj2 ). Comme E(Xi2 )2 ≤


E(Xi4 ) (car E(Xi4 ) − E(Xi2 )2 = V (Xi2 ) ≥ 0), on en déduit E(Xi2 Xj2 ) ≤ E(Xi4 )1/2 E(Xj4 )1/2 ≤ K .
Finalement (**) donne E(Sn4 ) ≤ nK + 3n(n − 1)K ≤ 3n2 K .
2/ L'inégalité de Markov et le résultat de la question précédente permet d'écrire, pour tout ε > 0
     
 Sn  4
Sn E((Sn /n)4 ) 3K
P   > ε = P >ε4
≤ ≤ 2 4,
n n ε4 n ε

donc la série P (|Sn /n| > ε) converge. Le lemme de Borel Cantelli nous assure donc l'existence
d'un événement presque sûr A(ε) sur lequel il n'y a qu'un nombre ni de n tel que |Sn /n| > ε.
L'événement A = ∩p∈N∗ A(1/p), intersection dénombrable d'événements presque sûrs, est presque
sûr, et sur A on a limn→+∞ Sn /n = 0 (pour tout ε > 0, choisissons p ∈ N∗ tel que 1/p < ε ;
l'inclusion Ap ⊂ A entraîne qu'il n'y a qu'un nombre ni de n tel que |Sn /n| > 1/p, donc il existe
N ∈ N∗ tel que pour n ≥ N , |Sn /n| ≤ 1/p < ε).
Remarque. Ce résultat est plus fort que celui obtenu à la question 2/ de l'exercice 7
page 352 dans le cas des variables aléatoires bornées (toute variable aléatoire bornée
admet un moment d'ordre 4).

4. Problèmes
Problème 1. 1/ Soit n ∈ N, n ≥ 2. On place n boules de manière aléatoire, équiprobable,
et indépendante, dans n urnes. Pour tout i on note Ni la variable aléatoire qui compte le
nombre de boules dans l'urne numéro i, et Mn = max1≤i≤n Ni .
a) Quelle est la proportion moyenne d'urnes vides, et sa limite lorsque n → +∞ ?
b) Calculer les lois de Ni , puis montrer que pour tout k ∈ N∗ , P (Mn = k) ≤ n/k!. Les Ni
sont elles indépendantes ?
c) Montrer que pour tout ε > 0, on a limn→+∞ P (Mn > (1 + ε) log n/ log log n) = 0.
2/ Dans 1/, la non-indépendance des Ni rend dicile l'obtention d'une borne minimum
en probabilité pour Mn . Pour ce faire, on modie l'expérience aléatoire, en se plaçant
dans le cas où le nombre de boules placées aléatoirement dans les n urnes est une variable
4. PROBLÈMES 365

aléatoire K qui suit une loi de Poisson de paramètre nα, où α > 0 est xé. Par simplicité,
on note toujours Ni le nombre de boules dans l'urne numéro i et Mn,α = max1≤i≤n Ni .
a) Montrer que les Ni sont indépendantes et suivent une loi de Poisson de paramètre α.
b) Montrer que Mn,α log log n/ log n converge vers 1 en probabilité, c'est-à-dire
  
 Mn,α 
∀ε > 0, 
lim P  
− 1 > ε = 0.
n→+∞ log n/ log log n

c) En déduire que Mn log log n/ log n converge vers 1 en probabilité (où Mn est la variable
aléatoire dénie dans la question 1/).
Solution. 1/a) Une urne donnée est vide si chacun des n placements se fait dans les n − 1 autres
urnes, elle a donc une probabilité pn = (1 − 1/n)n d'être vide. Notons Xi la variable aléatoire qui
vaut 1 sur l'urne numéro  i est vide, 0 sinon. Elle suit une loi de
Bernoulli de paramètre pn , et le
nombre d'urnes vides est ni=1 Xi , et le nombre moyen égal à ni=1 E(Xi ) = npn . La proportion
moyenne d'urnes vides est donc pn = (1 − 1/n)n , et sa limite est 1/e lorsque n → +∞.
b) Soit k ∈ {0, . . . , n}. On a Ni = k si et seulement si on choisit k boules parmi les n, chacune
de ces k boules se trouvant dans l'urne numéro i (avec probabilité 1/n), et les n − k autres se
trouvant dans les autres urnes (avec probabilité 1 − 1/n). Donc
   k  
n 1 n − 1 n−k
P (Ni = k) = .
k n n
On en déduit l'inégalité
 n−k
n(n − 1) · · · (n − k + 1) 1 n−1 1
P (Ni = k) = ≤ .
nk k! n k!
Or {Mn = k} ⊂ ∪ni=1 {Ni = k} donc
n
 n
P (Mn = k) ≤ P (Ni = k) ≤ .
k!
i=1

Les Ni ne sont pas indépendantes car P (N1 = n, N2 = 1) = 0 et P (N1 = n)P (N2 = 1) = 0.


c) D'après la question précédente on a
n
  
n n 1 1 n
∀m ∈ N∗ , P (Mn > m) ≤ = + + ··· ≤ .
k! m! m + 1 (m + 1)(m + 2) m!
k=m+1

Notons mn est le plus petit entier m > 0 vériant n ≤ m!, de sorte que (mn − 1)! < n ≤ mn !.
On a log((mn − 1)!) ≤ log n < log(mn !). La formule de Stirling entraîne log m! ∼ m log m,
donc on a mn log mn ∼ log n. En considérant le logarithme des deux membres, ceci entraîne
log mn ∼ log log n, et en reinjectant, on obtient mn ∼ log n/ log mn ∼ log n/ log log n. Notons
que P (Mn > mn + 1) ≤ 1/(mn + 1) → 0. Soit ε > 0. Il existe n0 ∈ N tel que pour tout n ≥ n0 ,
mn + 1 < (1 + ε) log n/ log log n, donc pour tout n ≥ n0 on a P (Mn > (1 + ε) log n/ log log n) ≤
P (Mn > mn + 1) ≤ 1/(mn + 1), d'où le résultat.
2/a) Nous sommes dans le cas équiprobable. Ainsi, la probabilité d'avoir ik boules dans l'urne
k pour 1 ≤ k ≤ n, lorsque i1 + · · · + in = m, est égale à
 
m 1 m! 1
P (N1 = i1 , , . . . , Nn = in | K = m) = m
= ,
i 1 , . . . , in n i 1 ! · · · i n ! nm
donc
P (N1 = i1 , . . . , Nn = in ) = P (N1 = i1 , . . . , Nn = in | K = i1 + · · · + in )P (K = i1 + · · · + in )
i1 +···+in n
 ik
(i1 + · · · + in )! 1 −nα (nα) −α α
= i +···+i
e = e ,
i1 ! · · · i n ! n1 n (i1 + · · · + in )! ik !
k=1
366 6. PROBABILITÉS

qui s'exprime comme le produit de n lois de Poisson de paramètre α. Ceci démontre le résultat
souhaité.
b) Notons Mn,α∗ = M
n,α log log n/ log n. Pour démontrer la convergence en probabilité de Mn,α

vers 1, il sut de montrer que la fonction de répartition Fn (x) = P (Mn,α ≤ x) vérie : ∀ε > 0,

Fn (1 − ε) → 0 et Fn (1 + ε) → 1. Pour tout x > 0 on a


   n
log n log n log n
Fn (x) = P N1 ≤ x , . . . , Nn ≤ x =P N1 ≤ x .
log log n log log n log log n
Soit x > 0 et notons un = 1 + [x log n/ log log n]. On a
  +∞

log n αk
P N1 ≤ x = 1 − P (N1 ≥ un ), P (N1 ≥ un ) = e−α .
log log n k!
k=un
Or
 
α un 1 1 α un
P (N1 ≥ un ) = e−α 1+ + + ··· = e−α (1 + o(1)).
un ! un + 1 (un + 1)(un + 2) un !
Comme un → +∞, on en déduit P (N1 ≥ un ) → 0 et de plus
 
log n α un
log P N1 ≤ x ∼ −P (N1 ≥ un ) ∼ −e−α .
log log n un !
Or
α un
e−α = exp (−α + un log α − log(un !)) = exp (−un log(un )(1 + o(1))) ,
un !
ou nous avons encore une fois utilisé l'équivalent log un ! ∼ un log un . La dénition de un entraîne
un log un ∼ x log n, donc e−α αun /un ! = exp(−x log n(1 + o(1))) = n−x+o(1) . On en déduit
      
log n
Fn (x) = exp n log P N1 ≤ x = exp −n n−x+o(1) (1 + o(1)) = exp −n1−x+o(1)
log log n
donc si x < 1, Fn (x) → 0 et si x > 1, Fn (x) → 1, ce qu'il fallait démontrer.
c) L'idée est de comparer K à n, et comparer Mn à Mn,α . Pour ce faire, on commence par xer
un nombre α ∈ ]0, 1[ quelconque (par exemple α = 1/2) et noter Kn,α la variable aléatoire K
(elle dépend de n et α). La variable Kn,α suit une loi de Poisson de paramètre αn, sa moyenne
et sa variance est αn, donc l'inégalité de Bienaymé-Tchébyche fournit
V (Kn,α ) α
P (|Kn,α − nα| > (1 − α)n) ≤ = . (∗)
(1 − α)2 n2 (1 − α)2 n
Pour pouvoir comparer Mn et Mn,α , il faut que ces variables aléatoires soient associées à
une même expérience aléatoire. Pour ce faire, on considère une suite de variables aléatoires
indépendantes (Xk ) et suivant toutes la loi uniforme sur {1, . . . , n}, et une variable aléatoire
Kn,α indépendante des (Xk ) et suivant une loi de Poisson de paramètre nα. On dénit alors les
variables aléatoires
Kn,α n
 
Nk (n, α) = 1{Xi =k} et Nk = 1{Xi =k}
i=1 i=1
puis
Mn,α = max{N1 (n, α), . . . , Nn (n, α)} et Mn = max{N1 , . . . , Nn }.
Ainsi dénie, Mn (respectivement Mn,α ) est bien le nombre maximum de boules dans une même
urne, lorsqu'on place n boules (respectivement Kn,α boules). On peut maintenant comparer ces
variables aléatoires, de sorte que lorsque K(n, α) ≤ n, on a Mn,α ≤ Mn . Ainsi pour tout m > 0
on peut écrire
{Mn < m} = {Mn < m, Kn,α ≤ n} ∪ {Mn < m, Kn,α > n} ⊂ {Mn,α < m} ∪ {Kn,α > n}
donc en l'appliquant avec m = (1 − ε) log n/ log log n on obtient
   
log n log n
P Mn < (1 − ε) ≤P Mn,α < (1 − ε) + P (Kn,α > n).
log log n log log n
4. PROBLÈMES 367

D'après la question précédente et d'après (*), le terme de droite tend vers 0, donc le terme de
gauche tend vers 0. Avec le résultat établi en 1/c), on en déduit que Mn log log n/ log n converge
vers 1 en probabilité (nous aurions pu prouver que P (Mn > (1 + ε) log n/ log log n) → 0 sans
1/c), en utilisant une approche similaire à utilisée ici mais en choisissant α > 1).

Problème 2. Soit p, n ∈ N∗ avec p < n. On veut déterminer le nombre T (n, p) de façons


de placer p chaises blanches et q = n − p chaises noires autour d'une table ronde de n
places (on ne compte que le placement relatif des chaises).
1/ Calculer T (n, p) dans le cas où p et q sont premiers entre eux.
2/ (Cas général) a) Soit m ∈ N∗ et f, g deux fonctions réelles dénies (au moins) sur
l'ensemble Dm des diviseurs de m. On dénit la convolution de Dirichlet de f et g , et on
note f ∗ g , la fonction dénie sur Dm par

∀k ∈ Dm , (f ∗ g)(k) = f (d)g(k/d). (∗)
d|k

Montrer que la loi ∗ ainsi dénie sur les fonctions de Dm vers R, est commutative et
associative.
b) On considère la fonction de Möbius µ dénie sur N∗ par µ(1) = 1 et

(−1)k si m est le produit de k nombres premiers distincts,
µ(m) =
0 si m est divisible par un carré d'un nombre premier .

Montrer que d|m µ(d) = 0 si m > 1, = 1 si m = 1.
c) (formule d'inversion de Möbius ) : Soit m ∈ N∗ . Si
f et g sont deux fonctions dénies
sur Dm et si pour tout diviseur  de m on a g() = d| f (d), alors montrer que

∀k ∈ N∗ , k | m, f (k) = µ(d)g(k/d).
d|k

d) En notant ϕ(k) l'indicateur d'Euler de l'entier k, montrer que



∀k ∈ N∗ , ϕ(k) = d · µ(k/d).
d|k

e) En notant α = pgcd (p, q), montrer que


 
1 n/d
T (n, p) = ϕ(d)
n p/d
d|α

(pour tout entier r, on utilisera l'inversion de Möbius pour calculer le nombre Cr (n, p) de
placements relatifs x de p chaises blanches et q = n − p noires, tels que r(x) = r, où r(x)
désigne le plus petit entier k > 0 tel que x est invariant à une rotation de k chaises).
Solution. 1/ On note E = {B, N} l'ensemble des couleurs de chaises possibles (blanche ou noire).
Chaque placement absolu (ici on ne compte pas les placements relatifs) de p chaises blanches et
q chaises noires autour de la table est représenté par l'ensemble Pp des n-listes x = (x1 , . . .
, xn)
n
de E , contenant p fois l'élément B (et forcément q = n − p fois l'élément N). On a donc
p
placements absolus possibles.
On regroupe ensuite les emplacements égaux à une permutation prés. Pour cela, on considère
les permutations circulaires G = {γ k , 0 ≤ k < n} de {1, . . . , n}, où γ est le cycle (1, 2, . . . , n).
On fait opérer G (sous-groupe de Sn ) sur Pp , en dénissant, pour tout k ∈ N, k < n
∀x = (x1 , . . . , xn ) ∈ Pp , γ k (x) = (xγ k (1) , . . . , xγ k (n) ) = (xk+1 , . . . , xn , x1 , . . . , xk ),
368 6. PROBABILITÉS

le placement x après une rotation de k chaises. On considère la relation d'intransitivité sur Pp ,


dénie par : x R y si et seulement s'il existe k ∈ {0, . . . , n − 1} tel que y = γ k (x) (voir la
dénition 17 page 23). La classe d'équivalence de x est l'orbite Gx = {γ k (x), k ∈ N}.
Soit x = (x1 , . . . , xn ) ∈ Pp . Prouvons que |Gx | = n. Notons m le plus petit entier > 0
tel que γ m (x) = x. On a Gx = {x, γ(x), . . . , γ m−1 (x)} et |Gx | = m (si 0 ≤ i < j < m
alors γ i (x) = γ j (x), sinon on aurait γ j−i (x) = x, ce qui contredit la dénition de m). Comme
γ n (x) = x, on a forcément m | n (il sut d'écrire n = am + b, avec a, b ∈ N et 0 ≤ b < m, qui
entraîne γ b (x) = x donc b = 0 par minimalité de m). Soit c ∈ N∗ tel que n = mc. Pour tout
k ∈ {1, . . . , m}, l'ensemble des indices Ik = {k, k + m, . . . , k + (c − 1)m} vérie x = xk pour
tout ∈ Ik . En notant RB = {k ∈ {1, . . . , m} | xk = B} et RN = {k ∈ {1, . . . , m} | xk = N}, on
en déduit que les (Ik )k∈RB (resp. les (Ik )k∈RN ) forment une partition des indices correspondants
aux chaises blanches (resp. noires). Comme les Ik ont tous cardinal c, on en déduit p = c |RB | et
q = c |RN |. Donc c | p et c | q . On vient donc de prouver le résultat suivant :
∀x ∈ Pp , |Gx | | n et c = n/|Gx | vérie c | p et c | q . (∗∗)
Ici p et q sont supposés premiers entre eux, on a donc c = 1 et |Gx | = n. Ainsi, à chaqueplacement

1 n
relatif des chaises, correspond n placements absolus distincts, on a donc T (n, p) = .
n p
2/a) La commutativité de la loi est immédiate en remarquant que

(f ∗ g)(k) = f (a)g(b).
(a,b)∈N2 ,ab=k

Démontrons l'associativité. Soient f, g, h trois fonctions réelles dénies sur Dm . Si k ∈ Dm on a


   
((f ∗ g) ∗ h)(k) = (f ∗ g)(a) h(b) = f (c)g(d)h(b) = f (c)g(d)h(b),
(a,b)∈N2 (a,b)∈N2 (c,d)∈N2 (b,c,d)∈N3
ab=k ab=k cd=a bcd=k

et
   
(f ∗ (g ∗ h))(k) = f (a)(g ∗ h)(b) = f (a)g(c)h(d) = f (a)g(c)h(d).
(a,b)∈N2 (a,b)∈N2 (c,d)∈N2 (a,c,d)∈N3
ab=k ab=k cd=b acd=k

On en déduit ((f ∗ g) ∗ h)(k) = (f ∗ (g ∗ h))(k), donc la loi ∗ est bien associative.


b) Pour m = 1 le résultat est évident. Supposons m > 1 et considérons sa décomposition en
facteurs premiers m = pα1 1 · · · pαk k . Notons P = {p1 , . . . , pk }. Il sut d'écrire
  k  
     k
µ(d) = µ p = (−1)|Q| = (−1)j = (1 − 1)k = 0.
j
d|m Q⊂P p∈Q Q⊂P j=0

c) En notant 1 la fonction égale à 1 sur Dm , et δ celle dénie par δ(k) = 1 si k = 1, = 0 sinon,


le résultat de la question précédente s'écrit 1 ∗ µ = δ . Or ici, par hypothèse, on a g = 1 ∗ f , donc
µ ∗ g = µ ∗ (1 ∗ f ) = (µ ∗ 1) ∗ f = δ ∗ f = f , ce qui montre le résultat.

d) L'indicateur d'Euler vérie la relation classique d|k ϕ(d) = k (voir la proposition 6 page 34).
Autrement dit ϕ∗1 = Id, où Id est la fonction identité. Donc ϕ∗1∗µ = Id ∗µ, et comme 1∗µ = δ
on en déduit ϕ = Id ∗µ, d'où le résultat.
e) On utilise les notations introduites à la solution de la question 1/. On suit l'indication, et on
remarque que r(x) = |Gx |. D'après le résultat (**), on a forcément n = r(x)c où c est un entier
vériant c | p et c | q , donc c | pgcd(p, q) = α. Notons p = p/α, q  = q/α et n = n/α. On a
donc r(x) = dn avec d | α. Notons Θ une partie de Pp contenant exactement un représentant de
chaque classe Gx , et Θr = {x ∈ Θ | r(x) = r}. On a
     
n
= |Pp | = |Gx | = |Gx | = (dn ) Cdn (n, p) (∗∗∗)
p
x∈Θ d|α x∈Θdn d|α
4. PROBLÈMES 369

où on a noté Cr (n, p) = |Θr |. On rapproche ceci de la question 2/b), en remarquant que cette
expression s'écrit aussi
  
n
g(α) = f (d), avec g() = et f (k) = kn Ckn (n, p).
p
d|α

Lorsque β | α, la formule (***) appliquée en remplaçant n par βn et p par βp fournit

g(β) = (dn ) Cdn (βn , βp ).
d|β

Or lorsque β | α et d | β , on a Cdn (βn , βp ) = Cdn (n, p) puisque les placements x invariants à une
rotation de r = dn chaises sont uniquement déterminés par les r premières valeurs (x1 , . . . , xr ),
qui doivent contenir dp fois B et dq  fois N, et ne dépendent donc pas du nombre total de chaises
de la table (qui est un multiple de r). Ainsi on peut écrire g(β) = d|β f (d) pour tout diviseur
β de α. Nous sommes donc dans les conditions d'application de la question 2/c) avec m = α, ce
qui entraîne f = µ ∗ g . Or on a
   1
T (n, p) = |Θ| = |Θβn | = Cβn (n, p) = f (β),
βn
β|α β|α β|α

on en déduit 
nT (n, p) = (α/β)f (β) = (Id ∗f )(α).
β|α
Or Id ∗f = Id ∗(µ ∗ g) = (Id ∗µ) ∗ g = ϕ ∗ g , et on conclut en écrivant
   
n/d
nT (n, p) = (ϕ ∗ g)(α) = ϕ(d)g(α/d) = ϕ(d) .
p/d
d|α d|α

Problème 3. 1/ Pour toute famille d'ensembles de permutations P = (Pn )n∈N∗ , avec


Pn ⊂ Sn (où Sn désigne le groupe symétrique d'indice n), on note ΦP (z) la série généra-
trice exponentielle de P dénie par
+∞
 |Pn |
ΦP (z) = zn.
n=1
n!
a) Montrer que ΦP a toujours un rayon de convergence ≥ 1.
b) Soit N une partie de N∗ . Pour tout n ∈ N∗ , on note Pn (N ) les permutations s de Sn
dont la longueur des cycles (dans la décomposition de s en produit de cycles) est dans
l'ensemble N , et pour k ∈ N∗ on note Pn (N, k) l'ensemble des permutations de Pn (N ) qui
s'écrivent comme le produit de k cycles. Montrer que la série génératrice
 exponentielle de
P(N, k) = (Pn (N, k))n∈N∗ est égale à CN (z)k /k!, où CN (z) = n∈N z n /n.
c) En déduire que la série génératrice exponentielle de P(N ) = (Pn (N ))n∈N∗ est égale à
ΦP(N ) (z) = exp(CN (z)) − 1.
2/a) Expliciter la série génératrice exponentielle des familles d'ensembles de permutations
sans point xe, et montrer que la probabilité qu'une permutation de {1, . . . , n} n'ait aucun
point xe converge vers 1/e lorsque n → +∞.
b) Donner l'expression puis un comportement asymptotique, lorsque n → +∞, de la
probabilité qu'une permutation de {1, . . . , n} n'ait que des cycles de longueur paire.
3/ Soit m ∈ N∗ , désormais xé. On note Hm = 1 + 1/2 + · · · + 1/m.
a) Montrer que la fonction
2 /2−···−z m /m
e−z−z e−Hm
ϕm : D∗ = {z | |z| ≤ 1, z = 1}, z → −
1−z 1−z
370 6. PROBABILITÉS

est continue, et prolongeable par continuité sur D = {z | |z| ≤ 1} = D∗ ∪ {1}.


b) Montrer que pour tout n ∈ N∗ , la probabilité pn (m) qu'une permutation de {1, . . . , n}
ait tout ses cycles de longueur > m vérie
 2π
1
pn (m) = e−Hm + ϕm (eit )e−int dt.
2π 0

c) En déduire que lorsque n → +∞, la probabilité qu'une permutation de {1, . . . , n} ait


tout ses cycles de longueur > m, converge vers e−Hm .
Solution. 1/a) Pour tout
n∈ N∗ , on a 0 ≤ |Pn | ≤ |Sn | = n!, donc 0 ≤ |Pn |/n! ≤ 1. On en
déduit que la série entière |Pn |/n! z n a un rayon de convergence ≥ 1.
b) On prouve le résultat par récurrence sur k ∈ N∗ . Pour k = 1 c'est immédiat, car on a (n − 1)!
cycles de longueur n dans Sn (pour construire un cycle c de longueur n dans Sn , il y a n − 1
valeurs possibles pour c(1), puis n − 2 pour c2 (1), . . ., 1 valeur possible pour cn−1 (1), donc un
total de (n − 1)! cycles possibles en tout), donc |Pn (N, 1)|/n! = 1/n si n ∈ N , = 0 sinon.
Supposons le résultat vérié pour k − 1 et montrons le pour k. Une permutation s de Pn (N, k)
s'écrit comme le produit d'un cycle c1 de longueur m ∈ N , portant sur m entiers choisis parmi
{1, . . . , n}, et d'une permutation des n − m autres entiers, qui s'écrit comme le produit de k − 1
cycles de longueur dans N . Il y a k manières diérentes d'écrire s sous cette forme, car c1 peut
être l'un des k cycles de s. On a donc
 n
k|Pn (N, k)| = (m − 1)! |Pn−m (N, k − 1)|,
m
m∈N

ce qui s'écrit aussi


|Pn (N, k)|  1 |Pn−m (N, k − 1)|
k = .
n! m (n − m)!
m∈N

On reconnait dans cette expression un produit de Cauchy ; on en déduit, pour |z| < 1,
+∞
   +∞ 
 |Pn (N, k)|  zm  |P (N, k − 1)|
n 
k z = z .
n! m !
n=1 m∈N =1

On a donc kΦP(N,k) (z) = CN (z)ΦP(N,k−1) (z) = CN (z)k /(k − 1)!. Ceci démontre le résultat
souhaité.
c) Soit n ∈ N∗ . Chaque permutation dans Pn (N
 n) a au plus n cycles,
n donc |P n (N )|/n! =
k=1 |Pn (N, k)|/n! est le coecient de z dans k=1 CN (z) /k!. Or pour
n n k
k=1 ΦP(N,k) (z) =
k > n, le coecient de z n dans CN (z)k est nul (car le coecient
 constant 
de CN (z) est nul).
On en déduit que |Pn (N )|/n! est le coecient de z n dans nk=1 CN (z)k /k! + k>n CN (z)k /k! =
exp(CN (z)) − 1.
2/a) Une permutation s ∈ Sn est sans point xe si et seulement si aucun de ses cycles a une
longueur de 1 dans sa décomposition en produits de cycles, ce qui revient à écrire s ∈ Pn (N )
avec N = {k ∈ N, k ≥ 2}. D'après la question précédente, la série génératrice exponentielle

des permutations sans point xe est donc Φ(z) = exp(CN (z)) − 1 avec CN (z) = +∞ k=2 z /k .
k

Or lorsque z ∈ ] − 1, 1[ , la forme du développement en série entière de log(1 − z) entraîne


CN (z) = −z − log(1 − z) donc
 +∞   +∞   n
+∞ 

exp(−z)  (−1)k   (−1)k
k 
∀z ∈ ] − 1, 1[ Φ(z) = −1= z z −1= zn.
1−z k! k!
k=0 =0 n=1 k=0

Le nombre Dn de permutations
+∞
sans point xes dans Sn vérie donc Dn /n! = nk=0 (−1)k /k!.
Comme 1/e = exp(−1) = k=0 (−1)k /k!, on a bien limn→+∞ Dn /n! = 1/e, ce qu'il fallait
démontrer.
4. PROBLÈMES 371

b) Le cas des permutations n'ayant que des cycles de longueur paire correspond au cas où
N = {2k | k ∈ N}, donc
+∞ 2k
  
z 1 1
∀z ∈ ] − 1, 1[ CN (z) = = log .
2k 2 1 − z2
k=1

On en déduit que la série génératrice expoentielle des permutations correspondantes vérie, pour
tout z ∈ ] − 1, 1[ ,
 1/2 +∞

1 1 1 3 2m − 1 (2m)!
Φ(z) = −1= am z 2m , avec am = · · ··· = 2m .
1 − z2 m! 2 2 2 2 (m!)2
m=1

Ainsi, lorsque n est impair, il n'y a pas de permutation dans Sn qui s'écrit comme produit de
cycles de longueur paire, et lorsque n = 2m est pair, il y en a n!am = 2−2m ((2m)!)2 /(m!)2 . La
probabilité qu'une permutation dans S2m ait tout ses cycles de longueur paire est égal à am ,
dont on calcule le comportement asymptotique avec la formule de Stirling

4πm(2m/e)2m
1 1
am ∼ 2m √ =√ .
2 ( 2πm(m/e)m )2 πm

3/a) La continuité de ϕm par rapport à la variable complexe z sur D∗ est immédiate d'après la
forme de ϕm (z). Lorsque z ∈ D∗ , on peut écrire
m
 m

e−Hm ψm (z) zk 1 − zk
ϕm (z) = (e − 1), avec ψm (z) = Hm − = = (1 − z)θm (z)
1−z k k
k=1 k=1


m
 1 + z + · · · + z k−1
θm (z) = .
k
k=1

La fonction θm (z) est polynomiale, donc continue sur C, en particulier, lorsque z ∈ D∗ tend vers
1 on a θm (z) = θm (1) + o(1) = m + o(1). Lorsque z ∈ D∗ converge vers 1 on peut donc écrire
e−Hm (1−z)(m+o(1)) e−Hm
ϕm (z) = (e − 1) = ((1 − z)(m + o(1)) + o(1 − z)) = e−Hm m + o(1).
1−z 1−z
En posant ϕm (1) = e−Hm m, on a donc prolongé par continuité ϕm sur D tout entier.
b) Les permutations avec
 cycles de longueur > m correspond
 au cas où N = {k ∈ N | k > m},
pour lequel CN (z) = k>m z k /k = − log(1 − z) − m z k /k pour z ∈ ] − 1, 1[ . Donc la série
 k=1
génératrice exponentielle correspondante Φm (z) = +∞
n=1 pn (m) z vérie
n

2 /2−···−z m /m
e−z−z
∀z ∈ ] − 1, 1[ Φm (z) = exp(CN (z)) − 1 = − 1. (∗)
1−z
La fonction z → e−z−z /2−···−z /m /(1 − z) est la somme d'une série entière de rayon de conver-
2 m

gence ≥ 1, car c'est le produit des fonctions e−z /k pour 1 ≤ k ≤ m et 1/(1 − z) qui sont toutes
k

des sommes de séries entières de rayon de convergence ≥ 1. Ainsi l'identité (*), vraie sur ] − 1, 1[
l'est aussi
 sur {z ∈ C | |z| < 1} d'après le principe des zéros isolés. Or pour toute série entière
f (z) = +∞ n=0 an z de rayon de convergence ≥ 1, on a l'identité classique
n

 2π
1 e−int
∀ρ ∈ ]0, 1[ , ∀n ∈ N, an = f (ρeit ) dt (∗∗)
2π 0 ρn
que l'on démontre en écrivant
   +∞  +∞ 
1 2π
e−int 1 2π  1  2π
it k−n i(k−n)t
f (ρe ) n dt = ak ρ e dt = ak ρk−n ei(k−n)t dt
2π 0 ρ 2π 0 2π 0
k=0 k=0
372 6. PROBABILITÉS

où l'intervertion des signes de sommation


 est possible car la série de fonction intégrée converge
normalement, et en remarquant que 02π ei(k−n)t dt = 0 si k = n, = 2π si k = n. Or
+∞
   e−Hm
1 − e−Hm + pn (m) − e−Hm z n = 1 + Φm (z) − = ϕm (z),
1−z
n=1

les séries entières en présence ayant rayon de convergence ≥ 1, on a donc, compte tenu de
l'identité (**) appliquée à cette série entière
 2π
1 e−int
∀ρ ∈ ]0, 1[ , ∀n ∈ N∗ , pn (m) − e−Hm = ϕm (ρeit ) dt.
2π 0 ρn
Notons I(ρ) cette dernière intégrale. La question précédente entraîne la continuité de la fonction
intégrée sur (ρ, t) ∈ ]0, 1] × [0, 2π]. Ainsi, I(1) existe et le théorème de continuité sous le signe
intégral entraîne que I est continue sur ]0, 1], en particulier en ρ = 1. Comme I(ρ)/(2π) =
pn (m) − e−Hm pour tout ρ ∈ ]0, 1[ , on en déduit le résultat demandé car
I(ρ) I(1)
pn (m) − e−Hm = lim = .
ρ→1,ρ<1 2π 2π

c) Lorsque n → +∞, il est classique que l'intégrale de la question précédente converge vers 0
(c'est le lemme de Lebesgue, voir le tome Analyse). La preuve du lemme de Lebesgue est facile
lorsque la fonction intégré est de classe C 1 , en procédant par intégration par parties. Lorsque
l'intégrande est uniquement supposée continue, on le démontre en approchant la fonction continue
t → ϕm (eit ) par une fonction en escalier, sur [0, 2π] (cette approche est décrite dans le tome
Analyse). Ici, pour faciliter la preuve, on va procéder de manière hybride. Soit ε > 0 (et ε < π ).
La forme de ϕm montre que f (t) = ϕm (eit ) est de classe C 1 sur [ε, 2π −ε], on pourra donc intégrer
par parties sur cet intervalle. On écrit pn (m) − e−Hm = (An + Bn )/(2π) avec
 ε  2π  2π−ε
An = f (t)e−int dt + f (t)e−int dt et Bn = f (t)e−int dt.
0 2π−ε ε

Une intégration par partie permet d'écrire


 2π−ε 
e−int 1 2π−ε 
Bn = −f (t) + f (t)e−int dt.
in ε in ε
On a donc
2 2π
|An | ≤ 2ε sup |f (t)| et |Bn | ≤ sup |f (t)| + sup |f  (t)|.
t∈[0,2π] n t∈[0,2π] n t∈[ε,2π−ε]

On en déduit qu'il existe N0 ∈ N tel que pour tout n > N0 , on ait |Bn | < ε. Donc lorsque
n > N0 , on a |pn (m) − e−Hm | < 2ε supt∈[0,2π] |f (t)|/(2π) + ε/(2π) , d'où le résultat.
Remarque. On a ainsi retrouvé dans la question 2/a) le résultat de l'exercice 8 page 312.
 Le résultat de la question 3/c) est un cas particulier d'un théorème plus général, qui
exprime que sous certaines conditions (dont la formulation dépasse le cadre du programme
des classes préparatoires) le comportement asymptotique du n-ième coecient d'une série
entière est dicté par le comportement de cette dernière en ses singularités les plus proches
de 0 (ici en z = 1). Dans notre cas, l'équivalent Φm (z) ∼ e−Hm /(1 − z) entraîne que le
n-ième coecient de Φm (z) est équivalent à celui de e−Hm /(1 − z).
 La fonction f (t) = ϕm (eit ) de la partie 3/ est aussi de classe C 1 (elle est même C ∞ )
et nous aurions pu procéder plus rapidement pour démontrer la convergence vers 0 de
l'intégrale de 3/b) si nous avions utilisé cette propriété (en intégrant par parties), mais la
preuve de la regularité C 1 de f est assez pénible avec les outils dont nous disposons.
4. PROBLÈMES 373

Problème 4 (Problème du scrutin). Pour (m, n) ∈ N2 tels que m ≤ n et (a, b) ∈ Z2 ,


on appelle chemin de (m, a) à (n, b) toute suite de la forme (k, ck )m≤k≤n , telle que cm = a,
cn = b, et ck+1 − ck ∈ {−1, 1} pour m ≤ k < n. On dit que le chemin passe par 0 s'il
existe k tel que ck = 0. On représente graphiquement un chemin par une ligne brisée qui
relie les points (k, ck ) pour les valeurs consécutives de k .
1/a) Soit (m, n) ∈ (N∗ )2 , m < n, et (a, b) ∈ Z2 . Montrer que le nombre de chemins de
(m, a) à (n, b) ne dépend que de ∆ = n − m et δ = b − a, et calculer le nombre N (∆, δ)
correspondant.
b) (Principe de reexion). On suppose (a, b) ∈ (N∗ )2 . En s'appuyant sur une réprésenta-
tion graphique, montrer que le nombre de chemins de (m, a) à (n, b) passant par 0, est
égal au nombre total de chemins de (m, −a) à (n, b). En déduire le nombre de chemins
correspondants.
2/ Soit (Xn )n∈N∗ une liste de variable aléatoires indépendantes, suivant toutes une loi
de Rademacher P (Xn = 1) = 1/2, P (Xn = −1) = 1/2. On dénit la suite (Sn )n∈N par
S0 = 0 et Sn = X1 + · · · + Xn pour n ∈ N∗ . On peut associer la suite (Sk )0≤k≤n au chemin
(k, Sk )0≤k≤n .
a) (Problème du scrutin). Soit (b, n) ∈ (N∗ )2 . Montrer que la probabilité que Sn = b,
sachant que Sk reste toujours > 0 pour k < n vérie
b
P (S1 > 0, . . . , Sn−1 > 0, Sn = b) = P (Sn = b).
n
b) Soit n ∈ N∗ . Montrer que
P (S1 = 0, S2 = 0, . . . , S2n = 0) = P (S2n = 0).

c) Montrer que presque surement, il existe n ∈ N∗ tel que S2n = 0.


d) On dénit T = min{2n, n ∈ N∗ | S2n = 0}. Montrer que T n'admet pas d'espérance.
Solution. 1/a Soit c = (k, ck ) un chemin de (m, a) à (n, b). Une récurrence immédiate sur k
montre que pour tout k ∈ {m, . . . , n}, ck − a et k − m ont même parité. En particulier ∆ = n − m
et δ = b − a ont même parité. Réciproquement, si ces conditions sont vériées, on peut construire
autant de chemins de (m, a) à (n, b), que de choix de α indices k parmi {m, . . . , n − 1} tels que
ck+1 − ck = 1, et β indices tels que ck+1 − ck =  −1, avec α 
− β = δ et α + β= ∆, c'est-à-dire
∆ ∆
α = (∆ + δ)/2, β = (∆ − δ)/2, donc un total de chemins (avec = 0 si γ < 0
(∆ + δ)/2 γ
ou γ > ∆). En résumé, le nombre de chemins de (m, a) à (n, b) est égal à N (n − m, b − a), où
 

N (∆, δ) = si ∆ − δ est pair, N (∆, δ) = 0 sinon.
(∆ + δ)/2

b) Pour tout chemin c de (m, a) à (n, b) passant par zéro, on considère le plus petit entier k > m
tel que ck = 0, et on construit le chemin c dont la représentation jusqu'à l'abscisse k est la
symétrique de celle de c par rapport à l'axes des abscisses, puis égal à c après cette abscisse.
Comme on le voit sur la gure ci-contre, il est facile de vérier qu'on obtient ainsi une bjiection
de l'ensemble des chemins de (m, a) à (n, b) passant par zéro, vers celui des chemins de (m, −a)
vers (n, b). On en déduit que le nombre de chemins de (m, a) à (n, b) passant par zéro est égal à
N (n − m, b + a).
2/a) Si n − b est impair, toute les probabilités sont nulles donc la relation est vraie. Supposons
maintenant n et b de même parité. Il y a autant de valeurs de (Xk )1≤k≤n vériant Sn = b
que de chemins de (0, 0) à (n, b), donc comme nous sommes ici dans le cas équiprobable, on a
P (Sn = b) = 2−n N (n, b). Comme S1 = X1 , pour avoir S1 > 0 on doit avoir S1 = 1. Ainsi, on
a (S1 > 0, . . . , Sn−1 > 0, Sn = b) si et seulement si le chemin (k, Sk )1≤k≤n va de (1, 1) à (n, b),
374 6. PROBABILITÉS

(n, b)
  


(c)
  




(m, a) 




 
1 2 3 4 5 6 7 8 9 10

 (c )
(m, −a) 


Figure 5. Représentation graphique d'un chemin c de (2, 1) à (10, 3) passant


par 0, et du chemin c de (2, −1) à (10, 3) obtenu par reexion de la première
partie de c (en trait n).

sans jamais passer par 0. D'après la question 1/b), il y a C ∗ = N (n − 1, b − 1) − N (n − 1, b + 1)


chemins de cette forme. En notant γ = (n + b)/2 on trouve
         
∗ n−1 n−1 γ n n−γ n 2γ − n n b
C = − = − = = N (n, b). (∗)
γ−1 γ n γ n γ n γ n
On en déduit P (S1 > 0, . . . , Sn−1 > 0, Sn = b) = 2−n (b/n)N (n, b) = (b/n)P (Sn = b).
b) On a {S1 = 0, . . . , S2n = 0} = {S1 > 0, . . . , S2n > 0} ∪ {S1 < 0, . . . , S2n < 0}, ces deux
ensembles étant disjoints, donc par symétrie on a
P (S1 = 0, . . . , S2n = 0) = 2 P (S1 > 0, . . . , S2n > 0). (∗∗).
Or, d'après la question précédente, on a
  2b
P (S1 > 0, . . . , S2n > 0) = P (S1 > 0, . . . , S2n−1 > 0, S2n = 2b) = 2−2n N (2n, 2b).
2n
b>0 b>0
   
2b 2n − 1 2n − 1
Les égalités de (*) montrent que N (2n, 2b) = − . Donc
2n n+b−1 n+b
  2n − 1  2n − 1  
−2n −2n 2n − 1
P (S1 > 0, . . . , S2n > 0) = 2 − =2 .
n+b−1 n+b n
b>0

Il y a autant de valeurs de (Xk )1≤k≤2n vériant S2n = 0 que de chemins allant de (0, 0) à (2n, 0),
donc
     
2n 2n 2n − 1 2n − 1
P (S2n = 0) = 2−2n N (2n, 0) = 2−2n = 2−2n = 21−2n .
n n n−1 n
On en déduit le résultat avec (**).
c) Notons An = {S1 = 0, . . . , S2n = 0}. La formule de Stirling appliquée à la question précédente
entraîne   √
2n (2n)! 4πn(2n/e)2n 1
P (An ) = 2−2n = 2−2n 2
∼ 2−2n √ =√ .
n (n!) ( 2πn(n/e)n )2 πn
La suite (An ) est décroissante, donc P (∩n∈N∗ An ) = limn→+∞ P (An ) = 0. Donc A = ∩n∈N∗ An
est négligeable, et comme A est l'événement S2n = 0 pour tout n ∈ N, on en déduit que presque
surement, il existe n ∈ N∗ tel que S2n = 0.
d) On a T > 2n si et seulement si S1 =0, . . . , S2n = 0. Donc d'après 2/b), on a P (T > 2n) =
P (S2n = 0) ∼ (πn)−1/2 . Donc la série n P (T > n) diverge, donc T n'admet pas d'espèrance
d'après la proposition 7 page 338.
Remarque. Une conséquence du résultat de la question 2/a), est que si un scrutin entre
deux candidats A et B se termine avec a voix pour le candidat A, et b voix pour le
candidat B , avec a > b, alors la probabilité que le nombre de voix pour A soit toujours
4. PROBLÈMES 375

strictement supérieur au nombre de voix pour B pendant le dépouillement du scrutin, est


égale à (a − b)/(a + b) (d'où la dénomination problème du scrutin).

Problème 5 (Modes de convergence). Soit (Xn ) une suite de variables aléatoires


discrètes réelles sur Ω, et X : Ω → R une variable aléatoire discrète.
(Convergence en probabilité ). On dit que (Xn ) converge en probabilité vers X si pour tout
ε > 0, limn→+∞ P (|Xn − X| ≥ ε) = 0.
1/ (Convergence presque sure ). On dit que (Xn ) converge presque surement vers X s'il
existe un événement A presque sûr tel que (Xn ) converge simplement vers X sur A.
a) Si (Xn )n∈N converge presque surement vers X , montrer que (Xn ) converge en proba-
bilité vers X 
b) Si pour tout ε > 0, la série n P (|Xn − X| > ε) converge, montrer que (Xn ) converge
presque surement vers X .
c) Si (Xn ) converge en probabilité vers X , montrer qu'il existe une sous-suite de (Xn ) qui
converge presque surement vers X .
d) Montrer que la réciproque de a) est fausse (Indication : choisir
 les Xn indépendants et
suivant une loi de Bernoulli de paramètre pn , avec pn → 0 et n pn = +∞).
2/ (Convergence L1 ). Si les Xn et X admettent une espérance, on dit que (Xn ) converge
dans L1 vers X si la suite (E(|Xn − X|))n converge vers 0. Montrer que la convergence
dans L1 entraîne la convergence en probabilité, mais que la réciproque est fausse.
3/ (Convergence en loi). On suppose ici que les Xn et X sont à valeurs dans Z. On dit
que (Xn ) converge en loi vers X si pour tout k ∈ Z, limn→+∞ P (Xn = k) = P (X = k).
Montrer que si (Xn ) converge en probabilité vers X , alors (Xn ) converge en loi vers X ,
mais que la réciproque est fausse.
Solution. 1/ a) Par hypothèse, il existe un événement presque sûr A tel que (Xn ) converge
simplement vers X sur A. Soit ε > 0. Pour tout n ∈ N, on note An (ε) = ∩m≥n {|Xm − X| < ε}.
La convergence simple de (Xn ) vers X sur A entraîne A ⊂ B = ∪n∈N An (ε). Comme (An (ε))n
est une suite croissante, on en déduit limn→+∞ P (An (ε)) = P (B) = 1. Donc pour tout δ > 0, il
existe N ∈ N tel que P (An (ε)) ≥ 1 − δ pour n ≥ N . On en déduit
∀n ≥ N, P (|Xn − X| > ε) = 1 − P (|Xn − X| ≤ ε) ≤ 1 − P (An (ε)) ≤ δ.
On a donc démontré que la suite (P (|Xn − X| > ε))n tend vers 0, d'où le résultat.
b) C'est un classique, rencontré par exemple dans la dernière question de l'exercice 13 page 363.
Soit p ∈ N∗ . D'après le lemme
 de Borel-Cantelli (voir le théorème 1, page 326, assertion (i)),
la convergence de la série n P (|Xn − X| > 1/p) entraîne l'existence d'un événement presque
sûr Bp tel que sur Bp , au plus un nombre ni de valeurs de n ∈ N vérient |Xn − X| > 1/p.
L'événement B = ∩p∈N∗ Bp , intersection dénombrable d'ensembles presques sûrs, est presque sûr.
La suite (Xn ) converge simplement vers X sur B . En eet, soit ω ∈ B , soit ε > 0. On choisit
p ∈ N∗ tel que 1/p < ε. Alors ω ∈ Bp donc il y a au plus un nombre ni de valeurs de n telles que
|Xn (ω) − X(ω)| > 1/p. Donc il existe N ∈ N tel que |Xn (ω) − X(ω)| ≤ 1/p pour tout n ≥ N , et
donc lorsque n ≥ N on a |Xn (ω) − X(ω)| < ε.
c) On construit une suite strictement croissante d'entiers (np )p∈N par récurrence, comme suit.
On pose n0 = 0, et pour p ∈ N∗ , n0 , . . . , np−1 étant construits, on choisit np > np−1 tel que
P (|Xnp − X| ≥ 1/p) < 2−p (c'est possible car la suite
 (P (|Xn − X| ≥ 1/p))n converge vers 0).
Montrons maintenant que pour tout ε > 0, la série k P (|Xnk −X| > ε) converge. Le résultat de
la question précédente nous assurera alors que la sous-suite (Xnk )k∈N converge presque surement
vers X . Fixons donc ε > 0. Soit p ∈ N∗ tel que 1/p < ε. Lorsque k > p, on a 1/k < ε donc
∀k > p, P (|Xnk − X| > ε) ≤ P (|Xnk − X| > 1/k) < 2−k .
376 6. PROBABILITÉS


et donc k P (|Xnk − X| > ε) converge. On a bien prouvé le résultat souhaité.
d) On suit l'indication. Soit (pn )n∈N∗ une suite à valeurs dans ]0, 1[ convergeant vers 0, telle
que pn diverge (par exemple pn = 1/(n + 1)). D'après la proposition 17 page 344, il existe un
espace probabilisé (Ω, A, P ) et une suite de variables aléatoires (Xn ) discrètes indépendantes,
telles que Xn suive une loi de Bernoulli de paramètre pn , c'est-à-dire P (Xn = 1) = pn et
P (Xn = 0) = 1 − pn . La suite (Xn ) converge en probabilité vers 0 car pour tout ε ∈ ]0, 1[ , on
a P (|Xn | > ε) = P (Xn = 1) = pn . En revanche, d'après le lemme de Borel-Cantelli (assertion
(ii)), A = lim supn {Xn = 1} est presque sûr, et pour tout ω ∈ A, il existe une innité d'entiers
n tels que Xn (w) = 1, donc (Xn (ω))n∈N ne converge pas simplement vers 0 sur A.
2/ Supposons que (Xn ) converge dans L1 vers X . Soit ε > 0. L'inégalité de Markov entraîne
E(|X − Xn |)
P (|Xn − X| ≥ ε) ≤ ,
ε
et comme (E(|X − Xn |))n → 0, on en déduit que (P (|Xn − X| ≥ ε))n converge vers 0.
La réciproque est fausse, comme le montre le contre-exemple suivant : pour tout n ∈ N∗ ,
on choisit Xn vériant P (Xn = 0) = 1 − 1/n et P (Xn = n) = 1/n. Pour tout ε ∈ ]0, 1[ , on
a P (|Xn | > ε) = P (Xn = n) = 1/n, donc (P (|Xn | > ε)) converge vers 0, c'est-à-dire que Xn
converge en probabilité vers 0, alors que E(|Xn |) = 1 pour tout n ∈ N∗ .
3/ Supposons que (Xn ) converge en probabilité vers X . Alors (P (|Xn − X| > 1/2)) converge
vers 0. Fixons k ∈ Z. Comme les variables aléatoires sont à valeurs dans Z, on a
{Xn = k} ⊂ {X = k} ∪ {|X − Xn | > 1/2} et {X = k} ⊂ {Xn = k} ∪ {|X − Xn | > 1/2}.
On en déduit P (Xn = k) ≤ P (X = k) + P (|Xn − X| > 1/2) et P (X = k) ≤ P (Xn =
k) + P (|Xn − X| > 1/2), donc |P (Xn = k) − P (X = k)| ≤ P (|Xn − X| > 1/2), ce qui montre
que |P (Xn = k) − P (X = k)| tend vers 0 lorsque n → +∞.
La réciproque est fausse. Considérons par exemple une variable aléatoire B qui suit une loi de
Bernoulli de paramètre 1/2, et Xn = B pour tout n. Alors (Xn ) converge en loi vers X = 1 − B
(X suit aussi une loi de Bernoulli de paramètre 1/2, donc elle suit la même loi que chaque Xn ),
alors qu'on a toujours X − Xn = 1.

Problème 6 (Processus de Galton-Watson). Soit X une variable aléatoire à valeurs


dans N, admettant une espérance, notée m. On note, pour tout k ∈ N, pk = P (X = k)
et on suppose p0 ∈ ]0, 1[ . Soit (Xn,i )(n,i)∈N×N∗ une famille de variables aléatoires indépen-
dantes, suivant toutes la loi de X . On dénit la suite (Zn ) de la manière suivante :
Zn

Z0 = 1 et ∀n ∈ N, Zn+1 = Xn,i (Zn+1 = 0 si Zn = 0).
i=1

La variable aléatoire Zn représente le nombre d'individus à la génération n. On note


πn = P (Zn = 0) la probabilité d'extinction à la génération n, et Pext = P (∃n ∈ N, Zn = 0)
la probabilité d'extinction de la population. On suppose p0 ∈ ]0, 1[ .
1/a) Montrer que la série génératrice Gn de Zn vérie : Gn+1 = G ◦ Gn , où G est la série
génératrice de X .
b) En déduire que pour tout n ∈ N, πn+1 = G(πn ).
c) Pour tout n ∈ N, montrer que Zn admet une espérance et calculer E(Zn ).
2/a) Montrer que G n'a aucun point xe sur [0, 1[ si m ≤ 1, et un seul point xe sur
[0, 1[ si m > 1.
b) Montrer que si m ≤ 1, Pext = 1, et si m > 1, Pext est l'unique point xe de G sur
[0, 1[ . Le cas m < 1 est dit sous-critique, le cas m = 1 est dit critique et le cas m > 1 est
dit super-critique.
4. PROBLÈMES 377

3) Soient a, b ∈ ]0, 1[. On se place ici dans le cas linéaire-fractionnaire où X suit la loi
P (X = 0) = a, et ∀k ≥ 1, P (X = k) = (1 − a)b(1 − b)k−1
a) Calculer explicitement G(x) et vérier
G(x) − α 1 x−α a
si m = 1 = · avec α = ,
G(x) − 1 m x−1 1−b
1 1 b−1
si m = 1 = +β avec β = .
G(x) − 1 x−1 b
b) En déduire les probabilités d'extinction πn et Pext dans le cas linéaire-fractionnaire.
Solution. 1/a) La formule de Wald (voir la proposition 19 page 347), appliquée avec N = Zn ,
fournit l'identité Gn+1 = Gn ◦ G. La loi de composition est associative on donc bien Gn+1 =
G ◦ Gn .
b) C'est une conséquence du fait que pour tout n ∈ N on a πn = Gn (0), donc πn+1 = Gn+1 (0) =
G ◦ Gn (0) = G(Gn (0)) = G(πn ).
c) Pour tout n ∈ N, Zn admet une espérance si et seulement si sa série génératrice Gn est de
classe C 1 sur [0, 1], et on a alors E(Zn ) = Gn (1). On a G0 (x) = x, donc Z0 admet une espérance
et E(Z0 ) = 1. La relation Gn+1 = G ◦ Gn entraîne avec une récurrence immédiate que les Gn
sont de classe C 1 sur [0, 1] et que Gn+1 (1) = Gn (1) · G (Gn (1)) = Gn (1) · G (1) = m Gn (1). On
en déduit que pour tout n ∈ N, Zn admet une espérance, et que E(Zn ) = Gn (1) = mn .
2/a) Commençons par le cas m ≤ 1. Si pn = 0 pour tout n > 1, alors p0 + p1 = 1 et G(x) =
p0 +p1 x. On a donc G(x)−x = p0 +(p1 −1)x = p0 (1−x), donc si 0 ≤ x < 1, on a G(x)−x > 0 et
donc G n'admet pas de point xe sur [0, 1[ . Supposons maintenant qu'il existe n >1 avec pn > 0.
Comme X admet une espérance, G est de classe C 1 sur [0, 1]. Sa dérivée G (x) = n≥1 npn xn−1
est strictement croissante sur [0, 1]. Pour tout x ∈ [0, 1[ , l'égalité des accroissements nis assure
l'existence de cx ∈ ]x, 1[ tel que G(1) − G(x) = (1 − x)G (cx ), et on en déduit G(1) − G(x) <
(1 − x)G (1) = m(1 − x) ≤ (1 − x) (on vient de redémontrer que la fonction strictement convexe
G est strictement au dessus de sa tangente en 1 sur [0, 1[ ) Donc G(x) > G(1) − (1 − x) = x,
donc G n'a pas de points xe sur [0, 1[ .

(G) y=x
(G)
(G)
y = mx y=x y=x
y = mx
0 1 0 1 0 α 1
cas m < 1 cas m = 1 cas m > 1

Figure 6. Représentation graphique de la série génératrice G de X , dans le cas


sous-critique (m < 1), puis critique (m = 1) et super-critique (m > 1).

Traîtons maintenant le cas m > 1. Il existe forcément n > 1 tel que pn > 0 (sinon G(x) =
p0 + p1 x donc m = G (1) = p1 < 1, ce qui est impossible). Donc G − 1 est strictement croissante
sur [0, 1]. Or G (1) − 1 = m − 1 > 0 et G (0) − 1 = p1 − 1 < 0, donc la fonction continue G − 1
s'annule en un point β ∈ ]0, 1[ . Comme G −1 est strictement croissante, on en déduit G (x)−1 < 0
sur [0, β[ et G (x) − 1 > 0 sur ]β, 1]. Donc H(x) = G(x) − x est strictement décroissante sur
[0, β] et strictement croissante sur [β, 1]. On a donc H(β) = G(β) − β < G(1) − 1 = 0 et comme
H(0) = G(0) = p0 > 0 on en déduit que H(x) s'annule une et une seule fois sur [0, β], et ne
s'annule pas sur [β, 1[ , ce qui démontre le résultat souhaité.
378 6. PROBABILITÉS

b) Remarquons que Zn = 0 entraîne Zn+1 = 0, donc la suite des événements {Zn = 0}n∈N est
croissante. Donc la suite (πn )n∈N est croissante et elle converge. En notant  = limn→+∞ πn on a
Pext = P ({∃n ∈ N, Zn = 0}) = P (∪n∈N {Zn = 0})) = lim P (Zn = 0) = . (∗)
n→+∞

Comme πn+1 = G(πn ), par continuité de G on a  = G(). Si m ≤ 1, la question précédente


assure qu'on a forcément  = 1, donc d'après (*) Pext = 1. Si m > 1, l'unique point xe α de
G sur [0, 1[ vérie πn ≤ α (c'est immédiat par récurrence sur n : vrai pour n = 0 car π0 = 0,
et si le résultat est vrai pour n, alors 0 ≤ πn ≤ α et la croissance de G sur [0, 1] entraîne
πn+1 = G(πn ) ≤ G(α) = α donc le résultat est vrai pour n + 1). Donc  ≤ α, et l'unicité du
point xe de G sur [0, 1[ permet d'en déduire  = α. Donc d'après (*), Pext = α.
3/a) On calcule d'abord la série génératrice G(x) de X
+∞
 1
∀x ∈ [0, 1], G(x) = a + (1 − a)b(1 − b)k−1 xk = a + (1 − a)bx .
1 − (1 − b)x
k=1

En particulier on trouve m = G (1) = (1 − a) + (1 − a)(1 − b)/b = (1 − a)/b. L'égalité


Gn+1 (x) = G(Gn (x)) est celle d'une récurrence homographique (voir le tome analyse), et les
identités demandées sont un cas particulier de la résolution explicite de ces récurrences. Dans le
cas m = 1, les solutions de G(x) = x sont x = 1 et x = α = a/(1 − b). En posant c = 1 − b on a
 
x y x−y
G(x) − G(y) = (1 − a)b − = (1 − a)b , (∗∗)
1 − cx 1 − cy (1 − cx)(1 − cy)

égalité qui reste vraie pour tout x, y ∈ D = R  {1/c} lorsqu'on étend la dénition de G(x) à D
tout entier. Comme G(α) = α et G(1) = 1 on en déduit
G(x) − α G(x) − G(α) x−α (1 − cx)b 1 x−α
= = = .
G(x) − 1 G(x) − G(1) (1 − cx)(1 − a) x − 1 m x−1

Lorsque m = 1, on a 1 − a = b et c = 1 − b = a. En utilisant (**) avec y = 1 pour calculer


G(x) − 1 = G(x) − G(1) on obtient

1 1 (1 − ax)b 1 1 − ax − b a b−1
− = 2 − = =− = .
G(x) − 1 x − 1 b (x − 1) x − 1 b(x − 1) b b

b) Les identités obtenues précédemment permettent facilement de déduire, pour tout n ∈ N∗


Gn (x) − α 1 x−α 1 1
si m = 1 = n , et si m = 1 = + nβ.
Gn (x) − 1 m x−1 Gn (x) − 1 x−1

Ceci permet d'obtenir une forme explicite pour Gn (x), mais nous n'en n'aurons pas besoin
directement. En remplaçant x par 0 dans les relations précédentes on obtient, pour tout n ∈ N∗
πn − α α mn − 1
si m = 1 = n donc πn = α n
πn − 1 m m −α
1 1 n(1 − b)
si m = 1 = nβ − 1 donc πn = 1 + = .
πn − 1 nβ − 1 n(1 − b) + b

En faisant n → +∞, on obtient Pext = 1 si m ≤ 1, Pext = α = a/(1 − b) si m > 1. On retrouve


en particulier le résultat de la question 2/b).
Remarque. Ce modèle a été introduit par Watson en 1874 pour étudier la survivance
des patronymes dans l'Angleterre victorienne, en réponse à un problème posé par Galton.
On l'appelle aussi processus de branchement . Il peut aussi modéliser la reproduction de
population de bactéries, de neutrons, d'individus porteurs d'une maladie, etc.
4. PROBLÈMES 379

Problème 7 (Nombres de Stirling). Pour tout x ∈ R, on dénit la factorielle dé-


croissante et la factorielle croissante par x0 = x0 = 1, et pour n ∈ N∗
xn = x(x − 1) · · · (x − n + 1) et xn = x(x + 1) · · · (x + n − 1).
1/ (Nombres de Stirling de première espèce ). Pour tout n ∈ N, on note (s(n, k))0≤k≤n et
on appelle nombres de Stirling de première espèce les nombres réels dénis par
n

∀x ∈ R, n
x = s(n, k) xk .
k=0

a) Montrer que s(n, k) a le signe de (−1) n−k


et que les nombres de Stirling de première
espèce non signés |s(n, k)| vérient
n

∀x ∈ R, xn = |s(n, k)| xk .
k=0

b) Montrer que les nombres de Stirling de première espèce vérient



s(n, 0) = 0, s(n, n) = 1,
s(0, 0) = 1 et ∀n ∈ N ∗
∀k ∈ {1, . . . , n}, s(n + 1, k) = s(n, k − 1) − n s(n, k).
c) Soit n ∈ N∗ . Montrer que |s(n, k)| est le nombre de permutations de {1, . . . , n} qui
s'écrivent comme le produit de k cycles à supports disjoints.
d) Calculer le nombre moyen de cycles dans une permutation de {1, . . . , n}.
2/ (Nombres de Stirling de seconde espèce ). Pour tout n ∈ N, on note (S(n, k))0≤k≤n et
on appelle nombres de Stirling de seconde espèce les nombres réels dénis par
n

∀x ∈ R, xn = S(n, k) xk . (∗)
k=0

a) Montrer que les S(n, k) sont bien dénis.


b) Montrer que les nombres de Stirling de seconde espèce vérient

S(n, 0) = 0, S(n, n) = 1,
S(0, 0) = 1 et ∀n ∈ N∗
∀k ∈ {1, . . . , n}, S(n + 1, k) = S(n, k − 1) + k S(n, k).
c) Soit n ∈ N∗ et k ∈ {1, . . . , n}. Montrer que S(n, k) est le nombre de façon de par-
titionner {1, . . . , n} en k sous-ensembles. Exprimer en fonction de S(n, k) le nombre de
surjections possibles entre {1, . . . , n} et {1, . . . , k}.
d) En procédant par récurrence sur k ∈ N, montrer que la série génératrice exponentielle
+∞
 S(n, k)
des (S(n, k))n∈N , dénie par Φk (x) = xn , est bien dénie sur R et qu'elle vérie
n=k
n!
1 x
∀x ∈ R Φk (x) = (e − 1)k . (∗∗)
k!
e) Montrer que
k  
∗ 1  k−j k
∀n ∈ N , ∀k ∈ {1, . . . , n}, S(n, k) = (−1) j n.
k! j=0 j

f) Lorsque k est xé, donner un équivalent lorsque n → +∞ de S(n, k).


Solution. 1/a) L'identité (−1)n (−x)n = xn entraîne
n

(−1)n−k s(n, k) xk = (−1)n (−x)n = xn
k=0
380 6. PROBABILITÉS

et compte tenu du fait que les coecients de xn sont positifs, ceci entraîne que (−1)n−k s(n, k)
est positif, donc égal à |s(n, k)|, ce qui montre le résultat demandé.
b) Comme x0 = 1, on a bien s(0, 0) = 1. Lorsque n ≥ 1, le coecient dominant de xn est 1,
donc s(n, n) = 1 ; le coecient constant est 0 donc s(n, 0) = 0. Maintenant si k ∈ {1, . . . , n} on
a xn+1 = (x − n)xn , donc
n+1
 n

s(n + 1, k) xk = −n s(n, 0) + (s(n, k − 1) − n s(n, k)) xk + s(n, n)xn+1
k=0 k=1

et par identication des coecients de pour 1 ≤ k ≤ n, on en déduit s(n + 1, k) = s(n, k −


xk
1) − n s(n, k) pour k ∈ {1, . . . , n}.
c) On note Sn,k l'ensemble des permutations de {1, . . . , n} qui s'écrivent comme le produit de
k cycles à supports disjoints, et C(n, k) = |Sn,k |. On va montrer que C(n, k) suit la même
récurrence et les mêmes conditions initiales que |s(n, k)|. Lorsque n ∈ N∗ , on a C(n, 0) = 0
(il y a au moins un cycle dans l'écriture de toute permutation comme produits de cycles), et
C(n, n) = 1 car l'identité est la seule permutation qui s'écrit comme le produit de n cycles de
supports disjoints (les n cycles de supports disjoints ont forcément longueur 1). On a la partition

Sn+1,k = Sn+1,k (m), où Sn+1,k (m) = {s ∈ Sn+1,k | s(n + 1) = m}. (∗∗∗)
1≤m≤n+1

 (Cas m = n + 1). Soit s ∈ Sn+1,k (n + 1). On a s(n + 1) = n + 1, donc (n + 1) est un cycle


de longueur 1 qui est un des cycles de la décomposition de s en k cycles disjoints, donc
sa restriction s|{1,...,n} à {1, . . . , n} est une permutation de Sn,k−1 . On vérie facilement
que l'application ainsi construite Sn+1,k (n + 1) → Sn,k−1 s → s|{1,...,n} est une bijection.
Donc |Sn+1,k (n + 1)| = |Sn,k−1 | = C(n, k − 1).
 (Cas m ≤ n). Soit s ∈ Sn+1,k (m). On a s(n + 1) = m, donc la permutation s =
(n + 1, m) · s, obtenue en multipliant s à gauche par la transposition (n + 1, m), vérie
s (n + 1) = n + 1, et sa restriction à {1, . . . , n} dénit donc une permutation de {1, . . . , n}
que nous notons f (s). Soit c = (n + 1, m, n3 , . . . , nr ) le cycle dans la décomposition de s
en produits de cycles, qui contient n + 1. On a c = (n + 1, m) · c = (m, n3 , . . . , nr ), donc
f (s) a les même cycles que s sauf le cycle c qui devient c . En particulier f (s) contient k
cycles, et f est une bijection de Sn+1,k (m) vers Sn,k . Donc |Sn+1,k (m)| = |Sn,k | = C(n, k).
De la partition (***), on en déduit
n

C(n + 1, k) = |Sn+1,k (n + 1)| + |Sn+1,k (m)| = C(n, k − 1) + nC(n, k).
k=1
Or |s(n, k)| vérie la même récurrence, car d'après la question précédente,
|s(n+1, k)| = (−1)n+1−k s(n+1, k) = (−1)n+1−k (s(n, k−1)−ns(n, k)) = |s(n, k−1)|+n|s(n, k)|.
On en déduit que D(n, k) = |sn,k | − C(n, k) vérie D(n, 0) = D(n, n) = 0 pour tout n ∈ N∗ , et
D(n + 1, k) = D(n, k − 1) + n D(n, k) pour 1 ≤ k ≤ n. En procédant par récurrence sur n ∈ N∗ ,
on en déduit que D(n, k) = 0 pour tout k ∈ {0, . . . , n}. On a donc bien C(n, k) = |s(n, k)| pour
tout n ∈ N∗ et 0 ≤ k ≤ n.
d) Soit Mn le nombre moyen de cycles dans les permutations de Sn . D'après la question précé-
dente, on a
n n
1  F  (1) 
Mn = k|s(n, k)| = n , où Fn (x) = |s(n, k)| xk = xn = x(x + 1) · · · (x + n − 1).
n! n!
k=1 k=1
Or
Fn (x) 1 1 1 Fn (1) 1 1
= + + ··· + donc Mn = = Hn = 1 + + · · · + .
Fn (x) x x+1 x+n−1 Fn (1) 2 n

2/a) La matrice carrée M de taille n + 1, dans laquelle on exprime les coecients des (xk )0≤k≤n ,
en fonction des (xk )0≤k≤n , est une matrice triangulaire dans laquelle les coecients diagonaux,
4. PROBLÈMES 381

qui correspondent au coecient dominant de chaque xk , sont tous égaux à 1. Donc cette matrice
est inversible, donc les (xk )0≤k≤n forment une base des polynômes de degré ≤ n, en particulier
on peut exprimer xn comme combinaison linéaire des (xk )0≤k≤n , d'où le résultat.
b) En faisant n = 0 dans (*) on trouve 1 = S(0, 0) x0 = S(0, 0). Si n ∈ N∗ , en faisant x = 0 dans
(*), on trouve 0 = S(n, 0), et lorsque x → +∞ le terme de droite a pour équivalent S(n, n)xn
donc S(n, n) = 1. Comme x · xk = (x − k)xk + kxk = xk+1 + kxk , on a
n
 n

xn+1 = x · xn = S(n, k)(xk+1 + kxk ) = (S(n, k − 1) + kS(n, k))xk + S(n, n)xn+1 .
k=0 k=1

Ceci est égal à xn+1 = n+1 k=0 S(n + 1, k)x . Or nous avons vu précédemment que les (x )0≤k≤n+1
k k

forment une base des polynômes de degré ≤ n + 1, on peut donc procéder par identication ce
qui donne S(n + 1, k) = S(n, k − 1) + kS(n, k) pour 1 ≤ k ≤ n.
c) Notons Pn,k l'ensemble des partitions de {1, . . . , n} en k parties. Soit P ∈ Pn+1,k une partition.
On numérote les sous-ensembles p1 , . . . , pk de P dans l'ordre de leur plus petit élément, de
sorte que min p1 < . . . < min pk , on note m(P ) l'indice m tel que n + 1 ∈ pm , et on note
p (P ) = pm(P )  {n + 1}. On a donc la partition
k
  ∗
∗ Pn+1,k = {P ∈ Pn+1,k | p (P ) = ∅},
Pn+1,k = Pn+1,k ∪ Pn+1,k (m),
Pn+1,k (m) = {P ∈ Pn+1,k | m(P ) = m, p (P ) = ∅}
m=1
L'application Pn+1,k
∗ → Pn,k−1 P → {p ,  = m(p)} est une bijection, donc |Pn+1,k ∗ | = |Pn,k−1 |,
et pour 1 ≤ m ≤ k l'application Pn+1,k (m) → Pn,k P → {pk , k = m} ∪ {p (P )} est aussi
une bijection, donc |Pn+1,k (m)| = |Pn,k |. On en déduit |Pn+1,k | = |Pn,k−1 | + k|Pn,k |, autrement
dit P (n, k) = |Pn,k | satisfait la même récurrence que S(n, k). Par ailleurs, il est immédiat que
P (n, 0) = 0 et P (n, n) = 1, donc P (n, k) satisfait les même conditions initiales que S(n, k). On
procéde ensuite comme dans 1/c), en montrant par récurrence sur n ∈ N∗ que P (n, k)−S(n, k) =
0 pour 0 ≤ k ≤ n. On en déduit que P (n, k) = S(n, k).
A toute partition p1 ∪ . . . ∪ pk de {1, . . . , , n} et pour toute permutation σ de {1, . . . , k} on
peut associer une et une seule surjection f de {1, . . . , n} → {1, . . . , k} par f (i) = σ ◦ g(i), où g(i)
est l'indice tel que i ∈ pg(i) . On a donc S(n, k)·k! surjections possibles de {1, . . . , n} → {1, . . . , k}.
d) Si k,  ∈ N vérient k >  on a k = 0, et si k ≤  on a k ≥ 0. La dénition (*), appliquée

avec x =  ≤ n et  ∈ N, implique donc n = k=0 S(n, k)k ≥ S(n, ) = S(n, )! (la question
précédente assure que les S(n, k) sont positifs). Donc 0 ≤ S(n, k) ≤ kn /k!, ce qui implique
|S(n, k)/n!| ≤ (1/k!)k n /n!, donc la série dénissant Φk (x) converge bien pour tout x ∈ R.
Montrons maintenant l'identité (**) par récurrence sur k ∈ N. Pour k = 0 c'est immédiat.
Soit k ∈ N∗ et supposons la propriété vraie pour k − 1. Les relations de récurrence vériée par
S(n, k) entraînent
+∞
 +∞

S(n + 1, k) n xk−1 S(n, k − 1) + kS(n, k) n
Φk (x) = x = + x = Φk−1 (x) + kΦk (x).
n! (k − 1)! n!
n=k−1 n=k

D'après l'hypothèse de récurrence, Φk−1 (x) = (ex − 1)k−1 /(k − 1)!. On a donc Φk (x) − kΦk (x) =
(ex − 1)k−1 /(k − 1)!. En notant ∆k (x) = Φk (x) − (ex − 1)k /k!, ceci entraîne ∆k = k∆k sur R.
Donc il existe λ ∈ R tel que ∆k (x) = λekx . Lorsque x = 0, on a ∆k (0) = Φk (0) = 0, donc λ = 0,
donc Φk (x) = (ex − 1)k /k! pour tout x ∈ R.
e) En développant la formule (**), on trouve pour tout k ∈ N
+∞
 k   k   
+∞ n

S(n, k) n 1  k−j k jx 1  k−j k j n
x = (−1) e = (−1) x .
n! k! j k! j n!
n=k j=0 j=0 n=0

En identiant les coecients de xn on en déduit


k   n
S(n, k) 1  k j
∀n ≥ k, = (−1)k−j ,
n! k! j n!
j=0
382 6. PROBABILITÉS

et en multipliant cette égalité par n! on obtient le résultat souhaité.


f) La formule précédente entraîne, lorsque n → +∞, l'équivalent S(n, k) ∼ kn /k!.

Remarque. On a nk=0 S(n, k) = Bn où Bn est le nombre de Bell, rencontré dans l'exer-
cice 8 page 314. En sommant sur k les séries génératrices exponentielles des (S(n, k))n on
retrouve l'expression de la série génératrice exponentielle de Bn .

Problème 8 (Théorème de Pólya). Soit d ∈ N∗ et (e1 , . . . , ed ) la base canonique


de R . Soit (Xn )n∈N∗ une suite de variables aléatoires indépendantes et identiquement
d

distribuées, à valeurs dans {−e1 , e1 , −e2 , e2 , . . . , −ed , ed }. On considère la marche aléatoire


sur Zd dénie par S0 = 0 et Sn = X1 +· · ·+Xn pour n ∈ N∗ . On dit que (Sn ) est récurrente,
si presque surement, il existe une innité d'entiers n ∈ N∗ tels que Sn = 0 ; on dit que
(Sn ) est transitoire si presque surement, il n'existe qu'un nombre ni d'entiers n ∈ N∗ tels
que Sn = 0. 
1/
 Montrer que si la série n∈N∗ P (Sn = 0) diverge, alors (Sn ) est récurrente, et que si
n∈N∗ P (S n = 0) converge, alors (Sn ) est transitoire.
2/ On se place désormais dans le cas isotrope, où les (Xn ) suivent toutes la loi
1
∀i ∈ {1, . . . , d}, P (Xn = ei ) = P (Xn = −ei ) = .
2d
a) Calculer explicitement P (Sn = 0) lorsque d = 1 ou d = 2, et en déduire que lorsque
d ∈ {1, 2}, alors la marche aléatoire (Sn ) est récurrente.
b) Dans le cas d = 3, exprimer sous forme de somme multiple la valeur de P (Sn = 0), et
montrer que la marche aléatoire (Sn ) est transitoire.
3/ On appelle chemin de Zd de longueur n ∈ N, toute famille (Ck )0≤k≤n de Zd vériant
C0 = 0 et ∀k ∈ {0, . . . , n − 1}, Ck+1 − Ck ∈ {−e1 , e1 , . . . , −ed , ed } ; si Cn = 0 on dit que
le chemin (Ck ) est une boucle. On note c(d)
n le nombre de boucles de Z de longueur n.
d
+∞
 cn (d)
a) Montrer que la série génératrice exponentielle Φd (z) = z n a un rayon de conver-
n=0
n!
gence inni, puis montrer
+∞
 z 2n
∀z ∈ C, Φ1 (z) = , et ∀d ∈ N∗ , Φd (z) = Φ1 (z)d .
n=0
(n!)2

b) Montrer que Φ1 (z) vérie l'identité


 π
1
∀t ∈ R, Φ1 (t) = I0 (2t), où I0 (t) = et cos θ dθ,
π 0
puis déterminer un équivalent de I0 (t) lorsque
 t → +∞.
c) Montrer que la série génératrice ϕ(x) = +∞ n=0 P (Sn = 0) x vérie
n

 +∞  d
tx
∀x ∈ ] − 1, 1[, ϕ(x) = I0 e−t dt.
0 d
En déduire le théorème de Pólya : (Sn ) est récurrente si d ∈ {1, 2}, transitoire si d ≥ 3.

Solution. 1/ Si n P (Sn = 0) converge, le lemme de Borel-Cantelli nous assure que presque
surement, il n'y a qu'un nombreni d'entiers n tel que Sn = 0, i.e. que (Sn ) est transitoire.
Supposons maintenant que n P (Sn = 0) diverge. Ici on ne peut pas appliquer le lemme de
Borel-Cantelli car les événements {S2n = 0} ne sont pas indépendants. Pour prouver que presque
surement, la marche aléatoire passe une innité de fois par 0, il est équivalent de prouver que
4. PROBLÈMES 383

l'événement B "la marche aléatoire ne passe qu'un nombre ni de fois par 0" est négligeable. On
partitionne B sous la forme B = ∪n∈N Bn , où Bn désigne l'événement
 des marches aléatoires qui
passe en 0 la dernière fois à l'indice n. On a donc P (B) = n∈N P (Bn ). Par ailleurs, on a
Bn = {Sn = 0} ∩ {∀k > n, Sk = 0} = {Sn = 0} ∩ {∀j > 0, Xn+1 + · · · + Xn+j = 0}.
car si Sn = 0 et k > n, avoir Sk = 0 équivaut à avoir 0 = Sk − Sn = Xn+1 + · · · + Xk . Or les
(Xk ) sont indépendants, donc Sn = X1 + · · · + Xn est indépendant de Xn+1 + · · · + Xn+j . On
peut donc écrire
P (Bn ) = P (Sn = 0)P (∀j > 0, Xn+1 + · · · + Xn+j = 0).
Les (Xk ) étant indépendants et identiquement distribuées, P (∀j > 0, Xn+1 + · · · + Xn+j = 0)
ne dépend pas de n. Notons q cette probabilité.
  On a donc P (Bn ) = qP (Sn = 0). Or la série
P (Bn ) converge (vers P (B)), et comme n P (Sn = 0) diverge, la seule possibilité est d'avoir
q = 0. Donc P (Bn ) = 0 pour tout n ∈ N, donc P (B) = 0.
2/a) Remarquons déja que, quelque soit la valeur de d, la somme des coordonnées de Sn a la
même parité que n. Donc on ne peut avoir Sn = 0 que si n est pair. Ainsi, P (S2n+1 = 0) pour
tout n ∈ N, et on se bornera dans la suite à estimer P (S2n = 0).
Traitons maintenant le cas d = 1. Pour avoir S2n = 0, il faut et il sut d'avoir exactement
n indices k parmi {1, . . . , 2n} tels que Xk = 1, et chaque 2n-liste possible (Xk ) correspondante
a une probabilité 2−2n de se produire. On en déduit, en utilisant la formule de Stirling, que
  √
−2n 2n (2n)! 4πn(2n/e)2n 1
P (S2n = 0) = 2 = 2−2n ∼2 −2n
√ =√ .
n (n!)2 n
( 2πn(n/e) ) 2 πn

Donc n P (S2n = 0) diverge, donc d'après la question 1/, (Sn ) est récurrente.
Lorsque d = 2, pour avoir S2n = 0 il faut et il sut que la partition ordonnée de {1, . . . , 2n}
formée des 4 sous-ensembles d'indices (A1 , A1 , A2 , A2 ) dénis pour  ∈ {1, 2} par
A = {m ∈ {1, . . . , 2n} | Xm = e } et A = {m ∈ {1, . . . , 2n} | Xm = −e }, (∗)
vérie |A1 | = |A1 | = i et |A2 | = |A2 | = j avec i + j = n. Lorsque i + j 
= n, la proposition
 15
2n
page 304 nous assure que le nombre de 2n-listes (Xm ) de cette forme est . Chacune a
i, i, j, j
une probabilité 4−2n de se produire, on en déduit
  2n  n
 (2n)!
 
2n
n  2
n
P (S2n = 0) = 4−2n = 4−2n = 4−2n .
i, i, j, j i! i! (n − i)! (n − i)! n i
i+j=n i=0 i=0

En utilisant la formule de Vandermonde puis à nouveau la formule de Stirling, on en déduit


 2     2
2n 2n 2 1 1
P (S2n = 0) = 4−2n = 2−2n ∼ √ = .
n n πn πn

Donc n P (S2n = 0) diverge, donc (Sn ) est récurrente.
b) Pour le cas d = 3, on procéde en généralisant l'approche utilisée dans le cas d = 2. Ici il
s'agit de compter le nombre de partitions ordonnées de {1, . . . , 2n} formée des 6 sous-ensembles
(A1 , A1 , A2 , A2 , A3 , A3 ) dénis par (*), tels que |A | = |A | = i , avec i1 + i2 + i3 = n. A chacune
de ces partitions il y a un chemin possible avec une probabilité 6−2n de se réaliser, donc
       2
2n 2n n
P (S2n = 0) = 6−2n = 6−2n .
i, i, j, j, k, k n i, j, k
i+j+k=n i+j+k=n

Or on a
  2     
n n n
≤ Mn = 3n Mn , où Mn = max .
i, j, k i, j, k i+j+k=n i, j, k
i+j+k=n i+j+k=n
384 6. PROBABILITÉS

On va estimer Mn . Supposons d'abord que n soit divisible par 3, de sorte que n = 3q avec q ∈ N∗ .
Si i + j + k = n = 3q et (i, j, k) = (q, q, q), l'un des indices i, j, k est < q et un autre est > q , par
exemple i < q < j (notons que i, j et k jouent un role symétrique), donc
     
n i+1 n n
= < ≤ Mn .
i, j, k j i + 1, j − 1, k i + 1, j − 1, k
Ainsi le maximum recherché est atteint lorsque (i, j, k) = (q, q, q). Donc on a, en utilisant la
formule de Stirling
   3q  q  3  
3q (3q)!  3q 1 e 3n+3/2 3n
Mn = = ∼ 6qπ √ = =O .
q, q, q (q!)3 e 2qπ q 2nπ n
Pour traiter le cas où n > 3 n'est pas divisible par 3, on écrit n = 3q + r avec r ∈ {1, 2}. Lorsque
i ≤ j ≤ k , on a k ≥ q + 1 et l'inégalité
   r
   r

3q + r 3q + i 3q 3q + i
= ≤ M3q ≤ 20M3q
i, j, k k−i+1 i, j, k − r q
i=1 i=1

montre que Mn = O(3n /n) dans tous les cas. On en déduit


     2n       
2n n 2n 3 2n 1 1
P (S2n = 0) ≤ 6−2n 3 Mn = O 6−2n = O 2−2n =O .
n n n n n n3/2

Donc P (S2n = 0) converge, et d'après la question précédente, (Sn ) est transitoire.
3/a) Le nombre total de chemins de longueur n est (2d)n , donc 0 ≤ cn /n! ≤ (2d)n /n!, donc
(d)

Φd (z) a un rayon de convergence inni.


 Lorsque d = 1, on a vu plus haut que le nombre de
m si n = 2m est pair, égal à 0 si n est impair. Donc
boucles de longueur n est égal à 2m
+∞ 
  +∞

2n z 2n z 2n
Φ1 (z) = = .
n (2n)! (n!)2
n=0 n=0

Prouvons maintenant Φd = Φd1 . Pour cela il sut de prouver Φd = Φ1 Φd−1 pour tout d ≥ 2.
Notons Bn(d) l'ensemble des boucles de longueur n dans Zd . Soit C = (Ck ) ∈ Bn(d) . Soit A = {k ∈
{1, . . . , n} | Ck − Ck−1 ∈ {−ed , ed }} et m = |A|. Notons {1, . . . , n}  A = {k1 , . . . , kn−m } avec
k1 < . . . < kn−m et A = {1 , . . . , m } avec 1 < . . . < m . Pour tout k notons Ck = (Ck , Ck ) avec
Ck ∈ Zd−1 les d − 1 premières coordonnées de Ck , et Ck ∈ Z la dernière coordonnée de Ck . Les
(d−1) (1)
chemins C  = (Ck i )1≤i≤n−m et C  = (Cj )1≤j≤m vérient C  ∈ Bn−m et C  ∈ Bm . L'application
(d) (d−1) (1)
C → (A, C  , C  ) dénit ainsi une bijection de Bn vers ∪A⊂{1,...,n} {A} × Bn−|A| × B|A| . Donc
n
  n  

(d−1) n (d−1) (1)
c(d)
n = cn−m c(1)
m = c c .
m n−m m
m=0 A⊂{1,...,n}, |A|=m m=0

(d)  c(1) n (d−1)


cn m cn−m
On récrit cette identité sous la forme = . On reconnaît un produit de
n! m! (n − m)!
m=0
Cauchy, qui montre que Φd (z) = Φ1 (z)Φd−1 (z), et le résultat est prouvé.
b) La convergence normale du développement en série de et cos θ sur θ ∈ [0, π], entraîne
  +∞  +∞ 
1 π  tn cosn θ  Jn 1 π
I0 (t) = dθ = tn , Jn = cosn θ dθ. (∗∗)
π 0 n! n! π 0
n=0 n=0

Le changement de variable u = π − θ donne


 π  π/2  π/2
1 + (−1)n
cosn θ dθ = (−1)n cosn u du donc Jn = cosn θ dθ.
π/2 0 π 0
4. PROBLÈMES 385

Donc Jn = 0 si n est impair. Si n est pair, on reconnait, à un facteur de normalisation près,


une intégrale de Wallis (c'est classique, voir le tome Analyse). Supposons n pair et n ≥ 2. En
écrivant cosn θ = cosn−2 θ(1 − sin2 θ) puis en intégrant par parties, on trouve
 π/2  π/2 
2 2 cosn−1 θ 2 π/2 cosn θ
Jn = Jn−2 − cosn−2 θ sin2 θ dθ = Jn−2 + sin θ − dθ.
π 0 π n−1 0 π 0 n−1
Ainsi, on a Jn = Jn−2 − Jn /(n − 1), donc Jn = ((n − 1)/n)Jn−2 . Comme J0 = 1, on en déduit
(2n − 1)(2n − 3) · · · 1 (2n)! (2n)!
∀n ∈ N, J2n = = = 2n .
(2n)(2n − 2) · · · 2 (2n)2 (2n − 2)2 · · · 22 2 (n!)2
On en déduit l'identité I0 (t) = Φ1 (t/2) grâce à (**). Pour trouver un équivalent de I0 (t) lorsque
t → +∞, on utilise la méthode de Laplace (voir le tome analyse), que nous instancions ici dans
notre cas particulier. Soit ε > 0 (susamment petit pour que ε < 1), et δ ∈ ]0, π/2[ tel que
1 − θ 2 (1 + ε)2 /2 ≤ cos θ ≤ 1 − θ2 (1 − ε)2 /2 sur [0, δ], de sorte que
 δ  δ  δ
t−tθ2 (1+ε)2 /2 t cos θ 2 (1−ε)2 /2
e dθ ≤ e dθ ≤ et−tθ dθ. (∗∗∗)
0 0 0

Le changement de variable u = t θ(1 + ε) donne, pour la première intégrale
 δ  δ√t(1+ε)  +∞
t−tθ 2 (1+ε)2 /2 et 2 I et 2
e dθ = √ e−u /2 du ∼ √ , I= e−u /2 du.
0 t(1 + ε) 0 t(1 + ε) 0

De même, la dernière intégrale de (***) est équivalente à I et /( t(1 − ε)) lorsque t → +∞. Donc
 δ
Iet 1 t cos θ Iet 1
∃T0 > 0, ∀t > T0 , √ 2
≤ e dθ ≤ √ .
t (1 + ε) 0 t (1 − ε)2
 π t cos θ
Comme |
 π t cos θ δ
e dθ| ≤ πeαt avec α = cos δ < 1, on en déduit l'existence de T1 > T0 tel que

| δ e dθ| ≤ εe / t pour t > T1 . On a donc
t

1 et I − ε 1 et I + ε

∀t > T1 , 2
≤ I0 (t) ≤ √ .
π t (1 + ε) π t (1 − ε)2

Comme ceci est possible pour tout ε > 0, on en déduit I0 (t) ∼ (I/π)et / t.
c) Le comportement
 de I0 (t) obtenu précédemment entraîne I0 (tx/d)
d = O(etx ), donc donc si
+∞
|x| < 1 l'intégrale 0 converge bien. Par ailleurs, si |x| < 1, on a
I0 (tx/d)d e−t dt
 +∞  d  +∞    +∞  +∞ (d)

tx −t tx −t cn
I0 e dt = Φd e dt = t x e−t dt.
n n
0 d 0 2d 0 (2d)n n!
n=0
(d)
Comme |x| < 1, et que 0 ≤ cn ≤ (2d)n , on a
N  N 
 c(d)    xn 
 n n n  −t  n  −t
∀N ∈ N, ∀t ∈ R+ ,  t x e ≤  t  e ≤ e|x|t e−t = e(|x|−1)t ,
 (2d)n n!   n! 
n=0 n=0
on peut donc appliquer le théorème de convergence dominée qui nous autorise à intervertir les
signes de sommations, ce qui fournit
 +∞  d +∞
 (d)  +∞
tx cn
I0 e−t dt = xn K n , Kn = tn e−t dt.
0 d (2d)n n! 0
n=0
Une intégration par partie fournit facilement Kn /n = Kn−1 lorsque n ∈ N∗ , donc Kn = n!. Par
ailleurs,
 +∞comme nous sommes dans le cas isotrope, on a P (Sn = 0) = c(d)
n /(2d) . On en déduit
n

bien 0 I0 (tx/d)d e−t dt = ϕ(x).


Supposons maintenant d ≥ 3. D'après la question précédente, il existe C > 0 tel que I0 (u) ≤
Ceu /u1/2 pour tout u > 0. Donc pour tout x ∈ [1/2,
 +∞1[ on a I0 (tx/d)d e−t ≤ Det(x−1) t−d/2 ≤
Dt −d/2 avec D = C (2d) . Comme d ≥ 3, M = 0 Dt
d d/2 −d/2 dt existe bien et on a ϕ(x) ≤ M
N
sur [1/2, 1[ . Pour tout N ∈ N , on a donc n=0 P (Sn = 0) xn ≤ ϕ(x) ≤ M donc en faisant

386 6. PROBABILITÉS

N 
x → 1 on en déduit n=0 P (Sn = 0) ≤ M . Ceci est vrai pour tout N , donc n P (Sn = 0)
converge. Ainsi, lorsque d ≥ 3, (S n ) est transitoire d'après la question 1/.
Lorsque
d ≤ 2, montrons que n P (Sn = 0) diverge. On raisonne par l'absurde en supposant
que M = n∈N P (Sn = 0) existe. L'intégrande étant positive, on en déduit, pour tout T > 0
 T  d
tx
∀x ∈ [0, 1[ I0 e−t dt ≤ ϕ(x) ≤ M.
0 d
  d   d
En faisant x → 1, on en déduit 0T I0 dt e−t dt ≤ M . Ainsi 0+∞ I0 dt e−t dt converge, ce qui

est impossible puisque I0 (t/d)d e−t ∼ αt−d/2 (avec α = (Id1/2 /π)d ) et d ≤ 2. Donc n P (Sn = 0)
diverge et (Sn ) est récurrente.
Remarque. Ainsi, une personne ivre revient une innité de fois en son lieu d'origine, mais
un oiseau ivre n'y revient au plus qu'un nombre ni de fois.
 On peut démontrer le théorème de Pólya en généralisant l'approche (dite combinatoire)
du 2/b) au cas d > 3, mais la technique est fastidieuse. Une approche plus élégante (dite
analytique) consiste à estimer P (S2n = 0) à partir de l'expression intégrale (*) de la
remarque 18 page 348, et en utilisant des transformations d'intégrales multiples.
 La fonction I0 (x) dénie dans 3/b) est un cas particulier des fonctions de Bessel modiées
 x 2n+α
de première espèce Iα , dénies par Iα (t) = n∈N n!(n+α)!
1
2
.
 La formule de 3/c), permet de passer d'une série génératrice exponentielle à une série
génératrice ordinaire. On l'appelle transformation de Borel .

Problème 9 (Théorème local limite et central limite). Soit (Xn )n∈N∗ une
suite de variables aléatoires à valeurs dans Z, indépendantes, identiquement distribuées,
admettant un moment d'ordre 2. On note Sn = X1 + · · · + Xn , E(X1 ) = µ et V (X1 ) = σ 2
(avec σ > 0). On suppose que la fonction caractéristique ϕX1 : t → E(eitX1 ) de X1 vérie
∀t ∈ [−π, π]  {0}, |ϕX1 (t)| < 1. (∗)
1/ Montrer que X1 ne satisfait pas l'hypothèse (*) si et seulement si il existe a ∈ Z et
b ∈ N, b ≥ 2, tels que presque surement, X1 prend ses valeurs dans a + bZ.
 +∞ −(t+ia)2 /2
2/ a) Montrer que pour a ∈ R, l'intégrale I(a) = −∞ e dt existe et ne dépend pas

 +∞ iat−t2 /2
de a, puis calculer J(a) = −∞ e dt (on rappelle la valeur classique I(0) = 2π ).
b) Montrer que
 π
1
∀x ∈ Z, P (Sn = x) = ϕX1 (t)n e−ixt dt. (∗∗)
2π −π

c) Montrer qu'il existe une fonction δ(t) vériant limt→0 δ(t) = 0, et telle que
   2 
 2 2  2 2
∀t ∈ R, ∀n ∈ N∗ , ϕX1 (t)n − einµt e−nσ t /2  ≤ e−nσ t /2 ent δ(t) − 1 .

d) (Théorème local limite). Montrer que lorsque n → +∞, on a pour tout x ∈ Z


   
1 (x − nµ)2 1
P (Sn = x) = √ exp − +o √ ,
2πσ 2 n 2σ 2 n n

où le o(1/ n) ne dépend que de n (indication : remarquer que l'intégrale√ de 2/b)
√ est
dictée par son comportement en t = 0, sur un intervalle de la forme [−A/ n, A/ n]).
4. PROBLÈMES 387

3/ (Théorème central limite). Soit a, b ∈ R, a < b. Montrer que


   b
Sn − nµ 1 2 /2
lim P a≤ √ ≤b =√ e−t dt.
n→+∞ σ n 2π a

Solution. 1/ S'il existe a ∈ Z et b ∈ N, b ≥ 2, tels que presque surement X1 prend ses valeurs
dans a + bZ, ceci signie que P (X = k) = 0 si k ∈ a + bZ. Donc on peut écrire
 
ϕX1 (2π/b) = P (X = a + bk)ei(2π/b)(a+bk) = e2iπa/b P (X = a + bk) = e2iπa/b ϕX1 (0)
k∈Z k∈Z

donc |ϕX1 (2π/b)| = |ϕX1 (0)| = 1, et comme b ≥ 2 on a démontré la condition susante.


Réciproquement supposons qu'il existe β ∈ [−π, π]  {0} tel que |ϕX1 (β)| = 1. On peut
supposer β > 0 car ϕX1 (β) et ϕX1 (−β) sont conjugués. Soit α ∈ R tel que ϕX1 (β) = eiα . On a
 
1 = e−iα ϕX1 (β) = P (X1 = k)ei(kβ−α) = P (X1 = k) cos(βk − α).
k∈Z k∈Z

Comme k∈Z P (X1 = k) = 1, on doit forcément avoir cos(βk − α) = 1 pour tout k tel que
P (X1 = k) > 0. Pour ces valeurs de k on a donc βk − α ∈ 2πZ, ou encore k ∈ c + dZ avec
c = α/β et d = 2π/β . Fixons k0 ∈ Z tel que P (X1 = k0 ) > 0. Pour k ∈ Z, k = k0 tel que
P (X1 = k) > 0 on a k − k0 ∈ dZ donc d = p/q ∈ Q, avec p, q ∈ N∗ et p ∧ q = 1. Comme
k − k0 ∈ dZ, il existe ∈ Z tel que k − k0 = (p/q) , donc q(k − k0 ) = p , et comme p ∧ q = 1 ceci
implique q | . Finalement on a donc k − k0 = p( /q) ∈ pZ. Donc k ∈ k0 + pZ. On en déduit le
résultat avec a = k0 et b = p. On a bien b ≥ 2 car p ≥ d = 2π/β ≥ 2.
2/a) Pour tout a ∈ R , l'intégrale I(a) est bien dénie car |e−(t+ia)2 /2 | = ea2 /2 e−t2 /2 . La suite de
n −(t+ia) /2
fonctions In : a → −n dt converge simplement vers I , et la théorème de dérivation
2
e
sous le signe intégral nous permet d'assurer la dérivabilité de In et la formule
 n  n
2 /2 2 2 2
In (a) = −i (t + ia)e−(t+ia) dt = i e−(t+ia) /2 = iea /2 e−n /2 cos(na).
−n −n

Sur tout segment [−K, K] de R ceci entraîne |In (a)| ≤ 2e e−n /2 , donc la suite de fonctions
K 2 /2 2

(In (a)) converge uniformément vers 0 sur ce segment. Donc I(a) est dérivable sur tout segment


[−K, K] de R, donc sur R tout entier, et I  (a) = 0. Ainsi I(a) = I(0) ce qui entraîne
 +∞  +∞ √
−t2 /2+iat −a2 /2 2 /2 2 /2 2 /2
J(a) = e dt = e e−(t+ia) dt = e−a I(a) = 2πe−a .
−∞ −∞

b) Compte tenu de l'indépendance des Xk , la fonction caractéristique de Sn vérie ϕSn (t) =


ϕX1 (t) · · · ϕXn (t) = (ϕX1 (t))n . On conclut avec la formule de la remarque 18 page 348.
c) Comme X1 admet un moment d'ordre 2, ϕX1 est de classe C 2 et on a, lorsque t → 0
ϕX1 (0) 2 σ 2 + µ2 2
ϕX1 (t) = ϕX1 (0) + ϕX1 (0)t + t + o(t2 ) = 1 + iµt − t + o(t2 ).
2 2
On a donc
 
2 t2 /2 σ 2 − µ2 2
e−iµt+σ ϕX1 (t) = 1 − iµt + t + o(t2 ) ϕX1 (t) = 1 + o(t2 ) = 1 + t2 f (t),
2
avec limt→+∞ f (t) = 0, et on a alors
2 t2 /2
ϕX1 (t)n = einµt e−nσ (1 + t2 f (t))n ,
ce qui entraîne, en posant δ(t) = |f (t)|,
2 t2 /2 2 t2 /2    
|ϕX1 (t)n − einµt e−nσ | = e−nσ (1 + t2 f (t))n − 1 ≤ e−nσ2 t2 /2 ent2 δ(t) − 1 .
388 6. PROBABILITÉS

d) Considérons maintenant ε > 0. Soit α ∈ ]0, π[ tel que pour t ∈ [−α, α], on ait δ(t) √< σ2 /4.
Soit A > 0 (on verra plus tard comment choisir A), et n susamment grand pour que A/ n < α.
Nous allons découper l'intégrale de 2/b) sur les domaines d'intégration

    
A A A A
Dn = − √ , √ , En,α = −α, − √ ∪ √ , α , Fα = [−π, −α] ∪ [α, π].
n n n n
L'inégalité précédente implique
     
 2 t2 /2  2 t2 /2 2 δ(t)
 ϕX1 (t)n e−ixt dt − ei(nµ−x)t e−nσ dt ≤ e−nσ eA − 1 dt.

Dn Dn Dn

Comme limt→0 δ(t) = 0, il existe N0 ∈ N, tel que pour n ≥ N0 , supt∈Dn eA δ(t) −√1 < ε, donc
2

pour n ≥ N0 , on en déduit, après avoir fait le changement de variable t = u/(σ n) dans ces
deux dernières intégrales,
    Aσ
 1 Aσ √
i(nµ−x)u/(σ n) −u2 /2
 ε 2
 n −ixt
ϕX1 (t) e dt − √ e e du ≤ √ e−u /2 du
 σ n σ n −Aσ
Dn −Aσ
ce qui entraîne
   Aσ 
 1 nµ − x  ε −u2 /2 1 2
 ϕX1 (t)n e−ixt dt − √ J √ ≤ √ e du + √ e−u /2 du.
 σ n σ n  σ n −Aσ σ n |u|≥Aσ
Dn

La dernière intégrale est majorée par 2 u≥Aσ (u/(Aσ))e /(Aσ), on en déduit
−u 2 /2 −A 2 σ 2 /2
du = 2e
   √ 2 2
 1 nµ − x  ε 2π e−A σ /2

 ϕ (t) n −ixt
e dt − √ J √ ≤ √ + 2 √ . (I)
σ n 
X 1
Dn σ n σ n Aσ 2 n
Sur le domaine En,α , il sut d'utiliser encore une fois la majoration obtenue à la question
précédente, qui entraîne |ϕX1 (t)n | ≤ e−nσ t /2 ent σ /4 = e−nσ t /4 sur ce domaine, donc
2 2 2 2 2 2

   
  1
2 2
e−A σ /4
 n −ixt  −nσ 2 t2 /4 −u2 /4
 ϕX1 (t) e dt ≤ e dt = √ e du ≤ 4 √ . (II)
 En,α  En,α σ n Aσ≤|u|≤ασ√n Aσ 2 n
Enn, les hypothèses vériées par ϕX1 entraînent que q = supt∈Fα |ϕX1 (t)| < 1, et on a
 
 

 ϕX1 (t) e n −ixt
dt ≤ 2πq n . (III)

Résumons. Pour tout ε > 0, pour tout A > 0, il existe N0 ∈ N et q ∈ ]0, 1[ tels que pour
n ≥ N0 , (I), (II) et (III) sont vériées. En choisissant A tel que 4e−A σ /4 /(Aσ 2 ) < ε, on en
2 2

déduit
√ l'existence√de N0 ∈ N tel√que les termes de droites de (I) et (II) sont respectivement

< ε( 2π + 1)/(σ n) et < ε/(σ n), et si on choisit N1 ≥ N0 tel que 2πq n ≤ ε/(σ n) pour
n ≥ N1 . On en déduit, compte tenu de la formule établie en 2/b),
  
 nµ − x  √
∀n ≥ N1 , ∀x ∈ Z, P (Sn = x) − 1 √ 1
J √
ε
≤ ( 2π + 3) √ .
 2π σ n σ n  σ n
On en déduit le résultat compte tenu de l'expression de J(a) obtenue en 2/a).
√ √
3/ Notons Zn = {x ∈ Z | aσ n + nµ ≤ x ≤ bσ n + nµ}. D'après le résultat de la question
précédente, on a
        
Sn − nµ 1 x − nµ 1
P a≤ √ ≤b = P (Sn = x) = √ g √ + o √ (∗∗∗)
σ n 2πσ 2 n x∈Zn σ n n
x∈Zn x∈Zn
√ √
avec −u /2 , et où les o(1/ n) ne dépendent que de n. Comme |Z | ≤ (b − a) n + 1 =
2
√ g(u) = e n √
O( n), la dernière somme est√ un o(1) . Soit x0√= min Z n , et K = |Zn | . On a |K −(b−a)σ n| < 1.
On note a0 = (x0 − nµ)/(σ n), et h = 1/(σ n), de sorte que a ≤ a0 < a + h, et on a
   K−1

1 x − nµ
√ g √ =h g(a0 + kh). (∗∗∗∗)
σ n σ n
x∈Zn k=0
4. PROBLÈMES 389

Or la dernière somme est, à un terme (b − a − (K − 1)h)g(b0 ) près (avec a0 + (K − 1)h ≤ b0 ≤ b),


une somme de Riemann de g sur l'intervalle [a, b], pour la subdivision σ : a < a + h < . . . <
a + (K − 1)h < b dont le pas est h. Comme h tend vers 0 et (b − a − (K − 1)h)g(b0 ) aussi, on

en déduit, lorsque n → +∞, que la somme de (****) converge vers ab g(u) du lorsque n → +∞.
L'estimation (***) permet donc d'écrire
     b
Sn − nµ 1 1  x − nµ 1 2
P a≤ √ ≤b =√ √ g √ + o(1) = √ e−u /2 du + o(1).
σ n 2π σ n x∈Z σ n 2π a
n

Remarque. La condition (*) permet d'éviter les cas comme celui où les Xk suivent une
loi de Rademacher, pour lequel S2n prend ses valeurs dans 2Z et la forme 2/d) du théo-
rème local limite serait fausse. Néanmoins on peut facilement démontrer, compte tenu du
résultat 1/, que le théorème central limite reste vrai sans la condition (*).
 Le théorème central limite reste vrai pour toute suite de variables aléatoires discrètes,
sous les conditions décrites au début du problème, sans la condition (*). Mais il ne permet
pas de conclure lorsque a et b dans 3/, varient en fonction de n. Pour ces cas, on peut
utiliser des versions
√ du théorème local limite qui précisent le comportement de P (Sn = x)
lorsque (x−nµ)/ n est grand (on parle de grandes
  déviations). Par exemple,
 siX1 admet
un moment d'ordre 3, on peut remplacer le o √n dans 2/d) par O n(1+|x|)3 .
1 1


 Nous avons prouvé, sous certaines conditions, la convergence en loi de (Sn − nµ)/(σ n)
vers√la loi
 x normale centrée réduite (parfois appelée loi gaussienne), dénie par x →
(1/ 2π) −∞ e−t /2 dt. Le domaine d'application de ce résultat est assez large et explique
2

pourquoi on rencontre souvent la gaussienne dans les modélisations statistiques.

Problème 10 (Loi forte des grands nombres). 1/a) Soit n ∈ N∗ et X1 , . . . , Xn des


variables aléatoires discrètes réelles, centrées, indépendantes, et admettant une variance.
Pour 1 ≤ k ≤ n, on note Sk = X1 + · · · + Xk . Montrer l'inégalité de Kolmogorov :
 
V (Sn )
∀x > 0, P max |Sk | > x ≤ .
1≤k≤n x2
(indication : considérer les événements Ak = {(Sj ≤ x)j<k , Sk > x} du plus petit indice k
tel que Sk > x, et minorer E(Sn2 1Ak ), où 1Ak désigne la fonction indicatrice de Ak ).
b) Soit (Xn )n∈N∗ une suite de variables aléatoires
 discrètes réelles, centrées, indépendantes,

admettant une variance, et telles que n∈N∗ V (Xn ) converge. Montrer que n∈N∗ Xn
converge presque surement.
2/ (Loi forte des grands nombres, cas L2 ).
a) Soit (an )n∈N∗ une suite croissante de R+∗ tendant vers +∞ et (xn )n∈N∗ une suite réelle.
Si n∈N∗ xn /an converge, montrer le lemme de Kronecker :
n
1 
lim xk = 0.
n→+∞ an
k=1

b) Soit (Xn )n∈N∗ une suite de variables aléatoires discrètes réelles, centrées, indépendantes,
admettant une variance, et (an )n∈N∗ une suite croissante de R+∗ tendant vers +∞. Si

n∈N∗ V (Xn )/an converge, montrer que presque surement, limn→+∞ an (X1 +· · ·+Xn ) = 0.
2 1

3/ (Loi forte des grands nombres ). Soit (Xn )n∈N∗ une suite de variables aléatoires discrètes
réelles, indépendantes, admettant une espérance, centrées et identiquement distribuées.
a) On considère les variables aléatoires tronquées Yn = Xn 1|Xn |≤n et Zn = Yn − E(Yn ).
390 6. PROBABILITÉS

Montrer que presque surement, (Z1 + · · · + Zn )/n converge vers 0.


b) Montrer que presque surement, (Y1 + · · · + Yn )/n converge vers 0.
c) Montrer que presque surement (Xn − Yn ) converge vers 0, puis que presque surement,
limn→+∞ n1 (X1 + · · · + Xn ) = 0,

Solution. 1/a) Remarquons que l'inégalité de Markov appliquée à Sn2 fournit P (|Sn | > x) ≤
V (Sn )/x2 , mais ceci est moins fort que l'inégalité demandée. On suit l'indication, en considérant
les événéments
 
A= max |Sk | > x et ∀k ∈ {1, . . . , n} Ak = {S1 ≤ x, . . . , Sk−1 ≤ x, Sk > x}.
1≤k≤n

Les événements A1 , . . . , An forment une partition de A. Pour tout k, l'événement Ak est déter-
miné par X1 , . . . , Xk , indépendants de Xk+1 , . . . , Xn , donc la fonction indicatrice 1Ak (dénie
par 1Ak (ω) = 1 si ω ∈ Ak , = 0 sinon) est indépendante de Xk+1 , . . . , Xn , donc Sn − Sk est
indépendante de Sk 1Ak . On en déduit
E(Sn2 1Ak ) = E((Sn − Sk )2 1Ak ) + 2E((Sn − Sk )Sk 1Ak ) + E(Sk2 1Ak ) ≥ x2 P (Ak )
(nous avons utilisé l'indépendance de Sn − Sk et Sk 1Ak , qui entraîne E((Sn − Sk )Sk 1Ak ) =
E(Sn − Sk )E(Sk 1Ak ) = 0). Comme les (Ak )1≤k≤n forment une partition de A, on en déduit le
résultat car
n
 n
 n

V (Sn ) = E(Sn2 ) ≥ E(Sn2 1A k ) = E(Sn2 1Ak ) ≥ x2 P (Ak ) = x2 P (A).
k=1 k=1 k=1

b) L'idée est d'utiliser le critère de Cauchy, à partir de l'inégalité précédente. Soit ε > 0 et
M ∈ N∗ . Pour tout m > M , l'inégalité précédente appliquée à XM +1 , . . . , Xm permet d'écrire
  m
V (Xk )
P max |XM +1 + · · · + Xk | > ε < k=M +12 .
M <k≤m ε
En notant Sn = X1 + · · · + Xn , on en déduit
  +∞
k=N +1 V (Xk )
∀m > M, P max |Sk − SM | > ε < .
M <k≤m ε2
La suite des ensembles ({maxM <k≤m |Sk − SM | > ε})m est croissante avec m, on en déduit
+∞  
k=N +1 V (Xk )
P (BM ) ≤ , où BM = max |Sk − SM | > ε .
ε2 k>M

Notons CM = {maxk,≥M |Sk − S | > 2ε}. L'inégalité |Sk − S |(ω) ≤ |Sk − SM |(ω) + |S −
SM |(ω) entraîne BM C ⊂ C C , donc par passage au complémentaire C
M M ⊂ BM , donc P (CM ) ≤
+∞
k=N +1 V (Xk )/ε 2 . Donc lim M →+∞ P (C M ) = 0 . Comme (C M ) est décroissante, on en déduit
P (∩M ∈N∗ CM ) = 0. Ainsi, le complémentaire D(ε) de ∩M ∈N∗ CM est presque sûr. Remarquons
que
D(ε) = {ω | ∃M ∈ N∗ , ∀k,
≥ M, |Sk − S |(ω) ≤ 2ε}.
L'ensemble D = ∩n∈N∗ D(1/n), intersection dénombrable d'ensembles presque sûrs, est presque
sûr, et pour tout ω ∈ D, la suite réelle (Sn (ω))n∈N∗ est de Cauchy, donc converge.

2/a) On note bn = an − an−1 (pour n ≥ 2), b1 = a1 , et sn = nk=1 xk /ak (pour n ∈ N∗ ), s0 = 0.
Une transformation d'Abel fournit
n
 n
 n   n n
xk
xk = ak = ak (sk − sk−1 ) = an sn − bk sk−1 = bk (sn − sk−1 ).
ak
k=1 k=1 k=1 k=1 k=1
Soit ε > 0. Comme la suite (sn ) converge, elle est de Cauchy, donc : ∃N ∈ N∗ , ∀k, n ≥ N (k < n),
|sn − sk−1 | < ε. On en déduit que pour tout n > N
     
n   N  n
 N
 N 
     
 xk  ≤  bk (sn − sk−1 ) + bk ε ≤ bk |sn | +  bk sk−1  + an ε = A|sn | + B + an ε
     
k=1 k=1 k=N +1 k=1 k=1
4. PROBLÈMES 391


avec A = aN et B = | N k=1 bk sk−1 |. Comme (sn ) converge et que an tend vers +∞, il existe
N1 ≥ N tel que pour tout n ≥ N1 , A|sn | + B ≤ an ε. On en déduit que pour tout n ≥ N1 ,
| nk=1 xk | ≤ 2an ε, d'où le résultat.
b) Il sut d'appliquer le résultat de 1/b)
 à la suite de variables aléatoires (Xn /an ), qui entraîne
presque surement la convergence de Xn /an , et d'après le lemme de Kronecker, ceci entraîne
presque surement limn→+∞ (X1 + · · · + Xn )/an = 0.
3/a) Quitte à considérer les variables aléatoires Xn − E(X1 ), on peut supposer m = 0. Les
variables aléatoires Yn et Zn sont bornées, donc admettent un moment d'ordre 2. On a V (Zn ) =
V (Yn ) ≤ E(Yn2 ) donc pour tout N ∈ N∗
N
 N
 N
   
V (Zn ) E(Y 2 )n 1 1
≤ = x2 P (X1 = x) = x2 P (X1 = x)
n2 n2 n2 n2
n=1 n=1 n=1 x∈X1 (Ω) x∈X1 (Ω) 1≤n≤N
|x|≤n n≥|x|
   
1 1
≤ x2 P (X1 = x) 2
+ ≤1+ |x|P (X1 = x),
x |x|
x∈X1 (Ω),x=0 x∈X1 (Ω)

où nous avons utilisé la majoration, pour x = 0,


   +∞
1 1 1 1 dt 1 1
2
≤ 2+ ≤ 2+ = 2+ .
n x n2 x |x| t2 x |x|
1≤n≤N,n≥|x| n≥|x|+1

Comme X1 admet une espérance, on en déduit que la série V (Zn )/n2 converge. D'après le
résultat de la question précédente (appliqué avec an = n), on en déduit que presque surement,
(Z1 + · · · + Zn )/n converge vers 0.
b) On a 
lim E(Yn ) = lim xP (X1 = x) = E(X1 ) = 0.
n→+∞ n→∞
x∈X(Ω),|x|≤n

Il est classique que ceci implique la convergence de (E(Y1 ) + · · · + E(Yn ))/n vers 0. En eet c'est
la conséquence du résultat suivant, appliqué à un = E(Yn ) (voir aussi le tome Analyse sur la
moyenne de Césaro)
Soit (un )n∈N∗ une suite réelle convergeant vers 0. Alors (u1 + · · · + un )/n converge vers 0. (∗)
La preuve de (*) est facile : pour tout ε> 0, soit N ∈ N tel que |un | < ε pour n ≥ N . Alors
pour n > N on a |u1 + · · · + un | < A + nk=N +1 |uk | < A + (n − N )ε avec A = |u1 + · · · + un |,
donc |u1 + · · · + un | < 2nε pour n assez grand.
On en déduit que (Y1 + · · · + Yn )/n = (Z1 + · · · + Zn )/n + (E(Y1 ) + · · · + E(Yn ))/n converge
presque surement vers 0.
c) On remarque pour tout N ∈ N∗ ,
N
 N
 N
 N
 
P (Xn = Yn ) = P (|Xn | > n) = P (|X1 | > n) = P (X1 = x)
n=1 n=1 n=1 n=1 x∈X1 (Ω),|x|>n
  
= P (X1 = x) ≤ |x|P (X1 = x)
x∈X1 (Ω) 1≤n≤N,n<|x| x∈X1 (Ω)

et comme X1 admet une espérance, on en déduit que n P (Xn = Yn ) converge, donc d'après
le lemme de Borel-Cantelli, P (lim supn {Xn = Yn }) = 0. Donc presque surement, on a Xn = Yn
sauf pour un nombre ni de valeurs de n, donc presque surement, limn→+∞ Xn − Yn = 0.
On en déduit, en appliquant une fois encore le résultat (*), que la moyenne de Césaro Mn =
((X1 − Y1 ) + · · · + (Xn − Yn ))/n converge presque surement vers 0, donc (X1 + · · · + Xn )/n =
(Y1 + · · · + Yn )/n + Mn converge presque surement vers 0.
Remarque. - Sous les hypothèses de la question 3/, mais sans supposer les Xn centrées, on
obtient que (X1 + · · · + Xn )/n converge presque surement vers E(X1 ) (il sut d'appliquer
392 6. PROBABILITÉS

3/c) à Xn∗ = Xn − E(X1 )), ce qui est la formulation générale de la loi forte des grands
nombres.
 Soit α > 1/2. Sous les hypothèses de la question 3/ et si X1 est centré et admet une
variance, le résultat 2/b) arme que presque surement, on a
X 1 + · · · + Xn
lim √ = 0.
n→+∞ n(log n)α

Ainsi, presque surement, X1 + · · · + Xn = o( n(log n)α ). Ce résultat est moins fort que
celui obtenu à l'exercice 7 page 352 dans le cas particulier
√ de la loi de Rademacher, ou il est
montré que presque surement, |X1 + · · · + Xn | ≤ 2n log n(1 + o(1)). Un résultat optimal
de ce type, appelé loi du logarithme itéré a été obtenu par Kolmogorov en 1929, qui a
montré que si les (Xn ) sont identiquement distribuées, centrées,
√ admettant
√ un moment
d'ordre 2, alors presque surement, |X1 +√· · · + Xn | ≤ (σ 2 + o(1)) n log log n, où σ est
l'écart type de X1 , et que la constante σ 2 est optimale (ce résultat a été rané en 1941
par Hattman et Wintner qui ont√montré que presque surement, l'ensemble√des √ valeurs
d'adhérence de (X1 + · · · + Xn )/ n log log n est égal à tout l'intervalle [−σ 2, σ 2]).
Annexe A

Résolution des équations du troisième et du quatrième degré


Cette annexe propose la résolution des équations du troisième et du quatrième degré.
Deux techniques sont exposées, d'abord celles dues à Cardan (troisième degré) et Ferrari
(quatrième degré), découvertes historiquement en premier, puis la méthode de Lagrange
qui en un certain sens, est plus générale que les précédentes et ore un point de vue
intéressant.

1. Introduction
On se donne un polynôme F = a0 X n + a1 X n−1 + · · · + an ∈ K[X] (où K est un corps
commutatif quelconque), tel que a0 = 0 et n ≥ 1. On se propose de résoudre l'équation
F (x) = 0. Quitte à diviser le polynôme F par a0 , on peut supposer a0 = 1. Enn, en
eectuant le changement de variable x = z − a1 /n, on se ramène au cas où le coecient
de X n−1 est nul. Finalement, on est amené à résoudre une équation de la forme
z n + a2 z n−2 + · · · + an−1 z + an = 0.
Dans la suite, le corps de base K est le corps des nombres complexes C.

2. Techniques historiques
2.1. Méthode de Cardan pour la résolution de l'équation du troisième degré
On veut résoudre l'équation z 3 + pz + q = 0. Si on pose z = u + v , l'équation sera
vériée si
u3 + v 3 + 3u2 v + 3uv 2 + pu + pv + q = 0 = u3 + v 3 + (u + v)(3uv + p) + q = 0.
Ceci sera vérié si on a 
u3 + v 3 = −q
uv = −p/3
c'est-à-dire si u + v = −q et u v = −p3 /27, les déterminations des racines cubiques de
3 3 3 3

u et v étant choisies telles que uv = −p/3. En d'autres termes, il sut que u3 et v 3 soient
racines de
p3
z 2 + qz − = 0 avec uv = −p/3. (∗)
27
Si on note z1 , z2 les racines de cette équation du second degré, si u et v sont des racines
cubiques de z1 et z2 telles que uv = −p/3, les racines recherchées sont alors
u + v, uj + vj 2 , uj 2 + vj où j = e2iπ/3 .
Lorsque (p, q) ∈ R2 , le nombre de racines réelles de l'équation z 3 + pz + q = 0 peut être
discuté. Celui-ci dépend du signe du discriminant de l'équation du second degré (∗), qui
est du signe de 4p3 + 27q 2 . On montre facilement que
(i) Si 4p3 + 27q 2 > 0, il y a une racine réelle et deux racines complexes conjuguées.
(ii) Si 4p3 + 27q 2 = 0, il y a une racine triple 0 si q = 0, une racine réelle double et une
réelle simple si q = 0.
(iii) Si 4p3 + 27q 2 < 0, il y a trois racines réelles.
394 A. RÉSOLUTION DES ÉQUATIONS DU TROISIÈME ET DU QUATRIÈME DEGRÉ

Ce dernier résultat est à rapprocher de celui de l'exercice 2 de la page 85.


2.2. Méthode de Ferrari pour la résolution de l'équation du quatrième degré
On se donne F = z 4 + az 2 + bz + c et on veut résoudre F (z) = 0. Pour cela, on
recherche λ, p et q tels que F (z) = (z 2 + λ)2 − (pz + q)2 . Ceci sera réalisé si et seulement
si le polynôme
(z 2 + λ)2 − F (z) = (2λ − a) z 2 − bz + (λ2 − c) (∗∗)
est un carré parfait, autrement dit si et seulement si le discriminant de (∗∗) est nul, ce
qui s'écrit
∆ = b2 − 4(λ2 − c)(2λ − a) = −8λ3 + 4aλ2 + 8λc + b2 − 4ac = 0.
Cette dernière équation peut être résolue grâce à la méthode de Cardan. Si λ désigne l'une
quelconque de ses solutions, il est maintenant facile de trouver p et q puis de résoudre
(z 2 + λ)2 − (pz + q)2 = 0.

3. Méthode de Lagrange
On doit à Lagrange une ingénieuse idée de résolution des équations. Pour résoudre
F (z) = 0 où F est de degré d, l'idée de Lagrange est la suivante. Notons α1 , . . . , αd les
racines de F . Si on trouve un polynôme P en les αi qui ne prend que d − 1 valeurs par
toute permutation sur les αi , on saura (grâce aux formules donnant les coecients d'un
polynôme en fonction de ses racines, et compte tenu du fait que tout polynôme symétrique
peut s'exprimer au moyen seulement des polynômes symétriques élémentaires) trouver un
polynôme de degré d − 1 qui annule les d − 1 valeurs prises par P sur les αi . On est ainsi
ramené à un polynôme de degré inférieur.
Ce principe encore un peu vague va prendre tout son sens dans les parties qui suivent.
3.1. L'équation du troisième degré
Notons α, β, γ les racines de F = z 3 + pz + q . Le polynôme (X + jY + j 2 Z)3 ne prend
que deux valeurs par toutes les permutations eectuées sur α, β, γ , qui sont
A = (α + jβ + j 2 γ)3 et B = (α + jγ + j 2 β)3 .
Compte tenu du théorème 1 de la page 64, on a
σ1 = α + β + γ = 0, σ2 = αβ + βγ + γα = p, σ3 = αβγ = −q.
Un calcul donne
A + B = 2(α3 + β 3 + γ 3 ) − 3(α2 β + β 2 γ + γ 2 α + α2 γ + β 2 α + γ 2 β) + 12αβγ
= 2(σ1 − 3σ1 σ2 + 3σ3 ) − 3(σ1 σ2 − 3σ3 ) + 12σ3 = −27q
et
AB = (α2 + β 2 + γ 2 − αβ − βγ − γα)3 = (σ12 − 2σ2 − σ2 )3 = −27p3 .
Ainsi, A et B sont trouvées simplement comme solutions de
z 2 + 27q z − 27p3 = 0. (∗∗∗)
Si on note u (resp. v ) une racine cubique de A (resp. de B ), les déterminations étant
choisies telles que uv = (α + jβ + j 2 γ)(α + jγ + j 2 β) = −3p, on s'est ramené à résoudre
le système
 
  1
α + β + γ = 0 α = 3
(u + v)
α + jβ + j 2 γ = u dont les solutions sont β = 1
3
(uj 2 + vj) .

 α + jγ + j 2 β = v 
γ = 1
3
(uj + vj 2 )
3. MÉTHODE DE LAGRANGE 395

Noter que le test du nombre de racines réelles s'eectue simplement grâce au discriminant
de l'équation (∗∗∗) qui est 27(4p3 + 27q 2 ).
3.2. L'équation du quatrième degré
On note α, β, γ, δ les racines de F = z 4 + az 2 + bz + c. Le polynôme XY + ZT ne
prend que trois valeurs par toutes les permutations eectuées sur α, β, γ, δ , qui sont
A = αβ + γδ, B = αγ + βδ, C = αδ + βγ.

Ici, les fonctions symétriques des racines de F valent respectivement σ1 = 0, σ2 = a,


σ3 = −b et σ4 = c. Les calculs qui suivent sont légèrement plus simples que ceux de la
partie précédente.
A + B + C = σ2 = a,

AB + BC + CA = σ1 σ3 − 4σ4 = −4c
et
ABC = (σ12 − 2σ2 )σ4 + σ32 − 2σ2 σ4 = b2 − 4ac.
Ainsi A, B et C sont obtenus comme solutions de l'équation
z 3 − az 2 − 4cz − b2 + 4ac = 0,

que l'on sait désormais résoudre. Si on note u, v, w ses racines, on est ramené à résoudre
le système
 

 α+β+γ+δ = 0 
 α+β+γ+δ = 0
 
αβ + γδ = u (α + β)(γ + δ) = v+w
qui équivaut à .

 αγ + βδ = v 
 (α + δ)(β + γ) = u+v
 αδ + βγ = w  (α + γ)(β + δ) = u+w

à l'aide de deux premières équations de ce dernier système, on trouve



α + β = ρ1 et γ + δ = −ρ1 , où ρ1 = −v − w,

de même avec la première et la troisième équation



α + δ = ρ2 et β + γ = −ρ2 , où ρ2 = −u − v

et avec la première et la dernière équation,



α + γ = ρ3 et β + δ = −ρ3 , où ρ3 = −u − w.

Pour qu'il y ait équivalence entre ces trois dernières assertions et le système précédent, il
faut et il sut que les déterminations des racines carrées ρ1 , ρ2 , ρ3 soient choisies de sorte
que ρ1 ρ2 ρ3 = −b, compte tenu du fait que
(α + β)(α + γ)(α + δ) = α2 (α + β + γ + δ) + σ3 = −b.

Maintenant, on en déduit facilement que les solutions sont


1 1 1 1
α = (ρ1 +ρ2 +ρ3 ), β = (ρ1 −ρ2 −ρ3 ), γ = (−ρ1 −ρ2 +ρ3 ), δ = (−ρ1 +ρ2 −ρ3 ).
2 2 2 2
396 A. RÉSOLUTION DES ÉQUATIONS DU TROISIÈME ET DU QUATRIÈME DEGRÉ

3.3. L'équation du cinquième degré ?


L'approche de Lagrange est une technique très ecace pour abaisser le degré d'une
équation. Il est naturel de chercher à l'appliquer sur l'équation générale de degré cinq. La
diculté est ici de trouver un polynôme de cinq variables qui ne prend que quatre valeurs
par toute permutation de ses variables.
En fait, un tel polynôme n'existe pas. Nous allons prouver ce résultat. Pour tout
polynôme P ∈ C[X1 , X2 , X3 , X4 , X5 ], pour toute permutation σ ∈ S5 , on note
Pσ = P (Xσ(1) , Xσ(2) , Xσ(3) , Xσ(4) , Xσ(5) )
Supposons que P ∈ C[X1 , X2 , X3 , X4 , X5 ] soit tel que l'ensemble Γ = {Pσ | σ ∈ S5 } vérie
Card(Γ) = 4. Le groupe des permutations S5 opère sur Γ par le biais de la fonction
S5 × Γ → Γ (σ, Q) → Qσ .
D'après le théorème 7 de la page 24, le stabilisateur H = {σ ∈ S5 | Pσ = P } de P est
un sous groupe de S5 d'indice 4 dans S5 (puisque par construction, l'orbite de P est Γ
tout entier, de cardinal 4). D'après l'exercice 8 de la page 27 ceci est impossible, d'où le
résultat.
Cette démonstration ne prouve pas qu'il est impossible de résoudre par des formules
générales l'équation de degré cinq, mais elle montre simplement que la méthode de La-
grange ne s'applique pas. C'est Abel qui le premier montra que des formules générales
pour les solutions de l'équation de degré cinq n'existent pas. Galois compléta quelques
années plus tard ce résultat en donnant une condition nécessaire et susante sur un poly-
nôme pour qu'il soit résoluble par radicaux (en termes intuitifs, on dit qu'une équation est
résoluble par radicaux si ses solutions peuvent s'exprimer au moyen de radicaux emboités
les uns dans les autres).
Annexe B

Invariants de similitude d'un endomorphisme et réduction de


Frobenius
Cette annexe présente la théorie des invariants de similitude des endomorphismes en
dimension nie. Cette notion est assez éloignée de l'esprit du programme de mathéma-
tiques spéciales, et c'est plus à titre de curiosité qu'elle est présentée. Comme nous allons
le voir, elle propose un cadre agréable de réduction des endomorphismes qui permet une
caractérisation simple de la classe des matrices semblables à une matrice donnée. En
première lecture, les démonstrations des résultats énoncés peuvent être sautées.
Dans toute l'annexe, E désigne un espace vectoriel sur un corps commutatif K de
dimension nie n.

1. Introduction
On se donne un endomorphisme f ∈ L(E). Nous commençons par donner quelques
rappels des résultats de l'exercice 3 de la page 188.
Notation. On note Πf le polynôme minimal de f , et Lf l'ensemble {P (f ) | P ∈ K[X]}.
Si x ∈ E , on note Px le polynôme unitaire engendrant l'idéal {P ∈ K[X] | P (f )(x) = 0}
et Ex l'ensemble {P (f )(x) | P ∈ K[X]}.

Proposition 1. Si k = deg(Πf ), l'ensemble Lf est un s.e.v de L(E) de dimension k ,


dont une base est (IdE , f, . . . , f k−1 ).
Si  = deg(Px ), l'ensemble Ex est un s.e.v de E de dimension , dont une base est
(x, . . . , f −1 (x)).

Démonstration. L'application K[X] → L(E) P → P (f ) est linéaire. Son image est Lf , c'est
donc un s.e.v, et son noyau est {P ∈ K[X] | P (f ) = 0} = (Πf ). Ainsi, Lf est isomorphe à
k−1
K[X]/(Πf ). Ce dernier étant de dimension k dont une base est (1, X, . . . , X ) (voir le théo-
rème 4 de la page 65) on en déduit par isomorphisme la première partie de la proposition.
La seconde partie se traite de manière analogue en considérant l'application K[X] → E P →

P (f )(x). 
La propriété qui suit est cruciale dans la suite de cette annexe (elle est prouvée dans
l'exercice 3 page 188).

Proposition 2. Il existe x ∈ E tel que Px = Πf .

Endomorphismes cycliques.

Définition 1. On dit que f est cyclique s'il existe x ∈ E tel que Ex = E . D'après
les propositions précédentes, ceci équivaut à dire que deg(Πf ) = n (ou encore que Πf =
(−1)n Pf où Pf désigne le polynôme caractéristique de f ).
398 B. INVARIANTS DE SIMILITUDE D'UN ENDOMORPHISME ET RÉDUCTION DE FROBENIUS

Définition 2. Soit P = X p +ap−1 X p−1 +· · ·+a0 ∈ K[X]. On appelle matrice compagnon


de P la matrice  
0 · · · · · · 0 −a0
 .. 
 1 0 . −a1 
 . . . .. .. 
C(P ) = 
 0 1 . . 
 ∈ Mp (K).
 . .
 .. . . . . . 0 −ap−2 

0 · · · 0 1 −ap−1
Nous avons déjà rencontré les matrices compagnons lors de la seconde démonstration
du théorème de Cayley-Hamilton, et nous avions montré que le polynôme caractéristique
de C(P ) est (−1)p P .
Proposition 3. Soit f ∈ L(E) un endomorphisme cyclique. Il existe une base de E dans
laquelle la matrice de f soit égale à C(Πf ).
Démonstration. Comme f est cyclique, il existe x ∈ E tel que Ex = E . On sait alors que
(x, f (x), . . . , f n−1 (x)) est une base de E , et dans cette base, la matrice de f est C(Πf ) (si
Πf = X n + an−1 X n−1 + · · · + a0 , l'image du dernier vecteur f n−1 (x) de la base par f vaut
f n (x) = −an−1 f n−1 (x) − · · · − a0 x car Πf (f )(x) = 0). 

2. Invariants de similitude
Le théorème qui suit est le point central de notre discussion.
Théorème 1. Soit f ∈ L(E). Il existe une suite F1 , F2 , . . . , Fr de s.e.v de E , tous stables
par f , telle que
(i) E = F1 ⊕ F2 ⊕ · · · ⊕ Fr ,
(ii) pour tout i ∈ {1, . . . , r}, la restriction fi = f|Fi de l'endomorphisme f au s.e.v Fi
est un endomorphisme de Fi cyclique,
(iii) si Pi désigne le polynôme minimal de fi , on a Pi+1 | Pi pour tout i ∈ {1, . . . , r − 1}.
La suite de polynômes P1 , . . . , Pr ne dépend que de f et non du choix de la décomposition.
On l'appelle suite des invariants de similitude de f .
Démonstration. Existence. Soit k = deg(Πf ) et soit x ∈ E tel que Px = Πf . Le s.e.v F = Ex est
de dimension k et il est stable par f . Comme deg(Px ) = k, la famille de vecteurs
e1 = x, e2 = f (x), · · · , ek = f k−1 (x)
forme une base de F = Ex . Complétons cette base en une base (e1 , . . . , en ) de E . En désignant
par (e∗1 , . . . , e∗n ) la base duale associée, on note
G = Γ◦ où Γ = { tf i (e∗k ) | i ∈ N} = {e∗k ◦ f i , i ∈ N}
(orthogonal vis-à-vis du dual). En d'autres termes, G est l'ensemble des x ∈ E tels que la k-ième
coordonnée de f i (x) (dans la base (e1 , . . . , en )) soit nulle pour tout i. L'ensemble G est un s.e.v
de E , et il est stable par f comme on le vérie facilement.
Nous allons montrer F ⊕ G = E , et pour cela, nous prouvons successivement F ∩ G = {0}
et dim F + dim G = n.
Soit y ∈ F ∩ G. Si y = 0, on peut écrire y = a1 e1 + · · · + ap ep avec ap = 0 et p ≤ k. En
composant par tf k−p (e∗k ) = e∗k ◦ f k−p , on obtient
0 = e∗k (a1 ek−p+1 + · · · + ap ek ) = ap ,
ce qui est absurde. Donc F ∩ G = {0}.
Comme G = (Vect Γ)◦ , pour montrer dim G = n − dim F = n − k, il sut de prouver
dim(Vect Γ) = k . Pour cela, on considère l'application linéaire
ϕ : Lf = {P (f ) | P ∈ K[X]} → Vect Γ g → e∗k ◦ g.
2. INVARIANTS DE SIMILITUDE 399

Par dénition de Vect Γ, ϕ est surjective. De plus, ϕ est injective. En eet, si e∗k ◦ g = 0 avec
g = 0, on peut écrire g = a1 IdE + · · · + ap f p−1 ∈ Lf (avec p ≤ k et ap = 0) et
0 = e∗k ◦ g(f k−p (x)) = e∗k (a1 f k−p (x) + · · · + ap f k−1 (x)) = e∗k (a1 ek−p+1 + · · · + ap ek ) = ap ,
ce qui est absurde. Finalement, ϕ est un isomorphisme donc dim(Vect Γ) = dim Lf = k.
Résumons. Nous avons trouvé un sous espace G stable par f tel que F ⊕ G = E . Notons P1
le polynôme minimal de f|F , (qui est le polynôme minimal de f car P1 = Px = Πf ), et P2 le
polynôme minimal de f|G . Comme G est stable par f , P2 | P1 . On applique ce qui précède à f|G ,
et au bout d'un nombre ni d'étapes, on obtient la décomposition voulue.
Unicité. Supposons l'existence de deux suites de sous espaces F1 , . . . , Fr et G1 , . . . , Gs tous stables
par f et vériant les conditions (i), (ii) et (iii). Notons Pi = Πf|Fi et Qj = Πf|Gj .
On voit que P1 = Πf = Q1 . Supposons la liste (P1 , . . . , Pr ) diérente de (Q1 , . . . , Qs ) et
notons
 j le premier indice tel que Pj = Qj (un tel indice existe toujours même si r = s, car
i deg(Pi ) = n = j deg(Qj )). L'égalité E = F1 ⊕ · · · ⊕ Fr avec les Fi stables par f , et la
propriété Pj (f )(Fk ) = 0 pour k ≥ j , entraînent
Pj (f )(E) = Pj (f )(F1 ) ⊕ · · · ⊕ Pj (f )(Fj−1 ) (∗)
et par ailleurs l'égalité E = G1 ⊕ · · · ⊕ Gs avec les Gj stables par f entraîne
Pj (f )(E) = Pj (f )(G1 ) ⊕ · · · ⊕ Pj (f )(Gj−1 ) ⊕ Pj (f )(Gj ) ⊕ · · · ⊕ Pj (f )(Gs ) (∗∗)
On a dim Pj (f )(Fi ) = dim Pj (f )(Gi ) pour 1 ≤ i ≤ j − 1 (en eet, d'après la proposition 3, on
peut trouver une base Bi de Fi et une base Bi de Gi telles que la matrice de f|Fi dans Bi coïncide
avec la matrice de f|Gi dans Bi ). En prenant les dimensions dans (∗) et (∗∗), on en déduit
0 = dim Pj (f )(Gj ) = · · · = dim Pj (f )(Gs ),
ce qui prouve que Qj | Pj . Par symétrie de rôle , on a aussi Pj | Qj , donc Pj = Qj ce qui est
absurde. Finalement, on doit avoir r = s et Pi = Qi pour tout i. 

Théorème 2 (Réduction de Frobenius). Si P1 , . . . , Pr désigne la suite des invariants


de similitude de f ∈ L(E), il existe une base B de E telle que
 
C(P1 ) 0
[f ]B =  .. .
.
0 C(Pr )
On a d'ailleurs P1 = Πf et P1 · · · Pr est le polynôme caractéristique de f (au facteur (−1)n
près).
Démonstration. Il sut pour tout i de considérer une base Bi de Fi dans laquelle la matrice de
fi = f|Fi est C(Pi ) (ce qui est possible d'après la proposition 3), puis d'écrire la matrice de f
dans la base B = (B1 , . . . , Br ). 
Comme pour les matrices, on dit que deux endomorphismes f, g ∈ L(E) sont sem-
blables s'il existe h ∈ G(E) tel que f = h−1 gh. Muni de cette dénition, on a le résultat
suivant.
Corollaire 1. Deux endomorphismes f et g ∈ L(E) sont semblables si et seulement
s'ils ont les mêmes invariants de similitude.
Démonstration. Si f et g sont semblables, on montre facilement en reprenant la preuve de l'unicité
dans le théorème 1 que f et g ont les mêmes invariants de similitude.
Réciproquement, si f et g ont les mêmes invariants de similitude, le théorème précédent
assure l'existence de deux bases B et B  de E telles que [f ]B = [g]B  ce qui signie que f et g
sont semblables. 
400 B. INVARIANTS DE SIMILITUDE D'UN ENDOMORPHISME ET RÉDUCTION DE FROBENIUS

3. Applications
3.1. Réduction de Jordan
Une fois que l'on sait réduire un endomorphisme nilpotent sous forme de Jordan, il
n'est pas dicile de trouver la réduction de Jordan d'un endomorphisme quelconque (voir
le théorème 5, page 209). Comme nous allons le voir, cette première tâche peut être réalisée
au moyen de la théorie des invariants de similitude.
Soit f ∈ L(E) un endomorphisme nilpotent. Désignons par P1 , . . . , Pr la suite des
invariants de similitude de f . Le produit P1 · · · Pr est au signe près le polynôme carac-
téristique de f , qui est (−1)n X n , ce qui montre que Pi est de la forme X ni pour tout i.
Ainsi, C(Pi ) est la transposée d'un bloc de Jordan pour tout i, et on en déduit avec le
théorème 2 l'existence d'une base B = (e1 , . . . , en ) de E dans laquelle la matrice de f est
de la forme
 
0 ··· ··· 0
 ... .. 
 v1 . 
 ... ... ..  où ∀i ∈ {1, . . . , n − 1}, vi ∈ {0, 1}.
 . 
0 vn−1 0
La matrice de f dans la base B  = (en , . . . , e1 ) est
 
0 vn−1 0
 .. ... ... 
 . 
 .. ... 
 . v1 
0 ··· ··· 0
qui a bien la forme voulue.
3.2. Autres applications
Il existe une multitude de résultats qui peuvent être prouvés grâce à la théorie des
invariants de similitude. Par exemple :
 Dans Mn (R) (n = 2 ou n = 3), deux matrices sont semblables si et seulement si
elles ont même polynôme minimal et même polynôme caractéristique (ce résultat
est faux dès que n ≥ 4).
 Si L est un surcorps commutatif de K, si A, B ∈ Mn (K) sont semblables sur
Mn (L), alors A et B sont semblables sur Mn (K). En eet, en vertu de l'unicité, les
invariants de similitude dans Mn (K) sont les invariants de similitude dans Mn (L)
(car de plus, le polynôme minimal d'une matrice de Mn (K) est le même dans K[X]
ou dans L[X]). Ce résultat généralise celui de l'exercice 14 de la page 167.
 Si f ∈ L(E) et si les seuls endomorphismes commutant avec f sont des polynômes
en f , alors f est cyclique. En eet, si tel n'est pas le cas, on a deg(Πf ) < n donc
le nombre r d'invariants de similitude de f vérie r ≥ 2. Avec les notations du
théorème 1, on peut écrire E = F1 ⊕ G où G = F2 ⊕ · · · ⊕ Fr = {0}. Si on note p
la projection sur G parallèlement à F1 , p et f commutent (car F1 et G sont stables
par f ). Si on avait p = Q(f ) avec Q ∈ K[X], comme p|F1 = 0 on en déduirait
Q(f|F1 ) = 0, donc Πf = Πf|F1 divise Q, et donc p = Q(f ) = 0, ce qui est absurde.
Ceci constitue la réciproque de la question 2/ de l'exercice 6 de la page 191.
Annexe C

Fractions continues
Nous proposons ici une introduction aux fractions continues, qui décrivent un moyen
simple de générer les meilleurs approximants fractionnaires d'un nombre réel irrationnel.
Dans une deuxième partie, nous caractérisons les fractions continues périodiques.

Problème 1 (Fractions continues). Étant donnée une suite réelle (an ), avec an > 0
pour n > 0, on appelle fraction continue l'expression
1
[a0 , a1 , . . . , an ] = a0 + .
1
a1 +
a2 +
... 1
+
1
an−1 +
an
De manière équivalente, on dénit les fractions continues par [a0 ] = a0 , [a0 , a1 ] = a0 +1/a1
et par la récurrence
 
1
∀n ≥ 2, [a0 , . . . , an ] = a0 , . . . , an−2 , an−1 + . (∗)
an

1/ (Développement en fraction continue d'un nombre irrationnel). Soit ξ un nombre réel


irrationnel. Partant de ξ0 = ξ , on dénit les suites (an ) et (ξn ) par la relation de récurrence
1
∀n ∈ N, an = [ξn ], ξn+1 = ,
ξn − an
où pour tout x ∈ R, [x] désigne la partie entière de x. La valeur an s'appelle quotient
incomplet d'indice n, et ξn le quotient complet d'indice n.
a) Montrer que les suites (an ) et (ξn ) sont bien dénies, que an > 0 et ξn > 0 pour tout
n ∈ N∗ et que de plus
∀n ∈ N∗ , ξ = [a0 , . . . , an−1 , ξn ].
b) On dénit les suites (pn ) et (qn ) par
p 0 = a0 , p1 = a1 a0 + 1, pn = an pn−1 + pn−2 ,
q0 = 1, q1 = a1 , qn = an qn−1 + qn−2 .
Montrer que
pn−1 x + pn−2
∀n ≥ 2, ∀x > 0, [a0 , . . . , an−1 , x] = .
qn−1 x + qn−2
c) Montrer que les valeurs [a0 , . . . , an ] (appelées réduites de ξ ) vérient
pn
∀n ∈ N, [a0 , . . . , an ] = .
qn
d) Montrer que pour tout n ∈ N∗ , on a la relation pn qn−1 − pn−1 qn = (−1)n−1 .
e) Montrer que pour tout n ∈ N, pn /qn est une fraction irréductible.
402 C. FRACTIONS CONTINUES

f) Montrer
pn (−1)n
∀n ∈ N∗ , ξ− = .
qn qn (qn−1 + qn ξn+1 )
En déduire que les réduites pn /qn sont des approximations fractionnaires de ξ qui vérient
 
 
ξ − pn  < 1 .
 qn  qn2

g) Montrer que sur deux réduites consécutives, il en existe une qui vérie
 
 
ξ − pn  < 1 .
 qn  2qn2

h) Montrer que pour tout n ∈ N∗ on a


∀(p, q) ∈ Z2 , 0 < q ≤ qn , |qξ − p| ≥ |qn ξ − pn |.
On dit alors que la réduite pn /qn est une meilleure approximation fractionnaire de ξ .
2/ (Fractions continues périodiques). On rappelle qu'un nombre ξ ∈ R est quadratique
s'il est racine d'un polynôme de degré 2 à coecients entiers et irréductible dans Q[X].
a) Montrer qu'un nombre quadratique est irrationnel.
b) Soit ξ ∈ R un nombre irrationnel et (an ) et (ξn ) les suites de quotients incomplets et
complets associés au développement en fraction continue de ξ . Montrer que le dévelop-
pement en fractions continues de ξ est périodique à partir d'un certain rang (c'est-à-dire
qu'il existe T ∈ N∗ et r ∈ N tel que ak+T = ak pour tout k ≥ r) si et seulement s'il existe
T ∈ N∗ et r ∈ N tels que ξr = ξr+T .
c) Montrer que si le développement en fraction continue d'un nombre irrationnel ξ ∈ R
est périodique à partir d'un certain rang, alors ξ est quadratique.
d) Soit ξ ∈ R quadratique et Q = αX 2 + βX + γ ∈ Z[X] (α = 0) tel que Q(ξ) = 0.
(i) Montrer que le quotient partiel ξn d'indice n est racine du polynôme
 
2 pn−1 X + pn−2
Qn (X) = (qn−1 X + qn−2 ) Q ,
qn−1 X + qn−2
(où pn et qn sont les entiers dénis en 1/b) associés au développement en fraction continue
de ξ ). Montrer que Qn et Q ont même discriminant, puis montrer que les polynômes Qn
sont en nombre ni.
(ii) Montrer que le développement en fraction continue de ξ est périodique à partir d'un
certain rang.
Solution. 1/ a) L'existence des suites (an ) et (ξn ) revient à montrer que ξn − an ne s'annule
jamais. Ceci découle du fait que ξn est un nombre irrationnel, propriété que l'on obtient immé-
diatement par récurrence sur n.
On a bien an > 0 et ξn > 0 pour tout n ∈ N∗ car comme an−1 est la partie entière du nombre
irrationnel ξn−1 , on a 0 < ξn−1 − an−1 < 1 donc ξn = 1/(ξn−1 − an−1 ) > 1 et donc an = [ξn ] ≥ 1.
Il reste à démontrer l'égalité ξ = [a0 , . . . , an−1 , ξn ]. Nous procédons par récurrence sur n.
Pour n = 1, c'est vrai car
1
[a0 , ξ1 ] = a0 + = a0 + (ξ0 − a0 ) = ξ0 = ξ.
ξ1
Supposons maintenant le résultat vrai au rang n, de sorte que ξ = [a0 , . . . , an−1 , ξn ]. Comme
ξn+1 = 1/(ξn − an ), on a ξn = an + 1/ξn+1 , et en appliquant (*), on obtient
ξ = [a0 , . . . , an−1 , an + 1/ξn+1 ] = [a0 , . . . , an−1 , an , ξn+1 ]
ce qui est précisément le résultat souhaité au rang n + 1.
C. FRACTIONS CONTINUES 403

b) On procède par récurrence sur n ≥ 2. Pour n = 2 le résultat est vrai car


1 x a 0 a 1 x + a0 + x p1 x + p0
∀x > 0, [a0 , a1 , x] = a0 + = a0 + = = .
a1 + 1/x a1 x + 1 a1 x + 1 q 1 x + q0
Supposons maintenant le résultat vrai au rang n et montrons le au rang n + 1. En appliquant la
propriété au rang n on obtient pour tout x > 0
 
1 (an + 1/x)pn−1 + pn−2 (an x + 1)pn−1 + pn−2 x pn x + pn−1
a0 , . . . , an−1 , an + = = = .
x (an + 1/x)qn−1 + qn−2 (an x + 1)qn−1 + qn−2 x qn x + qn−1
Le premier membre de cette expression est égal à [a0 , . . . , an , x], le résultat est donc bien démontré
au rang n + 1.
c) Le résultat pour n = 0 et n = 1 est immédiat compte tenu de la dénition de p0 , q0 et p1 , q1 .
Pour n ≥ 2, il sut d'appliquer le résultat de la question précédente à x = an .
d) Lorsque n = 1, le résultat découle de l'égalité p1 q0 − p0 q1 = (a0 a1 + 1) − a0 a1 = 1 et lorsque
n ≥ 2 c'est une conséquence de la relation
pn qn−1 − pn−1 qn = (an pn−1 + pn−2 )qn−1 − pn−1 (an qn−1 + qn−2 ) = −(pn−1 qn−2 − pn−2 qn−1 ).

e) Les valeurs an sont entières (ce sont des parties entières), donc pn et qn sont des entiers.
Pour n = 0, q0 = 1 donc p0 /q0 est bien une fraction irréductible et pour n ≥ 1, la relation
pn qn−1 − qn pn−1 = (−1)n−1 montre que pn et qn sont premiers entre eux (théorème de Bezout),
d'où le résultat.
f) Les résultats des questions 1/a) et b) entraînent
pn pn pn ξn+1 + pn−1 pn
ξ− = [a0 , . . . , an , ξn+1 ] − = −
qn qn qn ξn+1 + qn−1 qn
donc d'après le résultat de la question d)
pn qn (pn ξn+1 + pn−1 ) − pn (qn ξn+1 + qn−1 ) qn pn−1 − pn qn−1 (−1)n
ξ− = = = .
qn qn (qn ξn+1 + qn−1 ) qn (qn ξn+1 + qn−1 ) qn (qn ξn+1 + qn−1 )
Comme ξn+1 > 1 (on l'a vu dans la solution de la question 1/a)), ceci entraîne |ξ −pn /qn | < 1/qn2 .
g) Soit n ∈ N. Le résultat de la question précédente montre que ξ − pn /qn et ξ − pn+1 /qn+1 sont
de signe contraire, donc
     
     
ξ − pn  + ξ − pn+1  =  pn − pn+1  = 1 1
< 2 + 2
1
 qn   qn+1   qn qn+1  qn qn+1 2qn 2qn+1
(la dernière inégalité est une conséquence de l'inégalité 2xy = x2 + y 2 − (x − y)2 < x2 + y 2 lorsque
x = y , appliquée à x = 1/qn et y = 1/qn+1 ) ce qui entraîne le résultat voulu.
h) Raisonnons par l'absurde, en supposant |qξ − p| < |qn ξ − pn | avec 0 < q ≤ qn et n > 0.
Comme pn+1 qn − pn qn+1 = (−1)n (d'après 1/d)), il existe deux nombres entiers x et y tels que
p = xpn + ypn+1 , q = xqn + yqn+1 .
On a forcément x = 0 (sinon q = yqn+1 > qn car n > 0, ce qui est contraire aux hypothèses),
et y = 0 (sinon |qξ − p| = |x| · |qn ξ − pn | ≥ |qn ξ − pn |, ce qui est contraire aux hypothèses). On
doit également avoir x et y de signe opposé, sinon on aurait |q| ≥ |qn | + |qn+1 | ≥ qn . De plus
d'après 1/f), les valeurs qn ξ − pn et qn+1 ξ − pn+1 ont des signes opposés, donc x(qn ξ − pn ) et
y(qn+1 ξ − pn+1 ) sont de même signe. Comme
qξ − p = x(qn ξ − pn ) + y(qn+1 ξ − pn+1 )
ceci entraîne
|qξ − p| = |x(qn ξ − pn )| + |y(qn+1 ξ − pn+1 )| > |x(qn ξ − pn )| ≥ |qn ξ − pn |.
Cette inégalité est une contradiction, ce qui prouve le résultat.
2/a) Soit ξ ∈ R un nombre quadratique et un polynôme Q ∈ Z[X] de degré 2, irréductible dans
Q[X], tel que Q(ξ) = 0. Si ξ ∈ R était rationnel, alors Q ne serait pas irréductible dans Q[X]
(il serait divisible par X − ξ ), ce qui est absurde. (De manière équivalente, on montre facilement
404 C. FRACTIONS CONTINUES


que les nombres quadratiques sont ceux de la forme A+B D où A, B, D ∈ Z, avec B = 0 et D un
entier naturel qui n'est pas un carré.)
b) Compte tenu des formules permettant d'obtenir les quotients incomplets et complets d'un
nombre irrationnel, il est immédiat que le quotient incomplet de ξk d'indice n est égal à an+k .
Ainsi, si ξr = ξr+T , l'égalité des quotients incomplets d'indice n de ces deux nombres entraîne
an+r = an+r+T pour tout n ∈ N, c'est-à-dire ak = ak+T pour tout k ≥ r. Réciproquement, si
ak = ak+T pour tout k ≥ r, alors tous les quotients incomplets de ξr et ξr+T sont égaux, donc
les réduites de ξr et ξr+T sont égales. Comme un nombre irrationnel est égal à la limite de ses
réduites (conséquence du résultat de la question 1/f)), ceci entraîne ξr = ξr+T .
c) Soit r ∈ N et T ∈ N∗ tels que les quotients incomplets ξr et ξr+T de ξ soient égaux. Posons
s = r + T . Les quotients complets et incomplets d'indice n de ξr sont ceux de ξ d'indice n + r,
donc d'après 1/a) on peut écrire ξr = [ar , . . . , as−1 , ξs ]. Par ailleurs, le résultat de la question
1/b) appliqué au développement en fraction continue de ξr permet d'écrire
kT −1 ξs + kT −2
ξr = [ar , . . . , as−1 , ξs ] = , kT −1 , kT −2 , T −1 , T −2 ∈ N∗
T −1 ξs + T −2
(où kn /n désigne la n-ième réduite de ξr ). Comme ξr = ξs cette égalité entraîne
T −1 ξr2 + (T −2 − kT −1 )ξr − kT −2 = Q(ξr ) = 0, Q = T −1 X 2 + (T −2 − kT −1 )X − kT −2 .
Le polynôme Q est à coecients entiers et de degré 2, il est forcément irréductible car ξr est
irrationnel. Ainsi, ξr est un nombre quadratique.
Maintenant, la question 1/b) nous assure qu'à partir des réduites pn /qn de ξ , on peut écrire
pr−1 ξr + pr−2 −qr−2 ξ + pr−2
ξ= donc ξr = .
qr−1 ξr + qr−2 qr−1 ξ − pr−1
Ceci entraîne que  
2 −qr−2 X + pr−2
R = (qr−1 X − pr−1 ) Q
qr−1 X − pr−1
annule ξ . Or R est un polynôme à coecients entiers de degré 2 (son coecient dominant
r−2 /qr−1 ) est non nul car Q n'a pas de racine rationnelle), et comme ξ est irrationnel, R
2 Q(q
qr−1
est forcément irréductible. Ainsi, ξ est bien quadratique.
d) (i) Un calcul montre que l'on peut écrire
Qn = α(pn−1 X +pn−2 )2 +β(pn−1 X +pn−2 )(qn−1 X +qn−2 )+γ(qn−1 X +qn−2 )2 = αn X 2 +βn X +γn
où αn , βn et γn sont trois entiers, avec αn = qn−1 2 Q(p
n−1 /qn−1 ). Comme Q n'a pas de racine
rationnelle, ceci entraîne αn = 0 donc Qn est bien un polynôme de degré 2 à coecients entiers.
Comme Q(ξ) = 0, la formule ξ = pqn−1 ξn +pn−2
n−1 ξn +qn−2
(voir 1/b)) montre que ξn est bien racine de Qn .
Montrons que le discriminant ∆n de Qn est égal au discriminant ∆ de Q. Plutôt que de
calculer explicitement αn , βn et γn et de développer directement l'expression βn2 − 4αn γn (les
calculs sont lourds), on va utiliser le fait que le discriminant d'un polynôme de degré 2 est égal
au carré de la diérence de ses racines, multiplié par le carré de son coecient dominant. Ainsi,
si ξ  désigne la deuxième racine de Q de sorte que Q = α(X − ξ)(X − ξ  ), on a ∆ = α2 (ξ − ξ  )2 .
−qn−2 ξ  +pn−2
Les deux racines de Qn étant ξn = −q qn−1 ξ−pn−1 et ξn = qn−1 ξ  −pn−1 , et comme de plus αn =
n−2 ξ+pn−2 

n−1 /qn−1 ) = α(pn−1 − qn−1 ξ)(pn−1 − qn−1 ξ ), on a


2 Q(p
qn−1 

 2
−qn−2 ξ + pn−2 −qn−2 ξ  + pn−2
∆n = αn2 (ξn − ξn )2 = α2 (pn−1 − qn−1 ξ)2 (pn−1 − qn−1 ξ  )2 −
qn−1 ξ − pn−1 qn−1 ξ  − pn−1
  2
= α2 (qn−2 ξ − pn−2 )(qn−1 ξ  − pn−1 ) − (qn−2 ξ  − pn−2 )(qn−1 ξ − pn−1 )
 2
= α2 (−qn−2 pn−1 + pn−2 qn−1 )ξ − (−qn−2 pn−1 + pn−2 qn−1 )ξ 
= α2 (pn−1 qn−2 − pn−2 qn−1 )2 (ξ − ξ  )2
et comme pn−1 qn−2 − pn−2 qn−1 = (−1)n−2 (voir 1/d)), ceci entraîne bien ∆n = α2 (ξ − ξ  )2 = ∆.
C. FRACTIONS CONTINUES 405

Montrons maintenant que les polynômes Qn sont en nombre ni. Il sut pour cela de montrer
que les coecients αn , βn et γn de Qn sont bornés, ce qui prouvera le résultat compte tenu du
fait que ces coecients sont entiers. Pour le coecient dominant αn , on part de la relation
n−1 /qn−1 ) ce qui entraîne, en appliquant l'inégalité des accroissements nis à la
2 Q(p
αn = qn−1
fonction polynôme x → Q(x)
     
   pn−1 
2
|αn | = qn−1 Q pn−1 − Q(ξ) ≤ qn−1
2
M  − ξ , M = sup |Q (x)|
 qn−1   qn−1 
|x−ξ|≤1

car |pn−1 /qn−1 − ξ| < 1 d'après 1/f). D'après 1/f) encore une fois, ceci entraîne |αn | ≤ M . Pour
le terme constant de Qn , on remarque que γn = qn−2 2 Q(p
n−2 /qn−2 ) = αn−1 donc |γn−1 | ≤ M . Il
ne reste plus qu'à remarquer que βn = ∆n + 4αn γn = ∆ + 4αn γn donc βn2 ≤ ∆ + 4M 2 , donc βn
2

est borné également.


(ii) Comme il n'y a qu'un nombre ni de valeurs prises par la suite de polynômes (Qn ), il y a au
moins trois indices distincts n1 , n2 , n3 tels que Qn1 = Qn2 = Qn3 . Or chacun de ces polynômes
n'a que deux racines et ξnk est racine de Qnk , cela entraîne que parmi ξn1 , ξn2 , ξn3 , deux valeurs
au moins sont identiques. Ainsi, nous avons montré l'existence de deux indices distincts r et s
tels que ξr = ξs , donc le développement en fraction continue de ξ est bien périodique à partir
d'un certain rang d'après 2/b).
Remarque. On peut également développer en fraction continue tout nombre rationnel
ξ = a/b, mais la fraction continue est nie et s'arrête dès que ξn est un entier. On montre
alors que l'algorithme permettant d'obtenir la fraction continue de ξ est l'algorithme
d'Euclide.
Le résultat 1/f) entraîne que tout nombre irrationnel ξ est développable en fraction conti-
nue innie. Réciproquement, on peut montrer que toute fraction continue innie converge
vers un nombre irrationnel. Par ailleurs, l'égalité des limites de deux fractions continues
innies n'est possible que si les quotients incomplets de l'une sont égaux à ceux de l'autre.
On peut montrer que si un nombre rationnel p/q vérie |ξ − p/q| < 1/(2q 2 ), alors p/q est
forcément une réduite de ξ .
Une application classique des fractions continues est la résolution de l' équation de Pell-
Fermat (recherche des solutions entières x et y telles que x2 − ny 2 = ±1, lorsque n est un
entier qui n'est pas un carré).
Index des notations
(a1 , . . . , ap ) cycle de longueur p, page 22
(ai,j ) 1≤i≤p matrice de type p × q , page 125
1≤j≤q

(P ) idéal engendré par P , page 32, 65


[f ]B matrice de l'endomorphisme f dans la base B , page 127
matrice de f dans les bases B et B  , page 126

[f ]B
B
[G : H] indice de H dans G, page 20
[u, v] crochet de Lie de u et v : uv − vu, page 216
[x] partie entière de x, page 47
 1 2 ··· 
n
permutation de {1, . . . , n}, page 22
 s(2) ···
s(1) s(n)
n
, Cnp coecient binomial, nombre de p-combinaisons d'un ensemble
p
de cardinal n, page 302
Card(G) cardinal de l'ensemble G, page 20
|E|, CardE , #E cardinal d'un ensemble ni E , page 299
Cov(X, Y ) covariance des variables aléatoires X et Y , page 340
deg(P ) degré du polynôme P , page 58
det f déterminant de f , page 142
dim(E) dimension de E , page 117
exp(f ), ef exponentielle de l'endomorphisme f , page 194
G (E) groupe linéaire de E , page 121
G n (K) groupe linéaire d'indice n, page 127
IdE application identité de E , page 121
Im f image de l'application linéaire f , page 120
K(A) plus petit sous-corps contenant A et K, page 66
K(X) fractions rationnelles sur K, page 75
Ker f noyau du morphisme ou de l'application linéaire f , page 21,
32, 120
Ker Φ noyau de la forme quadratique ou hermitienne Φ, page 242
x1 , . . . , xn  sous-groupe engendré par x1 , . . . , xn , page 21
ϕ, x crochet dual égal à ϕ(x) pour ϕ ∈ E ∗ , page 132
A sous-groupe engendré par A, page 21
L(E) algèbre des endomorphismes de E , page 121
lim supn An , lim inf n An ∩p∈N (∪n≥p An ), ∪p∈N (∩n≥p An ), page 326
Mn (K) matrices carrées n × n, page 125
1A fonction indicatrice de A, dénie par 1A (x) = 1 si x ∈ A,
= 0 sinon, page 301
|||f ||| norme de f ∈ Lc (E), page 192
ϕ(n) indicateur d'Euler de n, page 33
406
INDEX DES NOTATIONS 407

ϕ(x, .), ϕ(., x) pour x xé, forme linéaire y → ϕ(x, y), page 239
ϕX (u) fonction caractéristique de la variable aléatoire X , page 348
Πf polynôme minimal de f , page 186
rg A rang de la matrice A, page 128
rg f rang de l'application linéaire f , page 120
Σ1 , . . . , Σ n polynômes symétriques élémentaires, page 83

M polynôme symétrisé de M , page 83
τi,j transposition sur i, j , page 22
tr A, tr f trace de la matrice A, de l'endomorphisme f , page 128
t
A matrice transposée de A, page 125
t
u application transposée de u, page 135
Vect(A) ou Vect(xi )i∈I s.e.v engendré par A ou par (xi )i∈I , page 116
a|b a divise b, page 9
ab a ne divise pas b, page 9
A⊥B A est orthogonal à B , page 242
AB A ⊂ B et A = B , page 201
a ∧ b, a ∨ b pgcd de a et b, ppcm de a et b, page 10
A[X] polynômes à coecients dans A, page 58
A[X1 , . . . , Xn ] polynômes à plusieurs indéterminées, page 82
AC , A complémentaire de l'ensemble A, page 319
A⊥ , B ◦ orthogonal de A, de B (dans le dual), page 134
Apn nombre de p-arrangements d'un ensemble à n éléments, page 301
Cϕ cône isotrope de la forme quadratique ou hermitienne Φ,
page 242
E(X) espérance de la variable aléatoire X , page 337
E ∗ , E ∗∗ dual, bidual de E , page 132

E1 + · · · + En ou ni=1 Ei somme des s.e.v E1 , . . . , En , page 116
E1 ⊕ · · · ⊕ En ou ⊕ni=1 Ei somme directe des s.e.v E1 , . . . , En , page 116
Eλ sous-espace propre associé à λ, page 171
f∗ endomorphisme adjoint de f , page 255
FE ensemble des applications de E vers F , page 302
G(x1 , . . . , xn ) déterminant de Gram de x1 , . . . , xn , page 274
G/H groupe quotient, anneau quotient, ou e.v. quotient, page 20,
32, 120
GX (z) série génératrice de la variable aléatoire X , page 345
H G H est distingué dans G, page 20
In matrice identité de Mn (K), page 127
t
M∗ dans Mn (K), tM si K = C, M si K = C (transconjuguée de
M ), page 243
P (A) probabilité de l'événement A, page 320
P (B | A), PA (B) probabilité conditionnelle de B sachant A, page 323
P (X ∈ B), P (X = x), . . . probabilités sur la variable aléatoire X , page 335
Pf polynôme caractéristique de f , page 172
V (a1 , . . . , an ) déterminant de Vandermonde de a1 , . . . , an , page 143

V (X), Var(X), σ(X) variance et écart type σ(X) = V (X), page 340
408

vp (n) valuation p-adique de n, page 47


x ≡ y (mod n) x est congru à y modulo n, page 9, 65
An groupe alterné d'indice n, page 23
L(E, F ) e.v des applications linéaires de E dans F , page 119
L(E1 , . . . , Ep , F ), Lp (E, K) formes p-linéaires, page 140
L2 (Ω, R) e.v. des variables aléatoires de carré sommable, page 339
Lc (E) endomorphismes de E continus, page 192
Mp,q (K) matrices de type (p, q) à coecients dans K, page 125
O(E) groupe orthogonal de E , page 254
On , Un groupe des matrices orthogonales ou unitaires, page 254
P(E) ensemble des parties de E , page 302
Sn groupe symétrique d'indice n, page 22
SO(E), O+ (E), SU(E) groupe spécial orthogonal de E , page 255
SOn , On+ , SUn groupe spécial orthogonal, cas matriciel, page 255
U(E) groupe unitaire de E , page 254
com(A), A comatrice de A, page 143
pgcd plus grand diviseur commun, page 9, 59
ppcm plus petit multiple commun, page 10
Z(G) centre du groupe G, page 19
Index

abélien (groupe ), 19 Bienaymé-Tchébyche, inégalité de , 344


adjoint (endomorphisme ), 255 bilinéaire (forme ), 140, 239
algèbre, 116 binôme, formule du , 303
algébrique (nombre ), 92, 94 binomiale, loi , 342
algébriquement clos (corps ), 66 binomiaux, coecients , 304
alterné (groupe ), 23, 27 Boole (anneau de ), 34
alternée (forme multilinéaire ), 140
anneau, 31 caractéristique
anneau  d'un anneau, 32
 commutatif, 31  d'un corps, 57
 de Boole, 34 caractéristique (polynôme ), 172
 des entiers de Gauss, 41 Cardan (formules de ), 86, 393
 euclidien, 41 cardinal, 299
 intègre, 31 Carmichael (nombres de ), 37
 noethérien, 36 Cauchy
 principal, 32 déterminant de , 150
 quotient, 32 théorème de , pour les groupes nis, 30
 unitaire, 31 Cayley-Hamilton (théorème de ), 186
caractéristique d'un , 32 centre
idéal d'un , 31  d'un groupe, 19
sous , 31  du groupe linéaire, 124
antilinéaire (application ), 239 centrée, variable aléatoire , 337, 340
antisymétrique changement de base, 127, 240
forme bilinéaire  , 240 chinois (théorème des ), 33
forme multilinéaire , 140 cloture algébrique d'un corps, 66
application linéaire, 119 codiagonalisables (endomorphismes ), 176
arrangement, 301 codimension (d'un sous-espace), 120
associés (polynômes ), 58 coecient de corrélation, 341
autoadjoint (endomorphisme ), 255 coecient multinomial, 304
automorphisme cofacteur, 142
 d'un espace vectoriel, 121 comatrice, 143
 de groupe, 21 combinaison, 302
 intérieur, 21 combinaison avec répétitions, 303, 306
combinaison linéaire, 116
Banach (espace de ), 193 commutant d'un endomorphisme, 191
base compagnon (matrice ), 187, 398
 Φ-orthogonale, 243 congrues (matrices ), 240
 antéduale, 133 convergence
 canonique (de Kn , de K[X]), 117  en probabilité, 345
 d'un espace vectoriel, 117 convolution de Dirichlet, 367
 duale, 133 corps, 57
 incomplète (théorème de la ), 117 corps
 orthogonale, orthonormale, 252  algébriquement clos, 66
Bernoulli, loi de , 322, 341  commutatif, 57
Bernstein (inégalité de ), 101  de dissociation, 66
Bezout (théorème de ), 10, 59  des racines d'un polynôme, 66
bidual, 132  premier, 58
409
410 Index

cloture algébrique d'un , 66  orthogonal, 254


extension de , ou surcorps, 57  symétrique, 255
sous , 57  unitaire, 254
cotrigonalisables (endomorphismes ), 176 équation aux classes, 24
Cramer (systèmes de ), 144 équipotents, ensembles , 299
crible (formule du  de Poincaré), 301, 321 équivalentes (matrices ), 127
cryptographie, 36 espace probabilisé, 320
cycle, 22 espace vectoriel, 115
cyclique espace vectoriel
endomorphisme , 397  de dimension nie, 117
groupe , 21  de dimension innie, 117
cyclotomique (polynôme ), 97  normé, 192
espérance, 337
décomposition polaire, 261 Euclide (algorithme d'), 10, 12, 61
décorrélées, variables aléatoires , 340 euclidien (anneau ), 41
dénie (f. quadratique, hermitienne ), 242 euclidien (espace ), 252
dégénérée (f. quadratique, hermitienne ), 242 euclidienne (norme ), 252
degré partiel, 83 Euler
degré total, 83 constante d', 110
dérangements, 312 indicateur d', 33
déterminant, 141 théorème d', 33
déterminant théorème d' sur les nombres parfaits, 16
 de Vandermonde, 143 Euler, L., 13
 caractéristique (d'un système), 144 exponentielle d'endomorphismes, 194
 circulant, 153, 190 exposant d'un groupe abélien ni, 28
 d'un endomorphisme, 142
 d'une matrice carrée, 142 Faddéev (algorithme de ), 230
 de Cauchy, 150 famille (génératrice, libre, liée), 117
 principal (d'un système), 144 Fermat
dérivée d'un , 230 grand théorème de , 19
diagonale (matrice ), 125 nombres de , 13, 15, 50
diagonale principale, 125 théorème de , 11
diagonalisable (endomorphisme , matrice ), Ferrari (méthode de ), 394
173 Fibonacci, nombres de , 311
diagonalisation simultanée, 176, 181, 258 Fitting, décomposition de , 155
dimension (d'un sous-espace), 117 fonction indicatrice, 301
Dirichlet (théorème de ), 14, 40, 99 fonction caractéristique, 348
discriminant d'un polynôme, 86 fonction rationnelle, 75
distingué (sous-groupe ), 20 forme hermitienne, 242
division euclidienne, 9, 58 forme linéaire, 119, 132
division selon les puissances croissantes, 59 forme linéaire
dual (espace ), 132  sur Mn (K), 138
Dunford (décomposition de ), 203 forme quadratique, 241
fraction rationnelle, 75
écart angulaire, 252 fraction rationnelle
écart type, 340 décomposition en éléments simples d'une ,
Eisenstein (critère d'), 62 75
élément pôle d'une , 75
 inversible, 31 partie entière d'une , 75
 neutre, 19 fraction continue, 401
 nilpotent, 31 Frobenius
élément primitif (théorème de l'), 96 matrices positives de , 233
éléments simples réduction de , 399
 de première, de seconde espèce, 77
décomposition en , 75 Galton-Watson, processus de , 376
endomorphisme, 120, 121 Gauss
endomorphisme (méthode de ), 244
 adjoint, 255 anneau des entiers de , 41
 autoadjoint, 255 lemme de , 62
 normal, 270 quadrature de , 111
Index 411

théorème de , 10, 59  de Jensen, 344


gaussienne, loi , 389  de Markov, 343
Gelfond-Schneider (théorème de ), 110 inégalité de Kolmogorov, 389
génératrice (partie , famille ), 117 intègre (anneau ), 31
Gram (matrice de , déterminant de ), 274 intérieur (automorphisme ), 21
groupe, 19 intransitivité (relation d', classe d'), 23
groupe invariants de similitude, 398
p-groupe, 29 inversible (élément ), 31
 abélien, commutatif, 19 irréductible, polynôme , 59
 alterné, 23, 27 isométrie, 254
 cyclique, 21 isométrie directe, indirecte, 255
 de type ni, 21 isomorphisme
 des inversibles d'un anneau unitaire, 32  d'anneaux, 32
 des permutations, 22  de K-e.v, 120
 diédral, 42  de groupes, 21
 linéaire, 127 isotrope (cône , vecteur ), 242
 linéaire (d'un e.v), 121 Iwasawa (décomposition d'), 262
 monogène, 21
 opérant sur un ensemble, 23 Jacobi, 54
 orthogonal, 254 Jacobi
 quotient, 20 identité de , 159
 spécial orthogonal, 255 Jensen, inégalité de , 344
 symétrique, 22 Jordan (réduction de ), 207, 209
 unitaire, 254
sous , 19 Köenig-Huygens, théorème de , 340
Kronecker (théorème de ), 95
Hadamard (inégalité d'), 273
Hausdoren (d'une application linéaire), 296 Lagrange
hauteur d'un polynôme, 84 méthode de , 394
Hermite polynômes d'interpolation de , 65
interpolation de , 70 théorème de , 20, 55
polynômes de , 114 Laguerre (polynômes de ), 114
hermitien (espace ), 252
Legendre
hermitienne
polynômes de , 114
forme , 242
symbole de , 49
matrice , 241
libre (famille ), 117
norme , 252
Lie (crochet de ), 183, 216
hilbertien (espace ), 252, 266
liée (famille ), 117
Hoeding, inégalité de , 352
Lindemann, 110
Holladay (théorème de ), 168
homothétie, 121 Liouville
hyperplan, 120, 135 nombres de , 92
théorème de , 17
idéal liste, 301
 maximal, 35 logarithme d'une matrice inversible, 212
 premier, 35 loi
 principal, 32  binomiale, 342
radical d'un , 35  de Bernoulli, 322, 341
idéal ( d'un anneau), 31  de Poisson, 323, 342
identiquement distribuées, variables aléatoires,  de Rademacher, 342
345  géométrique, 322, 342
image (d'une application linéaire), 120  uniforme, 322, 341
indépendants (vecteurs linéairement ), 117  zéta, 323
indicateur d'Euler, 33 loi de probabilité, 334
indice loi de réciprocité quadratique, 50
 d'un endomorphisme, 156, 202 loi faible des grands nombres, 345, 362
 d'un sous-groupe, 20 loi forte des grands nombres, 363, 389
 de nilpotence, 31 loi normale, 389
inégalité loi sans mémoire, 342
 de Bienaymé-Tchébyche, 344 Lucas (test de ), 13
412 Index

Markov, inégalité de , 102, 343 orthogonalité


matrice, 125  dans le dual, 134
matrice  dans un espace préhilbertien, 252
 antisymétrique, 125, 240, 272, 285  selon une f. quadratique, hermitienne, 242
 carrée, 125, 127 orthogonaux (polynômes ), 110
 compagnon, 187, 398 orthonormale, orthonormée (famille ), 252
 de passage, 127
 diagonalement dominante, 129 parallélogramme (identité du ), 253
 extraite,  bordante, 128 parfaits (nombres ), 16
 hermitienne, 241 partie entière d'une fraction rationnelle, 75
 ligne,  colonne, 125 partie principale d'une fraction rationnelle, 76
 scalaire, 125 Pépin (test de ), 50
 symétrique, 125, 240 permutation (groupe des ), 22
 triangulaire, trigonale, 125 Perron, théorème de , 233
ordre, taille d'une , 125 Pfaen d'une matrice antisymétrique, 286
matrices pgcd, 9, 59
 équivalentes, 127 p-groupe, 29
 semblables, 127 Poisson, loi de , 323, 342
 congrues, 240 polaire (forme ), 241, 242
maximum (principe du ), 71 polaire (décomposition ), 261
Mersenne (nombres de ), 13, 18 pôle d'une fraction rationnelle, 75
mineur, 142 Pólya, théorème de, 382
mineur principal, 172 polynôme
minimal (polynôme ), 186  à plusieurs indéterminées, 82
Minkowsky (inégalité de ), 247  à une indéterminée, 58
Möbius, fonction de , 367  caractéristique, 172
moment (d'ordre p), 339  cyclotomique, 97
monogène (groupe ), 21  d'endomorphisme, 184
morphisme  d'interpolation de Lagrange, 65
 d'anneaux, 32  dérivé, 64
 de groupes, 21  symétrique, symétrique élémentaire, 83
multilinéaire (application ), 140  unitaire, 58
corps des racines d'un , 66
négligeable, événement , 322
racine, zéro d'un , 63
neutre (élément ), 19
polynômes orthogonaux, 110
Newton
positive
identités de , 86
forme quadratique ou hermitienne , 246
sommes de , 86
matrice , matrice dénie , 257
nilpotence (indice de ), 31
nilpotent ppcm, 10
élément , 31 préhilbertien (espace ), 252
endomorphisme , 155, 173, 188, 207 premier
noethérien (anneau ), 36 corps , 58
nombre d'or, 312 idéal , 35
normal (endomorphisme ), 270 nombre , 10
noyau nombre pseudo, 37
 d'un morphisme d'anneaux, 32 sous corps , 58
 d'un morphisme de groupes, 21 premiers entre eux
 d'une application linéaire, 120 entiers  , 9
 d'une f. quadratique, hermitienne, 242 polynômes  , 59
noyaux (th. de décomposition des ), 185 presque sûr, événement , 322
primalité (tests de ), 38
orbite, 22, 23 primitive n-ième de l'unité (racine ), 97
ordre principal (anneau , idéal ), 32
 d'un élément, 21 probabilité, 320
 d'un groupe, 20 produit scalaire,  hermitien, 252
orthogonal (endomorphisme ), 254 projecteur, projection, 121
orthogonale projection orthogonale, 253
famille , 252 propre (valeur , vecteur ), 171
matrice , 254 pseudo-premier (nombre ), 37
Index 413

quadratique (forme ), 241  premier, 58


quadrature de Gauss, 111 sous-espace caractéristique, 201
quaternions (corps des ), 101 sous-espace propre, 171
quotient sous-espaces totalement isotropes, 250
anneau , 32 sous-groupe, 19
espace vectoriel , 120 sous-groupe
groupe , 20  distingué, normal, invariant, 20
spectrale (valeur ), spectre, 171
réexion (de l'espace), 269 splines cubiques, 167
racine d'un polynôme, 63 stabilisateur (d'un élément), 23
racine primitive n-ième de l'unité, 97 Steinitz (théorème de ), 66
racine carrée d'une matrice positive, 257 stochastique, matrice , 233
Rademacher, loi de , 342 subpotent, ensemble  à un autre, 300
radical (d'un idéal), 35 suites exactes, 123
rang supplémentaire (d'un s.e.v), 118
 d'une application linéaire, 120 surcorps, 57
 d'une f. bilinéaire ou sesquilinéaire, 240 Sylow (théorème de ), 44
 d'une forme hermitienne, 242 Sylvester
 d'une forme quadratique, 241 critère de , 259
 d'une matrice, 128 identité de , 159
rayon spectral, 221 loi d'inertie de , 246
réduction symétrie, 121
 des endomorphismes autoadjoints, 256
symétrie
 des endomorphismes normaux, 270
 hermitienne, 241
 des endomorphismes unitaires, 269
 orthogonale, 253
 des isométries, 268
symétrique
 des matrices antisymétriques, 272, 285
 élémentaire (polynôme ), 83
réduite, variable aléatoire , 340
élément , 19
régulière (valeur ), 171
endomorphisme , 255
résultant de deux polynômes, 219
forme bilinéaire , 240
retournement (de l'espace), 269
groupe , 22
Rodrigues (formule de ), 278
rotation (du plan, de l'espace), 269 matrice , 125, 240
Rouché-Fontené (théorème de ), 144 polynôme , 83
RSA (algorithme ), 37 symétrisé d'un polynôme, 83
ruine du joueur, 359 systéme linéaire
 de Cramer, 144
scalaire, 116 système linéaire, 143
Schmidt (procédé d'orthogonalisation de ), 253
Schur (lemme de ), 182 Taylor (formule de ), 64
Schur (produit de ), 266 Tchébyche
Schwarz (inégalité de ), 246 polynômes de , 74, 101, 114
scindé (polynôme ), 63 théorème de , 47
semblables (matrices ), 127 théorème central limite, 386
semi-simples (endomorphismes ), 236 théorème de la médiane, 253
séries entières d'endomorphismes, 193 théorème des nombres premiers, 16
série génératrice, 345 théorème fondamental de l'algèbre, 67, 90
série génératrice exponentielle, 369 théorème fondamental de l'arithmétique, 10
sesquilinéaire (forme ), 239 théorème local limite, 386
signature tiroirs (principe des ), 300
 d'un cycle, 23 trace, 128
 d'une f. quadratique, hermitienne, 246 transcendance (de e, de π ), 107
 d'une permutation, 23 transcendant (nombre ), 92
similitude (invariants de ), 398 transconjuguée (matrice ), 243
simultanée (diagonalisation , trigonalisation transfert, théorème de , 338
), 181 transformée de Fourier discrète, 87
somme, somme directe de sous-espaces, 116 transposée
sous-anneau, 31 application , 135
sous-corps, 57 matrice , 125
sous-corps transposition, 22
endomorphisme , 254
matrice , 254
unitaire (polynôme ), 58
unitaire (anneau ), 31
414 Index
valuation p-adique, 47
Vandermonde (déterminant de ), 143
transvection (matrice de ), 165 Vandermonde, formule de , 304
tribu, 319 variable aléatoire, 334
trigonalisable (endomorphisme , matrice ), variance, 340
174 vecteur de probabilité, 233
trigonalisation, 174 vecteurs, 116
trigonalisation
 simultanée, 176, 181 Wald, formule de , 347
Waring
unitaire méthode de , 84
endomorphisme , 254 problème de , 56
matrice , 254 Wedderburn (théorème de ), 100
unitaire (polynôme ), 58 Wiles, Andrew, 19
unitaire (anneau ), 31 Wilson (théorème de ), 11
valuation p-adique, 47 zêta, fonction  de Riemann, 332
Vandermonde (déterminant de ), 143
Vandermonde, formule de , 304
variable aléatoire, 334
variance, 340
vecteur de probabilité, 233
vecteurs, 116
Wald, formule de , 347
Waring
méthode de , 84
problème de , 56
Wedderburn (théorème de ), 100
Wiles, Andrew, 19
Wilson (théorème de ), 11
zêta, fonction  de Riemann, 332
Cette troisième édition du tome Algèbre – Les maths en tête
s’accompagne d’un nouveau chapitre important sur les probabi-
lités, conformément au programme des classes préparatoires de
mathématiques spéciales. Il contient les éléments qui ont fait le
succès des éditions précédentes : des rappels de cours complets,
des compléments de cours classiques, ainsi que 267 exercices et
problèmes, portant sur le programme de mathématiques spéciales
MP*. Il complète le tome Analyse de la même édition.
L’accent est porté sur la relation cours-exercice, indispensable
pour parvenir à une compréhension globale des concepts. Tous les
thèmes classiques sont présentés, expliqués, exploités, et fournissent
ainsi un bagage mathématique solide pour affronter les concours
scientifiques. Tout au long de l’ouvrage, de multiples remarques et
renvois ponctuent les résultats et permettent à l’étudiant de trouver
des points de repère.
En plus du chapitre sur les probabilités, cette nouvelle édition
apporte des améliorations de preuves et de solutions, des complé-
ments, ainsi que des exercices et problèmes supplémentaires dans
l’esprit de l’édition précédente.
C’est l’outil idéal de l’élève des classes préparatoires scientifiques
pour la révision des concours.
Il pourra également intéresser les candidats à l’agrégation.

Illustration de couverture : L’École d’Athènes, Raphaël, Vatican

-:HSMDOA=UZ[\[X:

Vous aimerez peut-être aussi