Vous êtes sur la page 1sur 943

D. LESESVRE, P.

MONTAGNON
P. LE BARBENCHON, T. PIERRON

131 DÉVELOPPEMENTS
POUR L’ORAL

AGRÉGATION EXTERNE
MATHÉMATIQUES / INFORMATIQUE
Conception de maquette de couverture : Hokus Pokus Création

© Dunod, Paris 2020


11 Rue Paul Bert, 92240 Malakoff
ISBN 978-2-10-081709-2
Avant-propos

Préparation à l’agrégation. L’année de préparation à l’agrégation est riche


en émotions et en découvertes. Elle marque un temps durant lequel la grande
liberté laissée à l’agrégatif peut devenir un obstacle : il faut gérer de front l’ap-
prentissage de contenus théoriques nouveaux, la préparation d’écrits techniques,
l’entraînement aux épreuves de modélisation et la cartographie d’une immense
bibliographie requise pour pouvoir présenter pas moins d’une centaine de leçons
spécialisées à l’oral. L’ambition de ce livre est d’accompagner le candidat dans
ce cheminement en proposant une gamme variée de développements de mathé-
matiques et d’informatique taillés pour les oraux de l’agrégation externe. Les
thèmes d’étude proposés illustrent de manière vivante et originale les concepts, en
couvrant toutes les leçons du programme et en proposant des ouvertures dans de
nombreuses directions d’approfondissement.
Prise de recul. Préparer l’agrégation ne revient pas à accumuler des connais-
sances érudites sans liens les unes avec les autres. Bien au-delà de la liste de
leçons et de chapitres au programme, cette préparation constitue l’occasion d’une
prise de recul fondamentale pour le futur enseignant. Que ce soit sur des sujets
élémentaires abordés en première année d’université, tels que les espaces vectoriels
ou les suites numériques, ou des sujets plus élaborés, comme les algèbres de Lie
ou les variétés différentielles, l’agrégatif se doit d’acquérir une aisance tant théo-
rique que pratique. L’objectif, bien sûr, n’est pas de devenir un expert de chaque
domaine. Cela n’est ni possible compte tenu du temps disponible, ni souhaitable.
L’évaluation porte sur la maîtrise des idées présentées : le candidat reste libre de
choisir le niveau de difficulté de ses leçons et l’ampleur de leurs contenus, l’élément
essentiel pris en compte étant indubitablement la maîtrise du corpus présenté et
la clarté de l’exposition.
Ainsi, il vaut mieux (pour le candidat comme pour l’auditoire, qu’il s’agisse d’un
jury d’agrégation ou d’une classe d’étudiants) présenter une leçon très élémentaire
de façon vivante et parfaitement maîtrisée, illustrée par des exemples et des
applications et faisant apparaître avec clarté l’enchaînement et l’entrelacement
des idées, plutôt qu’un exercice de haute voltige technique et conceptuelle mal
exécuté. L’un des défis de la préparation à l’agrégation est donc de trouver un
chemin heureux entre le niveau de compréhension de l’étudiant, qui découvre
pour la première fois les notions présentées, et celui de l’expert. Ce défi constitue
aussi celui du présent ouvrage qui, loin d’une introduction au programme de
l’agrégation, tisse des liens entre les différentes parties du programme et invite à
prendre de la hauteur sur les notions déjà connues.
Ouverture culturelle. L’année passée à préparer le concours est également
l’occasion d’une grande ouverture culturelle. Le candidat, qu’il sorte de quelques
années d’études ou qu’il soit déjà professeur, n’a pas nécessairement eu l’occasion
de lire des myriades d’ouvrages, de revenir sur des cours passés ou d’explorer des
résultats et des domaines moins classiques bien qu’ils soient tout à fait accessibles.
Dans ce livre, nous avons eu à cœur d’ouvrir autant de portes que possible vers
de tels horizons.
Les auteurs, agrégés et pour la plupart docteurs dans différentes branches des
mathématiques ou de l’informatique, ont voulu mettre à profit leurs cultures
particulières ainsi que leur goût pour la pédagogie de sorte à proposer un corpus
polychrome de développements originaux. Ceux-ci, souvent construits à partir
de la littérature spécialisée, ont été sélectionnés pour leur pertinence ou leur
importance, puis adaptés au format de l’épreuve orale. De nombreux thèmes
généralement absents des contenus de l’agrégation, mais pourtant tout à fait
naturels pour illustrer les leçons et mettre en contact des idées trop souvent
séparées, sont ainsi développés : théorie analytique des nombres, utilisation de
l’analyse complexe en algèbre linéaire, actions de groupes en géométrie, études de
permutations aléatoires, principes d’incertitude pour les groupes, analyse p-adique,
ou encore étonnantes relations entre nombres premiers et polynômes irréductibles,
parmi tant d’autres merveilles. Lorsque le thème s’y prête, nous présentons des
développements à l’interface avec d’autres disciplines, peu abordées dans un cursus
universitaire de mathématiques et donc rarement connues des agrégatifs, comme
l’économie, la théorie des jeux, la biologie, la physique ou l’épidémiologie.
L’oral de l’agrégation. Le format des oraux de l’agrégation (3 heures de
préparation, 6 minutes de présentation du plan, 15 minutes de développement et
40 minutes de discussion et questions environ) ne doit pas mener à apprendre par
cœur des dizaines de développements pointus et des condensés entiers de théorie,
mais exige une aisance certaine avec les idées présentées et la bibliographie. La
longue durée de préparation avant l’oral, avec un accès à une bibliothèque et à
des livres personnels, donne clairement le ton de l’épreuve : en consultant une
démonstration, l’agrégatif doit se remettre en tête en quelques dizaines de minutes
la marche des idées et l’enchaînement des arguments qui forment la preuve. Il
ne faut pas s’y tromper : la réussite de l’épreuve ne dépend pas seulement du
niveau en mathématiques du candidat, mais également de sa capacité à mobiliser
efficacement des sources sur lesquelles fonder son travail.
Dans l’optique de servir au mieux les candidats y compris le jour de l’oral, nous
avons souhaité proposer un outil pensé pour cette épreuve, regorgeant de références
internes. Si chaque développement est autocontenu, les notations et définitions
moins habituelles restent toujours rappelées, des chapitres thématiques organisent
les différents sujets, une table de correspondances relie leçons et développements,
et un index complet des notions abordées permet de retrouver rapidement les
passages recherchés.

iv
Avant-propos

L’espoir de ce livre. Sans exiger de l’agrégatif qu’il passe une année à naviguer
à travers une éclectique bibliographie spécialisée, nous souhaitons partager des
résultats que nous trouvons intéressants et enthousiasmants tant sur le plan
mathématique que pédagogique, en les regroupant dans un ouvrage qui nous a
semblé faire cruellement défaut pendant notre préparation à l’agrégation.
Nombre de livres considérés comme des sources classiques de développements
sont soit obsolètes, soit introuvables, soit cantonnés aux rappels de cours, et ne
proposent que très peu de développements dans un format directement exploitable
pour l’oral. Nous espérons que ce nouvel ouvrage, constitué de 131 développements
pensés comme tels, saura suppléer à ce manque et apporter une solution pratique
et efficace pour beaucoup d’agrégatifs. Ainsi, chaque leçon du programme actuel
de l’agrégation s’y trouve illustrée par au moins trois développements, et souvent
davantage. L’informatique n’a pas été oubliée, toutes les leçons étant illustrées
par au moins deux développements, de sorte à constituer une référence unique à
partir de laquelle préparer un plan de bataille pour les oraux.
Par-delà le public des agrégatifs, le taupin curieux trouvera indubitablement dans
ce livre un bon entraînement pour les notions qui le concernent, l’enseignant de
premier cycle universitaire en tirera des idées pour faire vivre des concepts de
manière originale, et tout amoureux des mathématiques pourra se régaler de ces
lectures brèves mais intenses.
Investissement personnel de l’agrégatif. L’existence de ce livre, comme de
tout autre recueil de développements que l’on trouverait sur les étals ou sur Internet,
ne saurait dispenser l’agrégatif d’un travail fondamental : celui d’appréhender
chaque développement de manière consciencieuse et personnelle. C’est également
une saine discipline d’apprentissage : les développements proposés mobilisent des
mathématiques en tout genre, jetant souvent des ponts entre différents domaines
et utilisant des résultats et arguments plus ou moins classiques. Certains lecteurs
seront à l’aise avec des arguments qu’ils estimeront même trop détaillés sur tel
thème, et devront reconstruire toute la démarche pourtant standard sur tel autre.
La préparation à l’agrégation constitue l’occasion parfaite d’orienter ses efforts et
d’investir du temps pour comprendre et assimiler les sujets les moins maîtrisés,
jusqu’à pouvoir présenter les développements associés avec aisance et conviction.
Seule la maîtrise des détails des développements permettra, lors de la préparation
de l’épreuve, de retrouver les idées sans encombres et de ne pas devoir redécouvrir
les difficultés qui étaient restées cachées.
Nul livre ni professeur ne saurait suppléer à cette quête d’une compréhension
profonde et personnelle qui doit être ultimement transmise à l’oral. Il est naturel de
passer plusieurs heures à découvrir et à digérer un développement. Comprendre les
mathématiques ou savoir faire les calculs ne sont pas les seuls ingrédients pour une
présentation claire et convaincante. Nous mettons fortement en garde contre cet
écueil et espérons que ce livre sera un juste compagnon en ce sens : une référence
qui donnera des idées et des sujets, mais qui n’empêchera pas le lecteur d’adapter
la présentation de chaque développement avec ses propres mots et moyens, et
l’aidera à affronter ses difficultés de compréhension grâce aux commentaires et
aux exercices.
v
La rédaction de cet ouvrage. Ce livre arrive au terme d’une aventure de
nombreuses années. Nous avons souhaité que chaque développement soit finement
abouti, calibré en termes de longueur et de difficulté, rédigé de manière limpide et
complète, et éclairé de plusieurs commentaires et questions d’approfondissement.
Pour cela, chaque développement a été affiné par au moins trois phases de
relectures indépendantes par les auteurs ou par des collègues et professeurs
extérieurs. Ces échanges, représentant une grande partie du travail de rédaction,
ont suscité de nombreuses discussions critiques et constructives qui ont contribué
à la richesse et à la qualité du contenu final de l’ouvrage. Cette dialectique a
permis de parfaire la rédaction des développements, de clarifier des arguments
passés sous silence, d’approfondir certains sujets par des commentaires utiles
(parfois susceptibles de constituer des développements à part entière) et d’enrichir
l’exposition par des remarques culturelles et heuristiques. Tous ces compléments,
nous l’espérons, permettront au lecteur de prendre le recul nécessaire sur les sujets
et les méthodes abordés sans avoir à consulter de nombreux autres ouvrages.
Nous sommes donc infiniment reconnaissants, pour les nombreuses propositions et
discussions qu’ils ont permises, à nos relecteurs et relectrices : Vincent Bansaye,
Lilian Besson, Maxence Brévard, Mathias Déhais, Clarence Kineider, Thomas
Lévy, Julie Parreaux, Luc Pellissier, François Wawrzyniak et David Xu.
Certains développements ont été rédigés par des contributeurs extérieurs avec le
même soin que nous avons passé à rédiger les autres développements ; ce livre ne
serait pas complet sans leurs contributions, et nous témoignons donc notre sincère
gratitude à Benjamin Dadoun, Julie Gauthier, Marc Pegon, Marcin Pulkowski,
Antonin Riffaut et François Wawrzyniak.
Notre reconnaissance va enfin aux soutiens et conseils mathématiques et typogra-
phiques de Simon Coste, Benjamin Dadoun et Vojislav Petrov, qui ont permis
à ce livre de voir le jour sous une forme bien meilleure qu’elle ne l’aurait été
originellement.

Si les efforts et le cœur mis dans la rédaction de cet ouvrage permettent aux
lecteurs, agrégatifs et curieux, d’enrichir leur culture et d’embrasser certains sujets
d’un regard un peu plus élevé, de trouver des chemins de traverse moins fréquentés
pour explorer les mathématiques, ou de rendre la préparation à l’agrégation plus
naturelle, efficace et aisée, les années passées à peaufiner ce livre auront été
couronnées de succès.
Nous espérons que vous profiterez pleinement de cette année de préparation à
l’agrégation et vous souhaitons une belle réussite au concours.
Bon courage et bonne lecture !

Le 12 juin 2020,
à travers le monde,
Pierre Le Barbenchon, Didier Lesesvre,
Pierre Montagnon et Théo Pierron

vi
Organisation de ce livre

Chapitres thématiques. Cet ouvrage a été organisé dans l’optique de faciliter


sa consultation. Les développements sont regroupés par chapitres thématiques, qui
correspondent essentiellement à la classification des leçons dans le programme. Ce
choix d’organisation a été dicté par le thème principal et les méthodes mobilisées.
Il ne restreint toutefois pas les développements au thème indiqué : un chapeau
plus précis détaille la façon dont chaque sujet s’insère dans les différentes leçons
qu’il est susceptible d’illustrer.
Structure des développements. Les développements ont été rédigés sous
forme d’exercices, ce qui nous a paru pertinent pour plusieurs raisons. Le découpage
en questions permet de donner une vision à plus haut niveau de la structure de
la preuve et de l’enchaînement des arguments. Il est primordial pour l’agrégatif
qui étudie un développement de trouver un juste milieu entre son apprentissage
par cœur et sa relecture complète le jour de l’oral. Présenter le développement
sous forme d’exercice permet d’éviter ces extrêmes : le candidat qui prépare
le développement pendant l’année est invité à s’appuyer sur ces jalons pour
le comprendre, et ces questions fournissent à leur tour un moyen efficace de
retrouver la trame du développement lors de l’épreuve. Nous espérons ainsi avoir
choisi un mode de présentation pédagogique et pratique, forçant à condenser
chaque démonstration en l’enchaînement de quelques étapes clés scandées par les
questions.
Chaque développement est suivi de commentaires tantôt mathématiques, tantôt
culturels, ou discutant de l’organisation de la présentation au tableau et des
variations possibles. Ces commentaires ont été écrits dans l’esprit d’ouverture que
nous souhaitons conserver : chacun demeure libre de présenter différemment chaque
résultat, par exemple en ne sélectionnant qu’une partie de l’exercice proposé ou
en développant plus avant un point abordé en commentaire. Nous ne pouvons
qu’encourager ces divergences, qui participent à une présentation plus personnelle
et donc plus adaptée.
Enfin, des exercices sont présents à la fin de chaque développement, et représentent
des questions qui pourraient être posées par le jury. Notre but est d’aider le lecteur
à s’assurer de sa bonne compréhension des détails du raisonnement, notamment
lorsque la correction passe un peu rapidement sur un point ou contourne une
difficulté dont il est important d’être conscient. Les questions posées invitent
donc tantôt à éclaircir un argument classique utilisé dans la preuve, tantôt à en
proposer une variation, et parfois, à des fins d’approfondissement, à considérer
une question indépendante mais sur le même thème. Nous nous sommes également
efforcés de donner une indication lorsque les arguments nécessaires à la résolution
de la question posée nous ont semblé moins immédiats.
Niveau de difficulté. Nous avons déjà souligné que la grande liberté laissée
lors des épreuves orales peut — et doit — mener à de nombreuses disparités de
niveau quant aux contenus présentés. C’est la raison pour laquelle nous avons
choisi de faire figurer un niveau de difficulté indicatif pour chaque développement,
entre F et FFF. Un développement de niveau F est élémentaire en tout point,
dans son objet comme ses arguments, sans être particulièrement long et sans
faire intervenir d’astuce ; nous avons par ailleurs fait un effort particulier pour
détailler chaque étape du raisonnement dans ce cas. Un développement de niveau
FFF est plus difficile, souvent à cause d’aspects techniques ou de passages sur
lesquels il est nécessaire de passer rapidement pour se concentrer sur le cœur
de la preuve, et parfois à cause de prérequis non triviaux ou moins classiques.
Ces choix demeurent bien sûr subjectifs, et certains pourraient trouver ardu un
développement marqué F portant sur des notions avec lesquelles ils sont peu
familiers, ou aisé un développement marqué FFF et mobilisant des idées et
techniques qu’ils maîtrisent déjà.
Par ailleurs, de nombreuses déclinaisons de chaque développement sont possibles :
on peut choisir de n’en exposer qu’une partie, de varier le niveau de détails ou,
dans certains cas, d’utiliser les commentaires fournis pour présenter une preuve
alternative. Ces modulations peuvent changer le niveau de difficulté, et nous
incitons le lecteur à consulter des développements sur des sujets ou leçons qui
l’intéressent indépendamment du niveau de difficulté indiqué. Ainsi, certains
développements indiqués comme étant de niveau FFF contiennent des parties
autonomes ou admettent des variations de preuves fournies en commentaires
qui pourraient constituer un développement F ou FF, et réciproquement. Les
choix de rédaction ont été faits pour respecter un équilibre entre les niveaux de
difficulté à l’échelle du livre, de sorte que celui-ci puisse proposer à chacun des
développements intéressants et adaptés à son niveau. Il fait toutefois partie du
travail de chaque agrégatif de juger par lui-même du niveau auquel il souhaite
placer sa présentation et de revisiter chaque développement à son gré.
Correspondances entre développements et leçons. L’objectif principal
de ce livre demeure de permettre à chaque agrégatif de composer son corpus
de développements en fonction de ses préférences et de ses besoins. Chaque
leçon du programme doit être illustrée par au moins deux développements que
le jury pourra demander d’exposer en détails après la présentation de la leçon.
De manière à aider le candidat à faire son choix, comprendre ses possibilités et
déterminer les développements les mieux adaptés pour illustrer ses leçons, nous
avons présenté des tableaux de correspondance entre développements et leçons à
la fin de l’ouvrage. Ainsi, il n’est pas nécessaire de consulter un développement
pour retrouver les leçons correspondantes, ni de parcourir tout l’ouvrage pour
trouver un développement adapté à une leçon donnée. Enfin, une présentation de
cette correspondance a également été fournie sous forme de graphes, permettant
une cartographie différente et utile pour choisir ses développements.

viii
Table des matières

Avant-propos iii

Liste des notations xiii

Développements d’algèbre 1
Groupes, actions et représentations . . . . . . . . . . . . . . . . . . . . . 3
1. Incertitude de Heisenberg pour les groupes F . . . . . . . . . . 5
2. Théorème de Dixon F . . . . . . . . . . . . . . . . . . . . . . . 10
3. Générateurs de SL2 (Z) F . . . . . . . . . . . . . . . . . . . . . . 14
4. Ensembles de transpositions engendrant Sn F . . . . . . . . . . 18
5. Paires génératrices de sous-groupes de Sn FF . . . . . . . . . . 23
6. Ordre maximum des permutations FF . . . . . . . . . . . . . . 28
7. Commutativité de permutations aléatoires FF . . . . . . . . . . 35
8. Cyclicité des groupes d’ordre pq F . . . . . . . . . . . . . . . . 41
9. Groupes d’ordre 105 FFF . . . . . . . . . . . . . . . . . . . . . 44
10. Table des caractères des groupes diédraux F . . . . . . . . . . 49
11. Théorème pa q b de Burnside FFF . . . . . . . . . . . . . . . . . 54
Anneaux, corps et théorie des nombres . . . . . . . . . . . . . . . . . . . 61
12. Théorème de Cohn F . . . . . . . . . . . . . . . . . . . . . . . 63
13. Lemme de Hensel F . . . . . . . . . . . . . . . . . . . . . . . . 69
14. Méthodes polynomiales en combinatoire FF . . . . . . . . . . 73
15. C est algébriquement clos F . . . . . . . . . . . . . . . . . . . 78
16. Lemme d’intersection de Krull FF . . . . . . . . . . . . . . . . 81
17. Cyclicité de F× p FF . . . . . . . . . . . . . . . . . . . . . . . . 84
18. Automorphismes de Fpm F . . . . . . . . . . . . . . . . . . . . 89
19. Automorphismes d’un corps cyclotomique F . . . . . . . . . . 92
20. Automorphismes sauvages de C FFF . . . . . . . . . . . . . . 96
21. Théorème d’Artin FFF . . . . . . . . . . . . . . . . . . . . . . 103
22. L’unique entier entre un carré et un cube FF . . . . . . . . . . 109
23. Valeurs absolues sur Q FF . . . . . . . . . . . . . . . . . . . . 114
24. Théorème de Fermat et cyclotomie FFF . . . . . . . . . . . . 120
25. Problème de Waring modulo q FFF . . . . . . . . . . . . . . . 128
Algèbre linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
26. Perturbation par des matrices de rang un F . . . . . . . . . . 135
27. Quaternions et isomorphismes F . . . . . . . . . . . . . . . . . 138
28. Lemmes de Schwartz-Zippel et de Kakeya FF . . . . . . . . . 147
29. Calculs de polynômes caractéristiques F . . . . . . . . . . . . . 155
30. Endomorphismes conservant le déterminant F . . . . . . . . . 163
31. Endomorphismes conservant le rang FF . . . . . . . . . . . . . 167
32. Théorème de Chebotarev FFF . . . . . . . . . . . . . . . . . . 172
33. Images par l’exponentielle FF . . . . . . . . . . . . . . . . . . 178
34. Décomposition polaire F . . . . . . . . . . . . . . . . . . . . . 185
35. Réduction des endomorphismes nilpotents F . . . . . . . . . . 190
36. Décomposition de Dunford F . . . . . . . . . . . . . . . . . . . 194
37. Forme normale de Smith FF . . . . . . . . . . . . . . . . . . . 201
38. Sous-algèbres réduites de Mn (C) FF . . . . . . . . . . . . . . 207
39. Théorème d’Engel FFF . . . . . . . . . . . . . . . . . . . . . . 212
Formes quadratiques et géométrie . . . . . . . . . . . . . . . . . . . . . . 217
40. Billard circulaire F . . . . . . . . . . . . . . . . . . . . . . . . 219
41. Le plongeoir le plus long FF . . . . . . . . . . . . . . . . . . . 225
42. Théorèmes de Helly et de Carathéodory F . . . . . . . . . . . 235
43. Théorème des trois réflexions F . . . . . . . . . . . . . . . . . 239
44. Théorème de Killing-Hopf F . . . . . . . . . . . . . . . . . . . 243
45. Isométries directes des solides de Platon FF . . . . . . . . . . 251
46. Théorème d’Hermite F . . . . . . . . . . . . . . . . . . . . . . 260
47. Formes quadratiques semi-réduites FF . . . . . . . . . . . . . 264
48. Théorème de Minkowski pour les formes quadratiques FFF . . 268

Développements d’analyse 273


Analyse fonctionnelle et topologie . . . . . . . . . . . . . . . . . . . . . . 275
49. Compacts d’un espace de Hilbert séparable FF . . . . . . . . . 277
50. Opérateurs compacts d’un espace de Hilbert FF . . . . . . . . 281
51. Décomposition de Mityagin FF . . . . . . . . . . . . . . . . . 285
52. Une isométrie de L2 (R+ ) non surjective FF . . . . . . . . . . . 290
53. Logarithme et théorème de Brouwer FF . . . . . . . . . . . . . 296
54. Théorème de Riesz-Fischer F . . . . . . . . . . . . . . . . . . . 303
Calcul différentiel, équations différentielles et EDP . . . . . . . . . . . . 309
55. Théorème de Cartan-von Neumann F . . . . . . . . . . . . . . 313
56. Théorème de stabilité de Liapounov F . . . . . . . . . . . . . . 318
57. Des extrema liés au consommateur FF . . . . . . . . . . . . . 323
58. Théorème de Cauchy-Peano FF . . . . . . . . . . . . . . . . . 332
59. Modèle de croissance de Solow-Swan F . . . . . . . . . . . . . 341
60. Croissance logistique et prédation F . . . . . . . . . . . . . . . 347
61. Modèle épidémiologique SIS FF . . . . . . . . . . . . . . . . . 353
62. Modèle épidémiologique SIR FF . . . . . . . . . . . . . . . . . 361
63. Étude qualitative d’une équation de Riccati FF . . . . . . . . 367
64. Modèle de Lotka-Volterra FFF . . . . . . . . . . . . . . . . . . 372
65. Équation des ondes pour une corde vibrante F . . . . . . . . . 381
66. Caractère bien posé : équation de transport FFF . . . . . . . 388
67. Dualité contrôlabilité-observabilité FFF . . . . . . . . . . . . . 396
Analyse classique et complexe . . . . . . . . . . . . . . . . . . . . . . . . 407
68. Une méthode archimédienne pour approcher π F . . . . . . . . 409
69. Convergence d’une suite de polygones FF . . . . . . . . . . . . 413

x
TABLE DES MATIÈRES

70. Développement en fractions continues FF . . . . . . . . . . . . 417


71. Théorèmes de Choquet et de Birkhoff FF . . . . . . . . . . . . 423
72. Théorème de Nash FF . . . . . . . . . . . . . . . . . . . . . . 429
73. Formules de Frenet-Serret F . . . . . . . . . . . . . . . . . . . 437
74. Méthode de descente de gradient F . . . . . . . . . . . . . . . 441
75. Méthode de Gauss-Seidel F . . . . . . . . . . . . . . . . . . . . 445
76. Méthode de relaxation F . . . . . . . . . . . . . . . . . . . . . 451
77. Méthode de Kaczmarz F . . . . . . . . . . . . . . . . . . . . . 455
78. Prolongement analytique suivant une courbe F . . . . . . . . . 461
79. Domaines d’holomorphie à une variable FF . . . . . . . . . . . 464
80. Forme normale de Jordan et résidus FFF . . . . . . . . . . . . 469
81. Espace des formes modulaires FFF . . . . . . . . . . . . . . . 477
Intégration et approximation de fonctions . . . . . . . . . . . . . . . . . 485
82. Calcul des intégrales de Fresnel F . . . . . . . . . . . . . . . . 487
83. Racine carrée de la primitivation F . . . . . . . . . . . . . . . 496
84. Méthode de la phase stationnaire F . . . . . . . . . . . . . . . 502
85. Théorème de Paley-Wiener F . . . . . . . . . . . . . . . . . . . 509
86. Théorème de Plancherel FF . . . . . . . . . . . . . . . . . . . 514
87. Prolongement de la fonction ζ de Riemann FF . . . . . . . . . 522
88. Théorème de Fejér-Cesàro F . . . . . . . . . . . . . . . . . . . 531
89. Théorème de Minkowski pour les réseaux FF . . . . . . . . . . 539
90. Théorème taubérien de Hardy-Littlewood F . . . . . . . . . . 545
91. Divergence de l’interpolation de Lagrange FF . . . . . . . . . 552
92. Meilleure approximation polynomiale FF . . . . . . . . . . . . 557
Probabilités et statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . 563
93. Aiguille de Buffon F . . . . . . . . . . . . . . . . . . . . . . . . 565
94. Paradoxe de Penney F . . . . . . . . . . . . . . . . . . . . . . 570
95. Formule de Stirling par la limite centrale F . . . . . . . . . . . 580
96. Une marche aléatoire sur [0, 1] FF . . . . . . . . . . . . . . . . 588
97. Loi forte des grands nombres FF . . . . . . . . . . . . . . . . . 594
98. Théorème de Pólya — version dénombrement FF . . . . . . . 599
99. Théorème de Pólya — version analytique FF . . . . . . . . . . 606
100. Un théorème de grandes déviations FF . . . . . . . . . . . . 613
101. Théorème de Cramér-Chernoff FFF . . . . . . . . . . . . . . 617

Développements d’informatique 623


Algorithmique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 625
102. Autour du tri rapide FF . . . . . . . . . . . . . . . . . . . . . 627
103. Tri par tas F . . . . . . . . . . . . . . . . . . . . . . . . . . . 634
104. Distance de Kendall et tri par insertion FF . . . . . . . . . . 640
105. Tirage aléatoire de population FF . . . . . . . . . . . . . . . 644
106. Transformée de Fourier rapide FF . . . . . . . . . . . . . . . 651
107. B-arbres FF . . . . . . . . . . . . . . . . . . . . . . . . . . . . 658
Modèles de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 665
108. Complexité du langage des palindromes F . . . . . . . . . . . 683

xi
109. Turing-calculable implique µ-récursive FF . . . . . . . . . . . 687
110. Caractérisation de RE FF . . . . . . . . . . . . . . . . . . . . 692
111. µ-récursive implique λ-définissable FF . . . . . . . . . . . . . 696
112. Théorème de Scott-Curry FF . . . . . . . . . . . . . . . . . . 700
Théorie des graphes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 705
113. Polynôme chromatique F . . . . . . . . . . . . . . . . . . . . 717
114. Théorème de Turán FF . . . . . . . . . . . . . . . . . . . . . 724
115. Formule d’Euler par déchargement FF . . . . . . . . . . . . . 731
116. Problème du voyageur de commerce F . . . . . . . . . . . . . 738
117. Tri topologique F . . . . . . . . . . . . . . . . . . . . . . . . . 743
118. Séquençage ADN et graphe de De Bruijn F . . . . . . . . . . 747
Langages réguliers et algébriques . . . . . . . . . . . . . . . . . . . . . . 753
119. Recherche de motif FF . . . . . . . . . . . . . . . . . . . . . . 763
120. Problème de séparation par automate F . . . . . . . . . . . . 768
121. Universalité d’un automate FF . . . . . . . . . . . . . . . . . 774
122. Algorithme de Cocke-Younger-Kasami F . . . . . . . . . . . . 779
123. Caractérisation de Premier en analyse LL(1) FF . . . . . . 783
Logique et preuves . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 789
124. Théorème de Cook-Levin F . . . . . . . . . . . . . . . . . . . 791
125. Transformation de Tseitin F . . . . . . . . . . . . . . . . . . . 797
126. 2Sat est NL-dur FF . . . . . . . . . . . . . . . . . . . . . . . 802
127. Compacité de la logique propositionnelle F . . . . . . . . . . 807
128. Indécidabilité du problème ValidFO FF . . . . . . . . . . . 812
129. Indécidabilité du problème RelSat FFF . . . . . . . . . . . 817
130. Complétude de la logique de Hoare FFF . . . . . . . . . . . . 824
131. Équivalence entre deux sémantiques FFF . . . . . . . . . . . 830

Compléments d’informatique 835


Schémas algorithmiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 836
Bases de données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 839
Sémantiques des langages de programmation . . . . . . . . . . . . . . . 847
Problèmes indécidables . . . . . . . . . . . . . . . . . . . . . . . . . . . . 855
Réductions classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 859
Problèmes NP-complets . . . . . . . . . . . . . . . . . . . . . . . . . . . 863

Annexes 869
Liste des leçons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 871
Correspondances entre leçons et développements . . . . . . . . . . . . . 881

Bibliographie 897

Index 901

xii
Liste des notations

Ensembles, fonctions et nombres


δa symbole de Kronecker : 1 si a est le neutre et 0 sinon
δa=b symbole de Kronecker : 1 si a = b et 0 sinon
Γ fonction Gamma d’Euler
Jm, nK ensemble des entiers de m à n
Im(z) partie imaginaire du nombre complexe z
K∗ ensemble K privé de l’élément nul
d·e partie entière supérieure
b·c partie entière inférieure
Pf (E) ensemble des parties finies de l’ensemble E
C, C k , C ∞ ensemble des fonctions continues, de classe C k , de classe C ∞
F(X, Y ) ensemble des fonctions de X dans Y
1X fonction caractéristique (ou : indicatrice) de l’ensemble X
argmax f valeur ou ensemble de valeurs maximisant la fonction f
pgcd(p, q) plus grand commun diviseur de p et q
ppcm(p, q) plus petit commun multiple de p et q
Re(z) partie réelle du nombre complexe z
|X| cardinal de l’ensemble X
ζ fonction zêta de Riemann
A\B ensemble des éléments de A qui n’appartiennent pas à B
f ≡a fonction identiquement égale à une constante
pk ||n puissance de p maximale divisant n, i.e. pk | n et pk+1 - n
Sk somme de Newton
x+ partie positive max(0, x)
x− partie négative max(0, −x)
YX ensemble des fonctions de X dans Y

Groupes, anneaux, corps


1G élément neutre du groupe G (notation multiplicative)
[E : F ] degré de l’extension de corps E/F
[G : H] indice de H dans G, i.e. nombre de H-classes dans G
K× ensemble des éléments inversibles de K
hFi groupe ou structure engendrée par la famille F
H algèbre des quaternions de Hamilton
g = Lie(G) algèbre de Lie associée au groupe de Lie G
Sn groupe symétrique d’ordre n!
Aut(E) groupe des automorphismes de E (pour la structure considérée)
degP degré du polynôme P ∈ K[X]
degX P (X, Y ) degré partiel du polynôme P (X, Y ) en l’indéterminée X
Gal(L/K) groupe de Galois de l’extension L/K
' isomorphe (pour la structure considérée)
CG (x) centralisateur de l’élément x ∈ G dans le groupe G
D2n groupe diédral d’ordre 2n
E/F extension de corps F ⊂ E
G·x orbite de x sous l’action de G
Gx stabilisateur de x sous l’action de G
Z(X) centre de X, i.e. éléments commutant avec tous les autres

Algèbre linéaire
χA polynôme caractéristique de la matrice A
com(·) comatrice
An (K) espace des matrices antisymétriques de taille n sur K
Dn (K) espace des matrices diagonales de taille n sur K
Mn (K) espace des matrices carrées de taille n sur K
Sn (K) espace des matrices symétriques de Mn (K)
Sn++ (K) ensemble des matrices symétriques définies positives de Mn (K)
L(E) espace des endomorphismes de E

xiv
Liste des notations

L(E, F ) espace des applications linéaires de E dans F


Lc (E, F ) espace des opérateurs linéaires continus de E dans F
diag(a1 , . . .) matrice diagonale de Mn d’entrées a1 , . . .
GLn (K) groupe des matrices inversibles de taille n sur K
Sp(A) spectre de la matrice A ∈ Mn (K) sur le corps K
SpL (A) spectre de la matrice A ∈ Mn (K) sur le corps L
Vect(F) espace vectoriel engendré par la partie F
µA polynôme minimal de la matrice A
ρ(u), ρ(A) rayon spectral de l’endomorphisme u, de la matrice A
tr(·) trace
In matrice identité de taille n
Jn,r matrice diag(1, . . . , 1, 0, . . . , 0) de taille n × n et de rang r
u∗ , A∗ adjoint de l’opérateur u, de la matrice A
tA transposée de la matrice A

Géométrie, formes quadratiques


h·, ·i produit scalaire
On (K) groupe orthogonal de Mn (K)
SOn (K) groupe spécial orthogonal de Mn (K)
∧ produit vectoriel

Topologie, analyse fonctionnelle


, Θ domination dans les deux sens : f  g si f = O(g) et g = O(f )
B(a, r) boule ouverte de centre a et de rayon r
B(H) espace des opérateurs bornés d’un espace de Hilbert H
Cc∞ (I) espace des fonctions de classe C ∞ sur I et à support compact
H demi-plan de Poincaré
K(H) espace des opérateurs compacts d’un espace de Hilbert H
supess supremum essentiel d’une fonction
vol(A) volume d’une partie A de Rn pour la mesure de Lebesgue
ωf module de continuité de la fonction f
|||T ||| norme de l’opérateur linéaire continu T

xv
B(a, r) boule fermée de centre a et de rayon r
∂A bord topologique de l’ensemble A, soit ∂A = A\A◦
? opérateur de convolution
fb transformée de Fourier de f
C(a, r) cercle de centre a et de rayon r
E0 dual topologique de E
E∗ dual de E
f = Ω(g) notation Ω de Landau : f /g est bornée
f = Θ(g) notation Θ de Landau : f = O(g) et f = Ω(g)
f = O(g) notation O de Landau : f /g est bornée
H1 espace de Sobolev

Calcul différentiel
∆ opérateur laplacien
ẋ dérivée par rapport au temps de la quantité x
df (x) différentielle de f en x
∇f gradient de f en x
Df (x) matrice jacobienne de f en x

Probabilités, statistiques
E(X) espérance de la variable aléatoire X
Γ(k, θ) loi Gamma de paramètres k et θ
B(n, p) loi binomiale de paramètres n et p
B(p) = B(1, p) loi de Bernoulli de paramètre p
E(λ) loi exponentielle de paramètre λ
G(p) loi géométrique (sur N∗ ) de paramètre p
N (µ, σ 2 ) loi normale d’espérance µ et de variance σ 2
P(λ) loi de Poisson de paramètre λ
Cov(X, Y ) covariance des variables aléatoires X et Y
P mesure de probabilité
P(A|B) probabilité de A sachant B
L
−→ convergence en loi
n→+∞

xvi
Liste des notations

P
−→ convergence en probabilité
n→+∞
p.s.
−→ convergence presque sûre
n→+∞
Lp ensemble des variables aléatoires admettant un moment d’ordre p

Théorie des graphes


`(f ) longueur de la face f dans un graphe planaire
G complémentaire du graphe G
V(X) variance de la variable aléatoire X
Cn cycle à n sommets
dG (u) degré du sommet u dans le graphe G
d+
G (u) degré sortant du sommet u dans le graphe G
d−
G (u) degré entrant du sommet u dans le graphe G
G−s suppression du sommet s dans le graphe G
G − st suppression de l’arête ou arc st dans le graphe G
G · st identification des sommets s et t dans le graphe G
Kn clique à n sommets
NG+ (u) voisinage sortant du sommet u dans le graphe G
NG− (u) voisinage entrant du sommet u dans le graphe G
NG (u) voisinage du sommet u dans le graphe G
Pn chemin à n sommets
uv arête ou arc d’un graphe entre les sommets u et v

Logique, calculabilité, complexité


[`0 , . . . , `n−1 ] liste (simplement chaînée) de longueur n
⊥ faux
`::L liste obtenue en ajoutant l’élément ` en tête de la liste L
Jt0 , . . . , tn−1 K tableau de longueur n
L(A) langage engendré par l’automate A
L(G) langage engendré par la grammaire algébrique G
> vrai
|w| longueur du mot w
S → aSb | ε règles de dérivation d’une grammaire algébrique
TM complexité temporelle de la machine de Turing M
x := a, x ← a affectation de la valeur a à la variable x

xvii
Développements d’algèbre
Groupes, actions et représentations

Les prémices de la théorie des groupes remontent aux travaux de Lagrange autour
de 1770 ; motivé par l’étude des racines d’équations polynomiales, il expose un
calcul des combinaisons qui n’est autre que la loi de composition pour le groupe
symétrique Sn . Le groupe symétrique demeure un exemple omniprésent et très
riche de groupe (Développements 4, 5, 6, 7). C’est Galois qui, quelques décennies
plus tard, introduit explicitement le terme de groupe, toujours dans le cadre des
équations polynomiales. La première étude systématique de la structure de groupe
est due à Cayley, en 1854 mais il faudra attendre la fin du XIXe siècle pour voir
l’essor de la théorie des groupes.
Un groupe est une structure algébrique munie d’une opération binaire vérifiant
de « bonnes propriétés ». Il peut être intuitivement pensé comme un ensemble
de mouvements qui offre la possibilité de se déplacer de manière naturelle (en
faisant un mouvement après l’autre : la loi est interne et associative), de demeurer
au même point (existence d’un élément neutre) et de revenir en arrière (chaque
élément admet un inverse). Cela donne une structure qui modélise de nombreux
problèmes : Galois s’intéresse aux groupes de permutations de racines, Klein aux
groupes d’isométries (Dév. 45) dans sa vision nouvelle de la géométrie, Kummer
introduit le groupe des classes d’idéaux pour mieux comprendre les équations
diophantiennes, les physiciens utilisent les groupes de symétries des molécules...
L’étude théorique des groupes, domaine immense et encore très actif, s’épanouit
dans de nombreuses directions. Classifier ne serait-ce que les groupes finis fut
l’une des grandes quêtes mathématiques du XXe siècle, et tout un univers s’ouvre
des groupes discrets aux groupes continus, en passant par les groupes topologiques
ou différentiels. Quelle que soit la particularité des groupes considérés, l’étude des
groupes s’appuie sur la notion de quotient, permettant de « dévisser » les groupes
pour les ramener à l’étude de groupes plus petits, idée particulièrement utile une
fois combinée aux théorèmes de Sylow (Dév. 8, 9).
Plutôt qu’étudier les éléments d’un groupe, il est souvent plus riche de le faire agir
sur d’autres espaces ou sur lui-même. C’est le principe à l’origine de la théorie
des actions de groupes, qui permet de réaliser un groupe comme un ensemble de
mouvements, autrement dit (dans le cas des actions linéaires en dimension finie)
comme un groupe de matrices. La théorie des représentations (Dév. 10, 11) est
donc un moyen de donner corps à des groupes abstraits dans le cadre de l’algèbre
linéaire, plus concrète et familière, et d’en tirer de nombreux résultats sur les
groupes. De manière analogue, laisser un groupe connu agir sur un ensemble
permet souvent d’obtenir des informations sur ce dernier.
Groupes, actions et représentations

Développement 1 (Incertitude de Heisenberg pour les groupes F)

a) Soit G un groupe abélien fini d’ordre n, et G


b son groupe dual. Soit f une
fonction dans F(G, C). On introduit sa transformée de Fourier définie par
1 X
∀χ ∈ G,
b fb(χ) = f (a)χ(a).
n a∈G

(i) Pour a ∈ G, notons δa la fonction sur G valant 1 en a et 0 ailleurs.


Montrer que X
∀a ∈ G, χ(a) = nδa .
χ∈G
b

(ii) Montrer la relation d’orthogonalité des caractères,


X
∀a, b ∈ G, χ(a)χ(b) = nδa,b .
χ∈G
b

(iii) En déduire la formule d’inversion de Fourier,


X
∀a ∈ G, f (a) = fb(χ)χ(a).
χ∈G
b

b) (i) Montrer la majoration


X
∀a ∈ G, |f (a)| 6 fb(χ) .
χ∈G
b

(ii) Notons supp f le support de f , c’est-à-dire l’ensemble des a ∈ G tels que


f (a) 6= 0. Montrer qu’il existe un M > 0 tel que

M
∀χ ∈ G,
b fb(χ) 6 |supp f |.
n

(iii) En déduire le principe d’incertitude de Heisenberg pour les groupes :

|supp f | · |supp fb| > n.

Leçons concernées : 104, 107, 246


Ce développement est un résultat important sur les groupes abéliens finis (104),
exploitant fortement la dualité dans les groupes abéliens pour décomposer toute
fonction dans la base formée des caractères additifs (107) du groupe. Les idées
maîtresses sont celles de l’analyse harmonique abélienne, qui en cela est parallèle à
celle des séries de Fourier (246) et peut être utilisée pour illustrer une généralisation
de la leçon concernée si une partie du plan est dédiée à l’analyse harmonique
abélienne au-delà de R/Z, comme expliqué dans les commentaires.

5
1. Incertitude de Heisenberg pour les groupes

Correction.
a) (i) Soit a ∈ G. Si a = 0, on a bien
X X
χ(a) = 1 = n.
χ∈G
b χ∈G
b

Si a 6= 0, alors il existe χ0 ∈ G
b tel que χ0 (a) 6= 1. Or l’application χ 7→ χ0 χ est une
bijection de G b dans lui-même, elle peut donc servir de changement de variable.
On obtient dans ce cas

(χ0 χ)(a) = χ0 (a)


X X X
χ(a) = χ(a).
χ∈G
b χ∈G
b χ∈G
b

Puisque χ0 (a) est non trivial, cela implique que


X
χ(a) = 0.
χ∈G
b

(ii) Soit χ ∈ G.
b Puisque les caractères sont unitaires, χ est l’inverse de χ, et en
particulier par multiplicativité on a χ(a)χ(b) = χ(a − b) pour tous a, b ∈ G. Il
vient donc par ce qui précède, en remplaçant a par a − b,
X
χ(a)χ(b) = nδa,b .
χ∈G
b

(iii) La formule d’inversion de Fourier découle de l’orthogonalité des caractères,


montrée à la question précédente, qui s’écrit pour tous a et b dans G,
1 X
χ(a)χ(b) = δa,b .
n
χ∈G
b

On calcule alors, pour tout x ∈ G,


!
X X 1 X
fb(χ)χ(x) = f (a)χ(a) χ(x)
n a∈G
χ∈G
b χ∈G
b
1 X X
= f (a) χ(a)χ(x)
n a∈G
χ∈G
b
 
X 1 X
= f (a)  χ(x)χ(a)

a∈G
n
χ∈G
b
X
= f (a)δa,x
a∈G
= f (x).

6
Groupes, actions et représentations

b) (i) Par la formule d’inversion de Fourier obtenue à la question a)(iii) et le


fait que les caractères sont unitaires, on a
X
|f (a)| 6 fb(χ)| (1)
χ∈G
b

(ii) En remplaçant fb(χ) par sa définition, il vient


1 X 1 X
fb(χ) 6 |f (a)χ(a)| = |f (a)|.
n a∈G n a∈G

En majorant brutalement chaque terme de la somme par le maximum M de f ,


qui est bien défini car G est fini, on en déduit que pour tout χ ∈ G,
b

M
fb(χ) 6 |supp f |.
n
(iii) En introduisant la majoration précédente dans (1), il vient
X M M
|f (a)| 6 |supp f | = |supp fb| · |supp f |.
n n
χ∈G b
f (χ)6=0
b

En particulier, puisque le groupe est fini, il existe un certain a0 ∈ G pour lequel


on a |f (a0 )| = M , on tire alors de l’inégalité précédente que
M
M = |f (a0 )| 6 |supp fb| · |supp f |,
n
et M > f (0) = 1 est non nul. On en déduit le principe d’incertitude de Heisenberg

|supp f | · |supp fb| > n.

Commentaires.
© Ce développement propose de prouver le principe d’incertitude de Heisenberg
pour les groupes abéliens finis. Il s’agit de la généralisation du principe analogue
pour les fonctions périodiques, et un principe général en analyse de Fourier :
plus on souhaite localiser une fonction, plus il faut être prêt à concéder de
pertes sur la localisation de sa transformée de Fourier. Il s’agit bien du principe
d’incertitude de la physique quantique, qui énonce qu’il n’est pas possible de
connaître simultanément la position et le moment d’une particule avec une précision
arbitraire. La transformation de Fourier fournit un moyen de passer du formalisme
des positions au formalisme des moments, et le principe d’incertitude formulé dans
ce développement souligne qu’il n’est pas possible de sélectionner très précisément
les deux informations.
© On se réfère parfois aux « carrés de Heisenberg » pour parler de ce principe
d’incertitude. Géométriquement, en se plaçant dans l’espace des phases G × G,
b le
résultat obtenu stipule que le produit des supports recouvre un rectangle d’aire
au moins n.

7
1. Incertitude de Heisenberg pour les groupes

© Une situation élémentaire à garder en tête est celle des gaussiennes. Sans donner
de normalisation précise pour la transformée de Fourier d’une fonction sur R et
en ignorant les constantes, on a la dualité
2 x2 2 /α2
f (x) ' e−α et fb(x) ' e−x ,

de sorte que si le support (essentiel) de f est de mesure 1/α, alors le support (es-
sentiel) de f est de mesure α. L’heuristique demeure ainsi plus généralement : une
fonction et sa transformée de Fourier ne peuvent être toutes deux arbitrairement
concentrées autour d’un point. Pour des versions quantitatives de tels résultats,
on pourra se référer au Développement 85 sur les théorèmes de Paley-Wiener.
© Les arguments utilisés ici sont ceux de l’analyse harmonique sur les groupes.
L’idée principale est que l’analyse de Fourier, qui n’est qu’une décomposition
suivant les caractères du groupe R/Z, se généralise à bien des groupes abéliens,
notamment les groupes finis et les groupes topologiques compacts. Les fruits de
l’analyse harmonique en découlent alors de la même manière. Les idées ne sont en
rien plus difficiles que l’analyse de Fourier classique, une fois que les caractères
additifs exp(2iπn·) du tore R/Z sont remplacés par ceux de G.
© Explicitons la formule de Poisson pour illustrer le commentaire précédent. Soit f
une fonction sur G à valeurs complexes. Pour un sous-groupe H de G, on définit
n o
H⊥ = χ ∈ G
b : χ =1 .
|H

On a alors la formule
X 1 X
f (h) = fb(χ). (2)
h∈H
|G/H| ⊥χ∈H

À condition de remplacer les sommes par des intégrales contre une bonne mesure
de Haar et les cardinaux par des volumes, on arrive à une formule similaire pour
tout groupe abélien topologique. Dans le cas de G = R et H = Z, on retrouve
la forme de Poisson classique. En effet, le tore R/Z est alors de volume 1 et les
caractères de R (qui sont les exponentielles x 7→ exp(λx) avec λ ∈ C) qui sont
triviaux sur Z sont les x 7→ exp(2iπnx). La formule précédente s’écrit alors
X XZ X
f (n) = f (λ)e2iπnx dx = fb(n).
n∈Z n∈Z R n∈Z

© La formule de Poisson est parfois considérée à tort comme une curiosité à


l’utilité douteuse. La formulation (2) montre qu’elle entrelace les propriétés de f
sur H et de fb sur H ⊥ , montrant qu’il s’agit essentiellement du même phénomène
que le principe d’incertitude. La relation qu’elle tisse entre différents mondes
« duaux » en fait l’un des outils les plus puissants en analyse harmonique et en
théorie des nombres. Elle contient en essence le théorème de Riemann-Roch en
géométrie algébrique, l’équation fonctionnelle de la fonction ζ de Riemann en
théorie des nombres, ou encore de nombreux liens insoupçonnés entre géométrie
d’une surface et théorie spectrale des opérateurs associés. On pourra se référer au
Développement 89 pour en voir une belle application géométrique.

8
Groupes, actions et représentations

© Ce formalisme éclaire la transformée de Fourier rapide (voir Développement 106),


qui est une illustration de l’analyse harmonique sur les groupes abéliens finis.

Questions.
1. Expliquer pourquoi les χ(a), pour a ∈ G, sont des racines de l’unité.
2. Soit a 6= 0 dans G. Montrer qu’il existe χ ∈ G b tel que χ(a) 6= 1.
Indication : penser à définir le caractère χ sur le groupe cyclique hai (on pourra
penser au cas des racines n-ièmes de l’unité), puis l’étendre trivialement à G.
3. Rappeler pourquoi G et G
b ont le même cardinal.

4. Si y 6= 1, montrer que la translation x ∈ G 7→ xy est une bijection de G.


5. Définissons la convolution de deux fonctions f et g sur G par
1X
∀a ∈ G, (f ? g)(a) = f (b)g(a − b).
n b∈G

? g = fb · gb.
Montrer que f[
×H =G
6. Soient deux groupes abéliens finis G et H. Montrer que G\ b × H.
b

7. Déduire des relations d’orthogonalité pour les caractères prouvées dans le


développement le théorème de Plancherel pour les groupes abéliens finis :
X 1 X b
|f (a)|2 = |f (χ)|2 .
a∈G
n
χ∈G
b

8. Prouver la formule de Poisson (2) mentionnée en commentaires.


Indication : on peut commencer par s’inspirer de la preuve classique de la formule
de Poisson pour R/Z, en introduisant la fonction moyennée sur H définie par,
pour tout x ∈ G, X
F (x) = f (xh).
h∈H

Cette fonction est alors H-périodique et définit donc une fonction sur G/H. On
peut alors obtenir la formule, pour tout x ∈ G,
X 1 X
f (xh) = fb(χ)χ(x),
h∈H
|G/H| ⊥ χ∈H

et il suffit de prendre x = 1 pour obtenir la formule de Poisson. Il est aussi


possible de vérifier directement la formule ci-avant en développant et en utilisant
les relations d’orthogonalité, comme dans le développement.

9
2. Théorème de Dixon

Développement 2 (Théorème de Dixon F)

Soit G un groupe fini non abélien.


a) Soit Z(G) le centre de G. Montrer que [G : Z(G)] > 4.
b) Montrer que la probabilité p(G) pour que deux éléments de G tirés unifor-
mément et indépendamment commutent est majorée par 5/8.
c) On note D8 le groupe diédral à 8 éléments. Montrer que p(D8 ) = 5/8.

Leçons concernées : 103, 104, 106, 160, 161, 190

Le théorème de Dixon démontré dans cet exercice est un résultat surprenant de


théorie des groupes finis, ce qui le rend tout à fait adapté à la leçon 104. Sa
preuve consiste à établir une inégalité en apparence grossière en utilisant une
minoration de l’indice du centre d’un groupe non abélien, qui s’avère optimale
puisque l’égalité est réalisée dans le cas du groupe diédral D8 . L’étude précise
de ce dernier justifie l’utilisation de ce développement comme une illustration
(facile) des leçons sur les isométries (106, 160 et 161). On peut enfin envisager de
présenter ce développement dans le cadre de la leçon sur les groupes quotient et les
groupes distingués (103), en remplaçant la preuve de la question a) ci-après par
celle donnée en commentaire. Enfin, le calcul de la probabilité recherchée passe
par un dénombrement explicite des éléments commutant dans le groupe diédral,
en faisant une bonne illustration pour la leçon de combinatoire (190).

Correction.
On rappelle que pour tout x ∈ G, on note
Cx = {g ∈ G : gx = xg}
le centralisateur de x dans G.
a) Comme G n’est pas abélien, il existe un élément x ∈ G dont le centralisateur Cx
n’est pas égal à G tout entier, et donc tel que l’indice [G : Cx ] de Cx dans G est
au moins égal à 2. Par ailleurs, le centre Z(G) de G est un sous-groupe de Cx ,
qui n’est pas égal à Cx puisqu’il ne contient pas x. Par conséquent, [Cx : Z(G)]
est lui aussi au moins égal à 2, d’où, par multiplicativité des indices,
[G : Z(G)] = [G : Cx ] · [Cx : Z(G)] > 4.

b) Par définition de la probabilité p(G), on a


1 n 2
o
p(G) = (x, y) ∈ G : xy = yx
|G|2
1 X
= |{y ∈ G : xy = yx}|
|G|2 x∈G
1 X
= |Cx | .
|G|2 x∈G

10
Groupes, actions et représentations

Notons que x ∈ Z(G) si et seulement si Cx = G, de sorte que x ∈ / Z(G) implique


que [G : Cx ] > 2, autrement dit |Cx | 6 12 |G|. En séparant la somme ci-avant entre
éléments du centre et éléments hors du centre, il vient
 
1  X X
p(G) = 2
|Cx | + |Cx |
|G| x∈Z(G) x∈G\Z(G)
 
1  X X
= |G| + |Cx |
|G|2 x∈Z(G) x∈G\Z(G)
 
1  X X |G| 
6 |G| + .
|G|2 x∈Z(G) x∈G\Z(G)
2

De plus, la question a) garantit que [G : Z(G)] > 4, ce qui se traduit par le fait
que |Z(G)| 6 14 |G|. On obtient donc comme voulu

1 |G| |G| |G| 5


   
p(G) 6 |G| + |G| − = .
|G|2 4 4 2 8

c) Le groupe diédral D8 est composé de quatre rotations (d’angles 0, π/2, π


et 3π/2) et de quatre réflexions. Déterminons les couples d’éléments de D8 qui
commutent :
• Une rotation de D8 commute avec toute autre rotation de D8 .
• Si s ∈ D8 est la réflexion d’axe ∆ et si s0 ∈ D8 est la réflexion d’axe ∆0 ,
alors s ◦ s0 est une isométrie directe de D8 donc une rotation, et son angle
est le double de l’angle orienté (∆0 , ∆) modulo 2π. Comme s0 ◦ s = (s ◦ s0 )−1
(puisque s et s0 sont des involutions), s0 ◦ s est la rotation d’angle le double de
l’angle orienté (∆, ∆0 ) modulo 2π. Ainsi, s0 et s commutent si et seulement si

2(∆, ∆0 ) ≡ 2(∆0 , ∆) mod 2π,

c’est-à-dire
4(∆, ∆0 ) ≡ 0 mod 2π,
soit
(∆, ∆0 ) ≡ 0 mod π/2.
Une réflexion s ∈ D8 d’axe ∆ commute donc avec elle-même et avec la
réflexion dont l’axe est ∆⊥ , mais pas avec les autres réflexions.
• Si s est une réflexion de D8 d’axe ∆ et r une rotation de D8 , voyons à quelle
condition elles commutent. L’isométrie r ◦ s ◦ r−1 ∈ D8 est de déterminant
−1, donc c’est une réflexion. De plus, on voit facilement qu’elle préserve
la droite r(∆), et donc qu’elle est d’axe r(∆). Si s et r commutent, alors
r ◦ s ◦ r−1 = s, donc r(∆) = ∆ ; r est donc l’identité ou la rotation d’angle π,
c’est-à-dire −Id. Réciproquement, il est clair que Id et −Id commutent avec
toutes les réflexions de D8 .

11
2. Théorème de Dixon

Puisque D8 est composé de 8 éléments, il y a 64 couples dans (D8 )2 . Décomptons


ceux qui commutent en les distinguant selon leur premier élément, en utilisant la
discussion précédente pour conclure dans chaque cas :
• Id et −Id commutent avec tous les éléments de D8 . Il y a donc 2 × 8 = 16
couples d’éléments commutants de D8 dont le premier élément est Id et −Id.
• Les deux rotations autres que Id et −Id commutent avec les rotations uni-
quement (donc avec quatre éléments), ce qui correspond à 2 × 4 = 8 couples.
• Les quatre réflexions commutent chacune avec deux réflexions et deux rota-
tions (donc avec quatre éléments), ce qui correspond à 4 × 4 = 16 couples.
Il vient donc :
16 + 8 + 16 40 5
p(G) = = = ,
64 64 8
ce qu’il fallait établir.

Commentaires.
© On peut proposer une autre preuve du résultat de la question a). Puisque G
n’est pas abélien, Z(G) est d’indice au moins 2. Si cet indice était égal à 2 ou 3,
alors G/Z(G) serait cyclique en tant que groupe de cardinal 2 ou 3. Mais alors G
serait abélien : en effet, en notant aZ(G) ∈ G/Z(G) un générateur de G/Z(G) on
aurait pour tous x et y dans G l’existence de m et n entiers tels que x ∈ an Z(G)
et y ∈ am Z(G), et donc de z1 et z2 dans Z(G) tels que x = an z1 et y = am z2 . On
aurait alors
xy = an z1 am z2 = an am z1 z2 = am an z2 z1 = am z2 an z1 = yx
puisque z1 , z2 ∈ Z(G). Ainsi, l’indice de Z(G) est nécessairement supérieur ou
égal à 4.
© Le théorème de Dixon donne une majoration de la probabilité p(G). On voit dans
le Développement 7 qu’il est impossible de minorer p(G) par un réel strictement
positif indépendamment du cardinal de G puisque limn→+∞ p(Sn ) = 0.

Questions.
1. Démontrer que le centralisateur d’un élément x de G ainsi que le centre Z(G)
de G sont des sous-groupes de G.
2. Montrer que si G/Z(G) est abélien, alors G est abélien.
3. Montrer que si H est un sous-groupe de G et si K est un sous-groupe de H,
[G : K] = [G : H] · [H : K].

4. Justifier la majoration
|G| |G| |G| |G|
X X  
|G| + 6 |G| + |G| −
x∈Z(G) x∈G\Z(G)
2 4 4 2

dans le premier calcul de la question b).


|G|
Indication : raisonner en termes de combinaisons convexes de 2 et de |G|.

12
Groupes, actions et représentations

5. Montrer qu’il existe une infinité de groupes pour lesquels p(G) = 5/8.
6. Montrer qu’un groupe fini pour lequel l’égalité p(G) = 5/8 est vérifiée a
nécessairement un cardinal multiple de 4.
7. Justifier que p(G) = kG /|G|, où kG est le nombre de classes de conjugaison
dans G.
|G|
Indication : on pourra d’abord montrer que |Cx | = |Ω(x)| pour tout x ∈ G,
où Ω(x) est la classe de conjugaison de x dans G. On pourra aussi se référer au
Développement 7 pour trouver un raisonnement similaire dans le cas où G = Sn .
8. Rappeler comment est défini l’angle entre deux droites du plan euclidien.
9. Détailler l’argument permettant d’obtenir dans la question c) l’angle de la
rotation s ◦ s0 lorsque s ∈ D8 est la réflexion d’axe ∆ et s0 ∈ D8 est la réflexion
d’axe ∆0 .
10. Dresser la table de la loi de composition du groupe D8 .
11. Montrer qu’une présentation du groupe D8 par générateurs et relations est
donnée par hs, r | s2 , r4 , (sr)2 i, c’est-à-dire que tout groupe non abélien engendré
par deux éléments s et r tels que s ∈ / hsi et s2 = r4 = (sr)2 = 1 est
/ hri, r ∈
isomorphe à D8 .
12. Donner une présentation du groupe D2n par générateurs et relations pour
tout n > 1.
13. Déterminer les classes de conjugaison dans D8 .
14. Calculer p(D2n ), où D2n est le groupe diédral de cardinal 2n, avec n > 1.
15. Vérifier que p(H8 ) = 5/8, où H8 = {±1, ±i, ±j, ±k} est le groupe des quater-
nions de Hamilton, défini par les relations

i2 = j 2 = k 2 = ijk = −1.

13
3. Générateurs de SL2 (Z)

Développement 3 (Générateurs de SL2 (Z) F)

On introduit les matrices de SL2 (Z) données par


! !
0 −1 1 1
S= et T = .
1 0 0 1

a) Montrer que S et T engendrent SL2 (Z).


b) Soit N > 2. Introduisons le sous-groupe de congruence

Γ(N ) = {M ∈ SL2 (Z) : M ≡ I2 mod N }.

(i) Montrer que la réduction SL2 (Z) → SL2 (Z/N Z) est surjective.
(ii) En déduire l’isomorphisme SL2 (Z)/Γ(N ) ' SL2 (Z/N Z).

Leçons concernées : 101, 106, 108, 120, 122, 142, 150

Ce développement propose de prouver que le groupe modulaire SL2 (Z) est engendré
par deux éléments S et T , et repose sur la compréhension de l’action de ces deux
éléments sur une matrice générique de SL2 (Z) de sorte à ramener tout élément à
l’identité par un produit de puissances de S et T . Cela en fait un très bon exemple
de méthodes utilisées pour les leçons sur les actions de groupes (101, 150), plus
particulièrement du groupe linéaire (106), ainsi que sur les systèmes générateurs
de groupes (108). Le développement utilise fortement l’aspect arithmétique des
entrées des matrices, et repose sur l’algorithme d’Euclide : en effet, la preuve
du résultat de la question a) n’est qu’une traduction matricielle de l’algorithme
d’Euclide, qui peut être réalisé par multiplications successives par des matrices S
ou T . Cela justifie la présence de ce développement dans les leçons dédiant une
partie au pgcd (122 et 142). Enfin, la question b) est un problème de relèvement
d’une matrice de SL2 (Z/N Z) dans SL2 (Z), qui demande l’intervention explicite
des relations de congruence ainsi que l’utilisation d’une identité de Bézout, faisant
une bonne illustration de la leçon 122 sur les anneaux Z/N Z.

Correction.
a) Soit G = hS, T i le sous-groupe de SL2 (Z) engendré par S et T . Regardons
l’effet des matrices S et T n , pour n > 1, sur une matrice générique de M2 (Z).
a b

Pour tous a, b, c, d ∈ Z, en notant M la matrice c d , on a les expressions
! !
−c −d n a + nc b + nd
SM = et T M = . (1)
a b c d

Considérons une telle matrice M dans SL2 (Z). Quitte à permuter a et c en valeur
absolue, ce qui est possible en multipliant à gauche par S d’après la première
opération dans les relations (1), on peut supposer que |a| > |c|. Supposons
que c 6= 0. La division euclidienne de a par c s’écrit a = cq + r pour un certain

14
Groupes, actions et représentations

entier q ∈ Z avec les conditions 0 6 r < |c|. Par le calcul (1), on a donc que T −q M
est de la forme
! !
a − qc ? r ?
T −q M = = ∈ SL2 (Z).
c ? c ?

L’élément en place (1, 1) de cette matrice est donc en valeur absolue strictement
inférieur à l’élément en place (2, 1). En multipliant à gauche par la matrice S, on
permute ces deux éléments au signe près, de sorte que l’on a strictement réduit, par
des multiplications à gauche par des matrices de G, la valeur absolue de l’élément
en place (2, 1). Tant que l’élément en (2, 1) est non nul, on peut itérer la procédure
en utilisant la division euclidienne, la multiplication par une puissance de T puis
la multiplication par S pour continuer à diminuer strictement la valeur absolue
de l’entrée (2, 1). Puisqu’il s’agit d’entiers, l’algorithme termine par une valeur
nulle en un nombre fini d’étapes. De plus, l’exécution de l’algorithme correspond
à une multiplication à gauche par un produit fini de puissances de S et T , qui est
donc une certaine matrice de G.
La matrice obtenue a son coefficient en place (2, 1) nul, est inversible et est à
coefficients entiers, de sorte qu’elle est de la forme
!
ε m
avec ε ∈ {−1, 1} et m ∈ Z. (2)
0 ε

Ainsi, cette matrice est de la forme T m ou −T −m pour un certain m ∈ Z.


Nous avons donc prouvé qu’il existe une matrice g ∈ G telle que gM est de la
forme ±T m pour un certain m ∈ Z, et donné un algorithme pour obtenir une telle
décomposition. En remarquant que S 2 = −I2 , il s’ensuit que la matrice définie
par M = ±T m g −1 est dans G.
Ainsi, toute matrice de SL2 (Z) est dans G et, puisque l’inclusion réciproque est
immédiate, on a hS, T i = G = SL2 (Z).
b) (i) Soient ā, b̄, c̄, d¯ ∈ Z/nZ et une matrice
!
ā b̄
M= ∈ SL2 (Z/N Z).
c̄ d¯

Par définition de Z/N Z, il existe des entiers a, b, c, d ∈ Z qui sont des antécé-
dents de ā, b̄, c̄, d¯ par la réduction modulo N respectivement. Par définition de
SL2 (Z/N Z), on a ad − bc ≡ 1 modulo N , de sorte que pgcd(c, d, N ) = 1 par le
théorème de Bézout. Il existe alors des entiers c0 et d0 tels que, modulo N ,

c0 ≡ c, d0 ≡ d, pgcd(c0 , d0 ) = 1. (3)

On peut donc supposer que pgcd(c, d) = 1, quitte à renommer c0 et d0 en c et d


respectivement. Considérons alors un entier k ∈ Z tel que

ad − bc = 1 + kN.

15
3. Générateurs de SL2 (Z)

Puisque c et d sont premiers entre eux, il existe par le théorème de Bézout des
entiers u, v ∈ Z tels que
ud − vc = −k. (4)
On note alors a0 = a + uN et b0 = b + vN et on considère la matrice
!
a0 b0
M0 = .
c d

La matrice M0 est dans SL2 (Z), car

det(M0 ) = a0 d − b0 c = ad − bc + (ud − vc)N = 1 + kN − kN = 1.

De plus, on a M0 ≡ M modulo N , ce qui signifie que M admet un antécédent


par la réduction modulo N .
(ii) C’est une conséquence de ce qui précède puisque le morphisme de réduction

φ : SL2 (Z) −→ SL2 (Z/N Z)

M 7−→ M

admet exactement Γ(N ) comme noyau. De plus, par la question précédente φ est
surjectif. On obtient ainsi, par le premier théorème d’isomorphisme,

SL2 (Z/N Z) = Im(φ) ' SL2 (Z)/Ker(φ) = SL2 (Z)/Γ(N ).

Commentaires.
© Le groupe SL2 (Z) est fondamental en géométrie comme en théorie des nombres :
il joue en dimension 2 le rôle que Z joue dans R en dimension 1. Il s’agit du groupe
des isométries du demi-plan de Poincaré H muni de sa métrique hyperbolique,
l’une des représentations de la géométrie hyperbolique. Il apparaît donc comme
un objet central dans l’étude des réseaux ainsi que des fonctions vérifiant des
propriétés de périodicité sur des réseaux, comme les formes modulaires de la
théorie des nombres, qui sont des fonctions quasi-SL2 (Z)-périodiques. On pourra
se référer au Développement 81 et aux commentaires qui le suivent.
© Il existe une autre preuve classique, purement géométrique, de ce résultat, voir
par exemple [Ser67]. Cette dernière preuve fait de plus apparaître naturellement
le domaine fondamental classique de la surface modulaire H/SL2 (Z). Plus pré-
cisément, l’action de SL2 (Z) sur le demi-plan de Poincaré est donnée par les
homographies, pour z ∈ H et une matrice explicite de SL2 (Z),
!
a b az + b
·z = .
c d cz + d

Avec cette interprétation, la matrice S de l’énoncé est l’inversion de pôle 0 donnée


par z 7→ −1/z̄, et la matrice T est la translation donnée par z 7→ z + 1. Cette
compréhension géométrique de l’action de S et T sur H est à la base de la preuve
géométrique du résultat.

16
Groupes, actions et représentations

© Il faut être prudent à la question b)(i) comme dans beaucoup de problèmes de


relèvement : il existe un candidat naturel pour la matrice M0 , donné par la matrice
de coefficients a, b, c, d. Toutefois, bien qu’elle se réduise modulo N en M , rien
ne garantit qu’elle est dans SL2 (Z), c’est-à-dire inversible. Ce n’est généralement
pas le cas, et il faut utiliser la latitude donnée par l’existence d’une infinité de
relations de Bézout pour conclure et construire une matrice adéquate.
© Le résultat de la question a) montre que la matrice M peut se mettre, par
l’action d’opérations élémentaires sur les lignes et les colonnes, sous la forme
d’une matrice diagonale avec ses éléments diagonaux qui sont des unités. Il
s’agit d’un cas très particulier de la mise sous forme normale de Smith pour
une matrice à coefficients dans un anneau euclidien, qui en général donne des
coefficients diagonaux entiers (avec des relations de divisibilité en cascade). Puisque
la matrice est à coefficients entiers, ces coefficients sont nécessairement des unités
de l’anneau Z, à savoir ε = ±1. Voir Développement 37 pour une preuve générale
de l’existence et de l’unicité de la forme normale de Smith.

Questions.
1. Interpréter l’algorithme de la question a) en termes d’algorithme d’Euclide.
Donner une borne sur le nombre d’étapes requises dans l’exécution de cet algo-
rithme (en comptant la division euclidienne comme une seule opération).
2. Justifier la forme (3) obtenue pour c0 et d0 à la question b)(i).
3. Soit M = ( 18 14
4 2 ) ∈ SL2 (Z/21Z). Trouver une matrice M0 ∈ SL2 (Z) telle que
l’on ait M0 ≡ M modulo 21.
4. Montrer que l’indice de Γ(N ) dans SL2 (Z) est fini.
5. Montrer que SL2 (Z/N Z) est engendré par deux éléments d’ordre N .
6. Montrer que le sous-groupe engendré par S et T 2 est d’indice 3 dans SL2 (Z).
7. Montrer que SL(2, Z) agit transitivement sur Z2 \{(0, 0)}.

17
4. Ensembles de transpositions engendrant Sn

Développement 4 (Ensembles de transpositions engendrant Sn F)

Soit n > 2 un entier et soit P un ensemble de transpositions de J1, nK. On


définit l’ensemble d’arêtes AP par

AP = ij : (i j) ∈ P

et note GP = (J1, nK , AP ) le graphe de sommets 1, 2, . . . , n dont les arêtes


sont les éléments de AP .
a) Montrer que toute composante connexe de GP est stable sous l’action
naturelle des éléments de P .
b) Montrer que P engendre Sn en tant que groupe si et seulement si le
graphe GP est connexe.
c) Montrer que si P engendre Sn , alors |P | > n − 1.

Leçons concernées : 105, 108

Ce développement est construit à partir d’un exercice présenté dans la Revue de la


Filière Mathématiques [RMS01]. Il donne une caractérisation simple et visuelle
des ensembles de transpositions engendrant Sn et mobilise des calculs élémentaires
faisant apparaître explicitement les transpositions comme produits des éléments
de la famille génératrice considérée. Il trouve ainsi sa place dans les leçons sur les
permutations (105) et sur les parties génératrices d’un groupe (108).
En cas de besoin, on pourra se reporter à la page 705 pour trouver les définitions
de concepts de théorie des graphes utilisés dans ce développement.

Correction.
a) Soit C une composante connexe de GP . On doit montrer que :

∀µ ∈ P, µ(C) ⊂ C.

Soient µ ∈ P et j ∈ C. Fixons i ∈ C. Comme C est une composante connexe du


graphe GP , il existe un entier r > 1 et des transpositions σ1 , . . . , σr ∈ P tels
que j = σr ◦ · · · ◦ σ1 (i). On en déduit que µ(j) = µ ◦ σr ◦ . . . ◦ σ1 (i), ce qui montre
qu’il existe un chemin de i à µ(j) dans GP et donc que µ(j) ∈ C. On a donc bien
l’inclusion µ(C) ⊂ C, donc C est stable sous l’action naturelle des éléments de P .
b) Supposons pour commencer que P engendre Sn . Si σ ∈ Sn , σ s’écrit par
hypothèse comme produit d’éléments de P . On déduit alors de la question a) que
si C est une composante connexe de GP , C est stable par σ pour tout σ ∈ Sn .
Ceci a pour conséquence immédiate que C = J1, nK, donc que GP admet une
unique composante connexe, c’est-à-dire est connexe.
Réciproquement, supposons que GP est connexe. On rappelle que les transpositions
de J1, nK engendrent Sn . Ce résultat très classique provient par exemple du fait
que toute permutation s’écrit sous la forme d’un produit de cycles à supports

18
Groupes, actions et représentations

disjoints et que tout cycle de la forme (i1 . . . ik ) s’écrit

(i1 i2 . . . ik ) = (i1 i2 )(i2 i3 ) · · · (ik−1 ik ). (1)

On peut donc se contenter de montrer que le sous-groupe de Sn engendré par P


contient toutes les transpositions de J1, nK. Soient i et j deux éléments distincts
de J1, nK. Comme GP est connexe, il existe un chemin sans boucle entre i et j
dans GP , c’est-à-dire qu’il existe i0 , i1 , . . . , ir ∈ J1, nK distincts deux à deux, tels
que i0 = i, ir = j et (ik ik+1 ) ∈ P pour tout k ∈ J0, r − 1K. En écrivant que

(i0 ir ) = (ir ir−1 . . . i2 i1 )(i0 i1 )(ir ir−1 . . . i2 i1 )−1

il vient, grâce à une décomposition du type (1),

(i j) = (i0 ir ) = (ir ir−1 ) · · · (i3 i2 )(i2 i1 )(i0 i1 )(i1 i2 )(i2 i3 ) · · · (ir−1 ir ).

On voit alors que (i j) s’écrit bien comme un produit d’éléments de P , c’est-à-dire


que (i j) est un élément du sous-groupe de Sn engendré par P , ce qu’il fallait
démontrer.
c) On va montrer que pour tout graphe G = (S, A), le nombre c de composantes
connexes de G vérifie
c > |S| − |A|. (2)
Le résultat attendu découlera alors de la question b). En effet, si P engendre Sn ,
alors GP est connexe donc admet une unique composante connexe. L’inégalité (2)
donnera alors 1 > |GP | − |AP |, d’où |AP | > n − 1, ce qui permettra de conclure
puisque |AP | = |P | par définition de AP .
Démontrons l’inégalité (2) par récurrence sur |A|. Si |A| = 0, le graphe G ne
contient pas d’arête, donc ses composantes connexes sont les sous-graphes ({x}, ∅)
avec x ∈ S, ce qui implique que c = |S| = |S| − |A|. Fixons à présent m ∈ N∗ ,
supposons la propriété vraie si |A| = m − 1 et considérons que |A| = m.
On choisit alors une arête xy ∈ A et on considère le graphe G0 = (S, A \ {xy}).
On remarque les points suivants :
• Toute composante connexe de G ne contenant ni x ni y est une composante
connexe de G0 .
• Si x et y sont dans la même composante connexe de G0 , alors les composantes
connexes de G0 sont exactement celles de G.
• Si x et y ne sont pas dans la même composante connexe de G0 , alors la
composante connexe de G contenant x et y privée de l’arête xy admet une
partition en deux composantes connexes de G0 (celle contenant x et celle
contenant y).
Par conséquent, le nombre c0 de composantes connexes de G0 vérifie c0 6 c + 1.
Par hypothèse de récurrence, on a aussi

c0 > |S| − (m − 1) = |S| − m + 1

19
4. Ensembles de transpositions engendrant Sn

puisque G0 contient |S| sommets et m − 1 arêtes. On a donc

c > c0 − 1 > |S| − m = |S| − |A|,

de sorte que la propriété est vraie pour |A| = m. Cela montre par récurrence que
l’inégalité (2) est vraie quel que soit le cardinal de A et clôt la preuve.

Commentaires.
© Il est possible de démontrer le résultat de la question c) sans utiliser la relation
c > |S| − |A|. Nous présentons ci-après une telle preuve alternative.
Montrons par récurrence forte qu’un graphe connexe possédant n sommets a au
moins n − 1 arêtes. C’est évident pour n = 1. Soit N > 1 ; supposons la propriété
vraie pour tous les entiers n ∈ J1, N K et considérons un graphe non orienté connexe
G = (S, A) ayant N + 1 sommets. Soit s un sommet de G et d(s) son degré,
c’est-à-dire le nombre d’arêtes qui sont issues de s. On considère le sous-graphe
G0 de G dont l’ensemble des sommets est S \ {s} et dont les arêtes sont les arêtes
de G qui ne sont pas issues de s. On partitionne G0 en ses composantes connexes
notées Gi = (Si , Ai ) où i ∈ J1, pK, si bien que :
p
X p
X
|S| = |Si | + 1 et |A| = |Ai | + d(s). (3)
i=1 i=1

On va montrer que p 6 d(s). C’est évident si p = 1 ; on suppose donc désormais


que p > 2. On considère deux composantes connexes distinctes Gi et Gj de G0 ,
ainsi que xi et xj des sommets de Gi et Gj respectivement. Comme xi et xj sont
reliés dans G (qui est connexe) mais pas dans G0 , tout chemin allant de xi vers xj
passe par s. Le sommet s admet donc dans G un voisin x0i ∈ Si et un voisin x0j ∈ Sj .
Ainsi, à chaque composante connexe Gi on peut associer un voisin x0i de s dans G.
On peut donc définir une injection de l’ensemble des composantes connexes dans
l’ensemble des voisins de s par Ci 7→ x0i , d’où p 6 d(s).
Pour tout i ∈ J1, pK, comme Gi est connexe et contient au plus N sommets, on a
|Si | − 1 6 |Ai | par l’hypothèse de récurrence. Par suite,
p
X p
X
|Si | − p 6 |Ai |
i=1 i=1

soit, d’après (3) :


|S| − 1 − p 6 |A| − d(s).
On a donc |A| > |S| − 1 + d(s) − p > |S| − 1 = N puisque p 6 d(s), ce qui établit
la proposition à démontrer dans le cas |S| = N + 1 et permet de conclure par
récurrence.

20
Groupes, actions et représentations

Questions.
1. Expliquer comment on déduit du fait que µ(j) = µ ◦ σr ◦ . . . ◦ σ1 (i) qu’il existe
un chemin de i à µ(j) dans GP dans la question a).
2. Expliquer pourquoi le fait que C soit stable par σ pour tout σ ∈ Sn implique
que C = J1, nK dans la question a).
3. Comment définit-on les composantes connexes d’un graphe non orienté ?
4. Tout élément d’un groupe s’écrit-il comme produit des éléments d’une de ses
parties génératrices ?
5. Justifier que dans un graphe fini connexe, il existe pour n’importe quel choix
de sommets i et j distincts un chemin sans boucle entre i et j.
6. Pour tout i ∈ N∗ , on note r(i) l’unique entier de J1, nK congru à i modulo n.

3 3

4 2 4 2

5 1 5 1

6 8 6 8

7 7
 
Cas P = ir(i + 1), i ∈ J1, nK . Cas P = ir(i + 2), i ∈ J1, nK .

3 3

4 2 4 2

5 1 5 1

6 8 6 8

7 7
 
Cas P = ir(i + k), i ∈ J1, nK . Cas P = 1i, i ∈ J2, nK .

Figure 1.1 – Représentation des graphes GP correspondant aux cas considérés


dans la question 6, avec n = 8 et k = 3.

21
4. Ensembles de transpositions engendrant Sn

Dire si P génère Sn dans chacun des cas suivants (les graphes GP correspondants
sont représentés dans la Figure 1.1) :

(i) P = ir(i + 1), i ∈ J1, nK ,

(ii) P = ir(i + 2), i ∈ J1, nK ,

(iii) P = ir(i + k), i ∈ J1, nK où k ∈ N∗ ,





(iv) P = 1i, i ∈ J2, nK .

7. Soit k ∈ N∗ . Rappeler pourquoi le cardinal |hki| du sous-groupe de Z/nZ


engendré par la classe de k est n/(k ∧ n), où k ∧ n est le plus grand diviseur
commun de k et n. Avec les notations de la question précédente,

donner le nombre
de composantes connexes du graphe GP lorsque P = ir(i + k), i ∈ J1, nK .
8. Donner en fonction de n la valeur du plus petit entier m tel que tout ensemble
de cardinal m formé de permutations de J1, nK engendre Sn .
9. Donner une partie génératrice de Sn de cardinal 2.
Indication : chercher une partie composée d’une transposition et d’un cycle.
10. Donner une décomposition explicite du cycle (1 5 3) de S5 comme produit
d’éléments de 
P = (1 3), (2 4), (2 5), (3 4) .

11. Décrire les cas d’égalité dans la relation c > |S| − |A| démontrée dans la
question c).
12. Soit σ ∈ Sn que l’on décompose en produit de cycles à supports disjoints (en
incluant les cycles de longueur 1) sous la forme σ = c1 . . . cr . On écrit σ comme
un produit de transpositions sous la forme σ = τ1 . . . τk . Montrer que k > n − r.
Indication : on pose P = {τ1 , . . . , τk }. Montrer que les orbites de J1, nK sous
l’action de σ sont contenues dans les composantes connexes de GP , puis en
déduire que r > c où c désigne le nombre de composantes connexes de GP et
conclure avec la relation (2).

22
Groupes, actions et représentations

Développement 5 (Paires génératrices de sous-groupes de Sn FF)

Soit n > 1. Soit tn la proportion de paires (x, y) ∈ S2n qui engendrent un


sous-groupe transitif de Sn .
a) Montrer la formule de récurrence
n
!−1
X n
n= ktk .
k=1
k

b) En déduire que
1 1
 
tn = 1 − + O .
n n2

Leçons concernées : 101, 104, 105, 108, 190

Ce développement est un résultat sur les groupes de permutations (105), qui s’insère
naturellement dans les leçons connexes 101 et 104. Le fait que le résultat concerne
des propriétés de générateurs en fait un développement original pour la leçon 108.
Les arguments de comptage présents à la première question le rendent également
bienvenu pour la leçon de combinatoire (190).

Correction.
a) Considérons une décomposition
n
G
J1, nK = Ai ,
i=1

où les Ai sont des sous-ensembles de J1, nK éventuellement vides. Le nombre de


telles décompositions contenant pour tout i ∈ N∗ exactement ni ∈ N ensembles de
P
cardinal i, avec i ini = n et à permutation près des ensembles de même taille,
est donné par
n!
n .
Y
ni
(i!) ni !
i=1

En effet, il y a n! permutations possibles de J1, nK. Par ailleurs, on peut décomposer


J1, nK en blocs de tailles |A1 |, . . . , |An | dans cet ordre. Une telle décomposition est
invariante par permutation au sein de chaque bloc de taille i, ce qui justifie la
division par (i!)ni pour tout i ∈ J1, nK, et par permutation entre eux des blocs de
même taille, justifiant la division par ni ! pour chaque i ∈ J1, nK.
Pour j ∈ J1, nK, notons aj = |Aj | le cardinal de Aj . Le nombre de couples de
permutations (x, y) ∈ S2n engendrant un sous-groupe et telles que les Aj sont
exactement les orbites du sous-groupe hx, yi engendré par x et y est
n
Y n
Y
(aj !)2 taj = ((i!)2 ti )ni .
j=1 i=1

23
5. Paires génératrices de sous-groupes de Sn

En effet, pour chaque j ∈ J1, nK, on peut choisir librement les restrictions des
permutations x|Aj et y|Aj au sein de l’une de leurs orbites Aj . Le groupe en-
gendré par ces restrictions est alors un sous-groupe hx|Aj , y|Aj i de Saj agissant
transitivement sur Aj , donc il y a (aj !)2 taj telles paires par définition de taj .
On obtient toutes les paires (x, y) ∈ S2n en sommant, sur les décompositions
possibles de J1, nK en A1 t · · · t An , le nombre de paires (x, y) ∈ S2n qui ont
exactement cette décomposition comme modèle. Cela donne
n n
X n! Y X Y (i!ti )ni
n!2 = n ((i!)2 ti )ni = n! ,
(ni )i
Y
ni i=1 (ni )i i=1
ni !
(i!) ni !
i=1
P
où les sommes sont sur les (n1 , . . . , nn ) tels que ni > 0 et i ini = n. En multipliant
par l’indéterminée X n et en sommant sur n > 0, on obtient l’identité entre séries
formelles
 
+∞ n
X X X Y (i!ti )ni
n!X n =   Xn
n>0 n=0 (ni )i i=1
ni !
 
+∞ n n  Y +∞
+∞
X X Y (i!ti )ni Y ni X (i!ti X i )j
=   Xi = (1)
n=0 (ni )i i=1
ni ! i=0 i=0 j=0
j!
 
+∞
Y X
= exp(i!ti X i ) = exp  i!ti X i  .
i=0 i>0

En dérivant formellement de chaque côté, il vient l’identité pour la fonction


génératrice de tn donnée par
 
X X X
n−1 i−1 i
n · n!X = i · i!ti X exp  i!ti X 
n>1 i>1 i>0
X X
i−1
= i · i!ti X k!X k ,
i>1 k>0

d’après la relation (1). En particulier, en écrivant l’égalité entre les deux termes
d’ordre n − 1, on obtient l’identité voulue :
n n
!−1
1 X X n
n= i!(n − i)!iti = iti .
n! i=1 i=1
i

b) Introduisons rn = n(1−tn ), de sorte qu’il suffit de prouver que rn = 1+O(n−1 )


pour avoir le résultat souhaité.

24
Groupes, actions et représentations

Pn−1 n−1
Soit cn = i=1 i i. On a, par la question a),
n
!−1 n−1
!−1
X n X n
rn = n − ntn = iti − ntn = iti (2)
i=1
i i=1
i
n−1
!−1 n−1
!−1
X n X n
= i− ri
i=1
i i=1
i
n−1
!−1
X n
= cn − ri .
i=1
i
Les ti sont des proportions, donc on a tn 6 1 et en particulier
0 6 rn 6 cn . (3)
Il suffit donc d’obtenir une information asymptotique sur cn . Par symétrie des
coefficients binomiaux, et en effectuant le changement de variables i 7→ n − i,
n−1
!−1 n−1
!−1
X n X n
cn = i= (n − i)
i=1
i i=1
n−i
n−1
!−1 n−1
!−1 n−1
!−1
X n X n X n
=n − i=n − cn ,
i=1
i i=1
i i=1
i
de sorte que, pour n > 6 (autrement la somme apparaissant ci-après est vide),
!−1 !−1
n n−1
X n 2 n n−3
X n
cn = =1+ + .
2 i=1 i n − 1 2 i=3 i
On peut alors majorer en utilisant les bornes sur les coefficients binomiaux
! !
n n
> , pour tout 3 6 i 6 n − 3.
i 3
On obtient donc la domination
!−1 !−1
n n−3
X n n2 n 1
 
6 =O .
2 i=3 i 2 3 n
Il vient donc
1
 
cn = 1 + O
.
n
En particulier, la suite (cn )n∈N est bornée. On obtient alors par l’inégalité (3) que
la suite (rn )n∈N est également bornée. Donc il existe une constante M > 0 telle
que
X n −1
n−1 X n −1
n−1
! !
cn 1
 
ri 6 M = 2M =O .
i=1
i i=1
i n n
Ainsi on obtient en fin de compte, par l’expression (2) de rn ,
n−1
!−1
n 1
X  
rn = cn − ri = 1 + O .
i=1
i n

25
5. Paires génératrices de sous-groupes de Sn

Commentaires.
© Ce développement repose sur des arguments typiques de combinatoire concer-
nant les permutations et les partitions d’entiers, voir par exemple [Dix96]. Notam-
ment, la première question on donne les coefficients multinomiaux à l’invariance
près par permutation des blocs de même taille.
© En pratique, la relation de récurrence obtenue à la question a) permet de
calculer récursivement les valeurs de tn . Pour donner une idée, on obtient t1 = 1,
t2 = 0.75, t3 ' 0.722, t4 ' 0.738, etc.
© Les séries considérées ne convergent bien évidemment pas : il s’agit d’une
identité entre séries formelles. L’idée est que ce n’est qu’une manière pratique
d’écrire un système infini d’identités algébriques paramétrées par n. Les identités
formelles écrites utilisent les seules des opérations algébriques de distributivité du
produit sur la somme et de commutativité de l’addition et du produit, et peuvent
donc prendre place dans l’anneau des séries formelles R[[X]]. Voir par exemple le
premier chapitre de [Car97] pour un exposé élégant, efficace et rigoureux de cette
théorie.
© Netto a conjecturé à la fin du XIXe siècle que presque toutes les paires de
permutations de Sn engendrent Sn . Dixon a été le premier à prouver cette conjec-
ture, obtenant la minoration de la probabilité pn qu’une paire de permutations
engendre Sn par
2
pn > 1 − .
(ln ln n)2
Il conjecture alors que le terme d’erreur devrait être de l’ordre de n1 . Le résultat
présenté dans ce développement, également dû à Dixon (ainsi que la classification
des groupes finis), a permis à Babai de prouver en 1989 la conjecture de Dixon :

La probabilité qu’une paire d’éléments aléatoires de Sn engendre Sn


ou An admet le développement asymptotique
1 1
 
pn = 1 − + O .
n n2

En 2005, Dixon affine cette preuve et donne un développement asymptotique


calculable à tout ordre. Par exemple,
1 1 4 23 171 1
 
pn = 1 − − 2 − 3 − 4 − 5 + O .
n n n n n n6

© La quantité tn apparaît dans d’autres résultats en théorie des groupes finis. Par
exemple, un théorème dû à Hall énonce que le nombre de sous-groupes d’indice n
dans un groupe libre de rang 2 est égal à n!ntn . Un théorème de Comtet prouve
que n!ntn est le nombre de permutations de Sn+1 qui sont indécomposables, dans
le sens où elles n’envoient pas J1, mK dans J1, mK pour aucun m 6 n.

26
Groupes, actions et représentations

Questions.
1. Justifier l’identité entre séries formelles obtenue en (1).
Indication : écrire le coefficient devant le terme X n pour chaque côté de l’égalité.
2. Donner des exemples de sous-groupes transitifs et intransitifs dans S4 .
n n
3. Prouver que i > 3 pour tout i ∈ J3, n − 3K.
4. Si G est un sous-groupe transitif de Sn , montrer que G admet au moins n − 1
éléments sans point fixe.
5. Soit G un groupe fini ayant k classes de conjugaison. Montrer que le nombre
de paires (x, y) ∈ G2 telles que xy = yx est k|G|.
Indication : considérer l’action de G sur lui-même par conjugaison.
6. Donner les valeurs de t1 , t2 , t3 en utilisant le résultat de la question a).

27
6. Ordre maximum des permutations

Développement 6 (Ordre maximum des permutations FF)

Soit r > 1. Introduisons la fonction de Landau, pour n > 1,


r
( )
X
G(n) = max ppcm(a1 , . . . , ar ) : ai = n .
i=1

a) Pour i ∈ J1, rK, considérons des nombres premiers distincts pi et des entiers
ei > 1. Notons m = ri=1 pei i . On pose
Q

r
pei i .
X
S(m) =
i=1

r
X
(i) Si ppcm(a1 , . . . , ar ) = m, montrer que S(m) 6 ai .
i=1
(ii) En déduire que Sn contient un élément d’ordre m si et seulement si on
a S(m) 6 n. En particulier, G(n) = max{m ∈ N : S(m) 6 n}.
P
b) Introduisons P le plus grand nombre premier tel que p<P p 6 n où la
Q
somme porte sur les nombres premiers. On pose F (n) = p<P p.
(i) Soient q1 , . . . , qs les nombres premiers divisant G(n). Montrer que
s
X
ln qi < 2 + ln F (n) + ln P.
i=1

(ii) Si pe | G(n) avec e > 2, montrer que p 6 2P et pe 6 2P .
c) Prouver que ln F (n) ∼ ln G(n) et le théorème de Landau :

ln G(n) ∼ P lorsque n → +∞.

Leçons concernées : 101, 104, 105, 121

Le développement proposé ici est un théorème dû à Landau sur l’ordre maximal


asymptotique des éléments du groupe symétrique Sn . Le résultat est basé sur de
nombreux arguments combinatoires typiques de la théorie des groupes finis, rendant
sa présentation pertinente dans le cadre des leçons associées (101, 104), ainsi que
sur des propriétés de théorie élémentaire des nombres premiers (121). L’inter-
prétation de la fonction de Landau comme l’ordre maximal d’une permutation
est une conséquence de la connaissance précise de la structure des permutations,
notamment leur décomposition en cycles disjoints et le rapport entre le type de
décomposition et l’ordre de l’élément. Cela justifie la présence de ce développement
dans la leçon 105.

28
Groupes, actions et représentations

Correction.
a) (i) Soient a1 , . . . , ar des entiers admettant m comme ppcm, choisis de sorte
P
que la somme i ai soit minimale. Il suffit de prouver le résultat pour un tel choix
de ai . Nous déduisons de la minimalité les propriétés suivantes :
• Pour tout i ∈ J1, rK, on a ai > 2. En effet, si l’un des ai était égal à 1, on
pourrait le retirer de la famille (a1 , . . . , as ) sans changer le ppcm mais en
diminuant strictement la somme.
• Pour tout i ∈ J1, rK, ai est une puissance de nombre premier pei i . En effet, si
ce n’était pas le cas on pourrait écrire ai = bc avec b > c > 2 et premiers
entre eux, mais dans ce cas on pourrait remplacer ai par b et c, en diminuant
strictement la somme sans changer le ppcm.
Ainsi, on obtient que chaque ai est de la forme pei i , et on en déduit
r r
ei
X X
S(m) = pi = ai .
i=1 i=1

Puisque cela est vrai pour des entiers a1 , . . . , ar ayant m pour ppcm et de somme
minimale, on en déduit que pour tous entiers a1 , . . . , ar ayant m pour ppcm on a
r
X
S(m) 6 ai .
i=1

(ii) Si S(m) 6 n avec m = i pei i , alors il existe un élément de Sn dont les


Q

cycles disjoints sont de longueur pei i (ceci est possible car la somme des longueurs
des cycles ne dépasse pas n). Celui-ci est alors d’ordre m (rappelons qu’un cycle
de longueur p est d’ordre p et que les pi sont des nombres premiers distincts, donc
premiers entre eux).
P
Réciproquement, s’il existe une partition n = i ai telle que ppcm(ai )i = m (ce
qui est équivalent à l’existence d’une permutation d’ordre m), alors la question
précédente assure que S(m) 6 n.
Ainsi on a, pour tout n > 1,

G(n) = max m.
S(m)6n

b) (i) Ce qui précède ainsi que les définitions de P et G(n) donnent


s
X X
qi 6 S(G(n)) 6 n < p. (1)
i=1 p6P

En soustrayant les nombres premiers qi 6 P , i.e. les nombres premiers p 6 P


divisant G(n), et en mettant à part le cas p = 2 on obtient
s
X X
qi 6 2 + p. (2)
i=1 p6P
qi >P p-G(n)
p impair

29
6. Ordre maximum des permutations

ln P
En multipliant l’inégalité ci-avant par P , il vient
s
X ln P ln P X ln P
qi 62 + p .
i=1
P P p6P
P
qi >P p-G(n)
p impair

Puisque la fonction x 7→ lnxx est décroissante sur [e, +∞[ (c’est ce qui justifie
d’écarter le nombre premier 2 dans la somme ci-avant), on en tire les inégalités
s s s
X X ln qi X ln P
ln qi = qi 6 qi ,
i=1 i=1
qi i=1
P
qi >P qi >P qi >P
X ln P X ln p X
p 6 p = ln p.
p6P
P p6P
p p6P
p-G(n) p-G(n) p-G(n)
p impair p impair

On obtient ainsi s
X ln P X
ln qi 6 2 + ln p.
i=1
P p6P
qi >P p-G(n)

En ajoutant les ln qi pour qi 6 P dans les sommes précédentes, il vient


s
X ln P X
ln qi 6 2 + ln p 6 2 + ln F (n) + ln P.
i=1
P p6P

(ii) Soit q le plus petit premier ne divisant pas G(n). Raisonnons par l’absurde
et supposons que pe > 2q et notons k le plus petit entier positif tel que q k > p. En
particulier, p < q k < pq. Soit m = q k p−1 G(n) > G(n). Puisque p - q, l’entier m
admet la même décomposition en facteurs premiers que G(n), excepté pour le q k
supplémentaire et un exposant diminué de 1 pour p. Ainsi,
S(m) = S(G(n)) + q k − pe + pe−1 . (3)

Distinguons deux cas.


• Supposons que p < q. Dans ce cas, k = 1 dans la discussion précédente et
puisque q < pe /2 on en déduit que q k − pe + pe−1 6 0, ce qui n’est pas
possible : cela impliquerait que S(m) 6 S(G(n)) 6 n alors que m > G(n)
contrairement à la question a)(ii).
• Supposons p > q, et alors
q k − pe + pe−1 < pq − p(p − 1) 6 0.

Dans les deux cas, S(m) 6 n mais m > G(n), ce qui est absurde. Ainsi, on obtient

que pe 6 2q. Puisque e > 2, cela implique notamment p 6 2q.
De plus, on a q 6 P : en effet, si tous les nombres premiers p 6 P divisaient G(n),
alors on aurait égalité dans (1), ce qui est absurde. Ainsi il existe un nombre
premier divisant G(n) et inférieur à√P , c’est donc en particulier le cas pour q. On
obtient finalement pe 6 2P et p 6 2P comme souhaité.

30
Groupes, actions et représentations

c) Commençons par montrer que F (n) 6 G(n). En effet, par définition on a


Q P
l’égalité F (n) = p<P p avec S(F (n)) = p<P p 6 n. La question a)(ii) assure
que G(n) est le maximum des tels entiers, de sorte que F (n) 6 G(n).
Écrivons G(n) = n0 n1 où pgcd(n0 , n1 ) = 1 et n0 est la partie sans facteurs carrés
de n, plus précisément le produit des nombres √ premiers apparaissant avec un
exposant 1 dans n. L’entier n1 contient au
√ plus 2P facteurs premiers, autrement
il aurait un facteur premier supérieur à 2P . Puisque tous les facteurs premiers
apparaissent dans n1 avec un exposant 2 ou plus, ce n’est pas possible par la
question précédente. De plus, chaque facteur apparaissant (puissance
√ comprise)
dans n1 est inférieur à 2P par la question b)(ii). Ainsi, ln n1 6 2P ln 2P .
Ainsi il est possible de borner ln n0 par le résultat de la question b)(i) et ln n1
par l’argument ci-avant, de sorte que

ln F (n) 6 ln G(n) 6 ln n0 + ln n1

6 2 + ln F (n) + ln P + 2P ln 2P.

Il suffit enfin de prouver que le terme dominant dans ce dernier majorant est
donné par ln F (n). Cela est une conséquence du théorème des nombres premiers,
sous la forme de l’estimation de Mertens
X
ln p ∼ P, (4)
p6P


qui implique que ln F (n) ∼ P , devant quoi ln P et 2P ln 2P sont négligeables.
Cela prouve donc que ln G(n) ∼ ln F (n) ∼ P , terminant la preuve du théorème
de Landau.

Commentaires.
© Ce résultat donne un équivalent pour l’ordre maximum d’un élément du groupe
symétrique Sn , et est dû à Landau en 1902, et consiste en la preuve de Mil-
ler [Mil87]. Il préfigure tout un domaine de recherche très actuel : la théorie
statistique et probabiliste des groupes, dont les résultats fondateurs sont dus à
Erdős et Turán dans les années 1960. L’idée essentielle, déjà en germe dans le résul-
tat proposé ici, est celle de la statistique de manière générale : à défaut de pouvoir
connaître parfaitement un objet, par exemple les grands groupes symétriques, il
est possible d’obtenir des résultats précis en moyenne.
© Puisque l’ordre d’un élément de Sn est le ppcm de la taille de ses cycles, la
fonction de Landau G(n) est le maximum des ordres des éléments de Sn , justifiant
l’interprétation du résultat comme un équivalent de l’ordre maximal des éléments
de Sn .
© Le développement peut paraître long à cause de la lourdeur de certaines
notations. Il ne faut pas oublier la simplicité des idées qui sont sous-jacentes :
P
ainsi, des ai tels que i ai = n forment une partition de n, c’est-à-dire un type
de décomposition en cycles d’une permutation de Sn . La fonction F (n) est un
candidat assez naturel pour G(n), puisque S(m) est petit lorsqu’il y a peu de

31
6. Ordre maximum des permutations

puissances de premiers dans m, donc un m admissible est le plus grand possible


lorsqu’il n’a que des facteurs premiers à la puissance un. La première question
mérite d’être traitée efficacement et l’oral doit être un moyen important de
convaincre le jury, qui demandera des précisions par la suite s’il le souhaite :
l’argument peut tenir en une ligne pour chaque cas (on peut retirer les 1 ; on peut
retirer les répétitions ; s’il y a deux facteurs premiers alors on peut les séparer
puisque p + q < pq).
© Le théorème des nombres premiers est utile pour les derniers arguments. Ce
résultat, qui doit bien sûr être cité dans la leçon sur les nombres premiers (en
réalité, le résultat beaucoup moins fort

ln x
π(x)  ,
x
dû à Tchebychev, suffit), est classique et peut être utilisé tel quel dans les autres
leçons. Il est toutefois très utile d’avoir en tête sa formulation et ses conséquences
P P
pour les sommes telles que ln p ou p qui intervient dans le développement.
Toutes les équivalences entre ces formulations découlent de sommations par parties
à partir de la forme
X x
π(x) = 1∼ .
p6x
ln x

© En supposant le théorème des nombres premiers connu, il est important de


savoir comment en déduire l’estimation de Mertens utilisée dans le développement.
La méthode utilisée est systématique pour obtenir des estimations de sommes sur
des nombres premiers, et est essentiellement basée sur une intégration par parties.
Nous rappelons le résultat général ici, pouvant faire l’objet d’un développement
élémentaire F une fois agrémenté de quelques exemples :

Soit f ∈ C 1 (]1, +∞[). Supposons l’estimation


Z x
dt
π(x) = li(x) + ε(x), où li(x) = .
2 t
Pour tout x > 2, on a alors
Z x Z x
f (t)
ε(t)f 0 (t)dt.
X
f (p) = dt + ε(x)f (x) −
p6x 2 ln t 2

Prouvons ce résultat. Introduisons un paramètre 1 < a < 2. Nous utilisons


une intégration par parties pour l’intégrale de Riemann-Stieltjes (qui peut se
reformuler comme une sommation d’Abel ou une intégration par parties classique
en introduisant les fonctions en escalier associées, c’est toutefois un formalisme
pratique pour la théorie des nombres, voir [Ten08] pour plus de détails). On a
X Z x Z x
f (p) = f (t)dπ(t) = f (t)d(li(t) + ε(t)).
a6p<x a a

32
Groupes, actions et représentations

En notant Rque d(li(t)) = dt/ ln(t) et en écrivant une intégration par parties pour
l’intégrale ax f (t)dε(t) on a, pour tout x > 2,
Z x Z x Z x
f (t)
f (t)dπ(t) = dt + ε(x)f (x) − ε(t)f 0 (t)dt − ε(a)f (a).
a a ln t a

En laissant a tendre vers 2− et puisque ε(a) → 0 par le théorème des nombres


premiers, cela achève la preuve. 
De sorte à utiliser ce résultat pour estimer des sommes de nombres premiers,
P
typiquement des sommes partielles de la série p p, il est nécessaire d’avoir des
estimations fines sur la taille du reste ε. Le théorème des nombres premiers garantit
que ε(t) = o(t/ ln(t)), ce qui suffit pour nos besoins. Ainsi,
Z x Z x
X t
p= dt + xε(x) − ε(t)dt.
p6x 2 ln t 2

Des estimations directes donnent que le premier terme est équivalent à x2 /2 ln(x)
et que les autres sont négligeables devant x2 / ln(x). On obtient ainsi
X x2
p∼ .
p6x
2 ln x

Cela donne une importance particulière aux estimations précises sur le terme
d’erreur ε(t) apparaissant dans le théorème des nombres premiers. Le théorème
des nombres premiers donne une borne de √ la forme o(t/ ln(t)), les meilleurs
résultats connus sont de la forme O(x exp(−α ln x)), et l’hypothèse de Riemann

est équivalente à un terme d’erreur de l’ordre de x ln x.
© La version complète du théorème de Landau est plus explicite, et donne

ln G(n) ∼ n ln n.

Essentiellement,√il s’agit d’estimer la taille asymptotique de P lorsque n croît vers


l’infini, qui est n ln n. On peut en effet s’en convaincre en utilisant l’estimation
X x2
p∼ ,
p6x
2 ln x

et constater qu’elle est d’ordre n lorsque x = n ln n.
Nous avons préféré ne pas introduire plus de détails, gardant les résultats de
théorie analytique des nombres réduits à l’estimation de Mertens. Les mêmes
méthodes s’appliquent pour obtenir cette estimation, voir [Ten08]. Nous invitons
le lecteur à l’aise avec ces arguments à les présenter en fin de développement.
© On peut prouver que cette version forte du théorème de Landau est en fait
équivalente au théorème des nombres premiers.

33
6. Ordre maximum des permutations

Questions.
1. La décomposition en cycles d’une permutation est-elle unique ?
2. Rappeler pourquoi l’ordre d’une permutation est le ppcm de la taille de ses
cycles.
3. Montrer que tout groupe fini peut se plonger dans un groupe symétrique. Est-ce
qu’on peut déduire de ce théorème un résultat intéressant sur l’ordre maximal
d’un groupe fini en général ?
4. En utilisant le résultat sur les sommes de nombres premiers présenté en com-
mentaires, justifier l’estimation (4).
5. Utiliser le théorème des nombres premiers pour montrer les estimations de
Mertens :
X ln p
= ln x + O(1),
p6x
p
X1 1
 
= ln ln x + c + O ,
p6x
p ln x

pour une certaine constante c > 0.


6. Soit n ∈ N. Quel est le maximum des
r
Y r
X
xi tels que xi = n
i=1 i=1

lorsque r > 1 et x1 , . . . , xr ∈ N ?
Remarque : le résultat de cette question permet d’obtenir le plus grand résultat
possible étant donné un tirage de chiffres dans le jeu « Des chiffres et des lettres ».

34
Groupes, actions et représentations

Développement 7 (Commutativité de permutations aléatoires FF)

Soit n ∈ N∗ . On note
n
( )
n
X
En = (a1 , . . . , an ) ∈ J0, nK : kak = n .
k=1

On rappelle que pour toute permutation σ ∈ Sn , il existe un unique vecteur


noté 
a(σ) = a1 (σ), . . . , an (σ) ∈ En
tel que pour tout k ∈ J1, nK, l’entier ak (σ) soit le nombre de k-cycles contenus
dans la décomposition de σ en produit de cycles à supports disjoints. On
appelle a(σ) le type de σ. Notons que les points fixes de σ figurent dans cette
décomposition sous la forme de 1-cycles.
a) Montrer que si σ ∈ Sn , le nombre de permutations de J1, nK commutant
avec σ vaut n Y
ak (σ)! k ak (σ) .
k=1

b) Montrer que pour tout a = (a1 , . . . , an ) ∈ En , le nombre na de permuta-


tions de J1, nK de type a est

n!
na = n .
Y
ak
ak ! k
k=1

c) Montrer que la probabilité pour que deux permutations choisies uniformé-


ment et indépendamment dans Sn commutent vaut

|En |
pn = .
n!

Leçons concernées : 101, 104, 105, 190

Ce développement relativement élémentaire propose de dénombrer les couples de


permutations de J1, nK commutant entre elles. Il repose sur la classification des
permutations selon les cardinaux des orbites de leur action naturelle sur J1, nK
(leçon 101), ainsi que sur une étude de la relation de conjugaison dans le groupe
fini Sn (leçons 104 et 105). Bien entendu, ce développement trouve sa place
dans la leçon de dénombrement (190) en raison des nombreux raisonnements
combinatoires qu’il mobilise.

35
7. Commutativité de permutations aléatoires

Correction.
Remarquons pour commencer que si σ, µ ∈ Sn , alors σµ = µσ si et seulement si
on a σ = µσµ−1 . Cette caractérisation de la commutativité sous forme de relation
de conjugaison nous servira plusieurs fois dans la suite.
On rappelle par ailleurs le fait important suivant :

Si k ∈ J1, nK et si (x1 . . . xk ) est un k-cycle de Sn , alors pour toute


permutation µ ∈ Sn on a
µ (x1 . . . xk ) µ−1 = (µ(x1 ) . . . µ(xk )). (1)

a) Soit σ ∈ Sn . Décomposons σ en produit de cycles disjoints, que l’on ordonne


de façon arbitraire. On a donc
n aY
Y k (σ)

σ= Ck,i .
k=1 i=1

Alors, pour tout µ ∈ Sn :


n aY
k (σ)

µ σ µ−1 = µ Ck,i µ−1 .


Y

k=1 i=1

Or tout µ Ck,i µ−1 est un k-cycle d’après (1), et on voit aisément par injectivité
de µ que les supports des µ Ck,i µ−1 sont disjoints. Il vient donc, par unicité de la
décomposition de σ en produit de tels cycles :
σ = µσµ−1 ⇔ ∀k ∈ J1, nK , ∀i ∈ J1, ak (σ)K , ∃j ∈ J1, ak (σ)K , µCk,i µ−1 = Ck,j .
En d’autres termes, µ et σ commutent si et seulement si pour tout k ∈ J1, nK,
l’ensemble des k-cycles intervenant dans la décomposition de σ en produit de
cycles disjoints est stable par conjugaison par µ.
Soient k ∈ J1, nK et i, j ∈ J1, ak (σ)K. On souhaite dans un premier temps dénombrer
les façons possibles de définir µ sur le support de Ck,i de sorte à avoir l’égalité
µCk,i µ−1 = Ck,j .
On note pour cela ck,i le plus petit élément du support de Ck,i . Alors on a l’égalité
voulue µCk,i µ−1 = Ck,j si et seulement si µ envoie ck,i sur un élément du support
de Ck,j et envoie σ m (ck,i ) sur σ m (µ(ck,i )) pour tout m ∈ J1, k − 1K. L’image par µ
des éléments du support de Ck,i est donc entièrement déterminée par le choix de
l’image µ(ck,i ). Cette image peut être choisie librement dans Ck,i , ce qui implique
qu’il existe exactement k façons différentes de définir µ sur Ck,i de sorte à avoir
µCk,i µ−1 = Ck,j .
À présent, supposons seulement k ∈ J1, nK fixé. Il existe exactement ak (σ)! façons
de permuter les k-cycles de σ entre eux, c’est-à-dire de choisir bijectivement pour
tout i l’indice j tel que µCk,i µ−1 = Ck,j .

36
Groupes, actions et représentations

Pour chacune des permutations considérées et pour chacun des ak (σ) cycles
Ck,i , on vient de voir qu’il existe k façons de définir µ sur Ck,i de façon à avoir
µCk,i µ−1 = Ck,j . Les supports des différents k-cycles Ck,i étant disjoints, il existe
exactement k ak (σ) ak (σ)! façons de définir µ sur l’union de ces supports. On a
donc :
n
−1
Y
ak (σ)! k ak (σ) ,
 
µ ∈ Sn : µσ = σµ = µ ∈ Sn : µσµ =σ =
k=1

ce qu’il fallait démontrer.


b) On note d’abord que (1) implique que la classe de conjugaison Ω(σ) d’une
permutation σ dans Sn est formée des permutations de même type que σ. Pour
tout a ∈ En et toute permutation σ ∈ Sn de type a, le nombre na est donc
le cardinal de Ω(σ). Notons que Ω(σ) est l’orbite de σ sous l’action de Sn sur
lui-même par conjugaison. En introduisant le stabilisateur de σ pour cette action,
noté Cσ := {µ ∈ Sn : µσµ−1 = σ}, on a donc

|Sn |
= |Ω(σ)|
|Cσ |

soit, d’après la question a),

n!
n = na ,
Y
ak (σ)
ak (σ)! k
k=1

ce qui est le résultat attendu.


c) La probabilité pn recherchée vaut :

|{(σ, µ) ∈ S2n : σµ = µσ}|


pn =
(n!)2
X 1 |{µ ∈ Sn : σµ = µσ}|
=
σ∈S
n! n!
n
X 1
= pσ ,
σ∈Sn
n!

où l’on a noté pσ la probabilité pour qu’une permutation tirée uniformément


dans le groupe symétrique Sn commute avec σ. D’après la question a) et par
équiprobabilité, on a :
n
1 Y
pσ = ak (σ)! k ak (σ) .
n! k=1

37
7. Commutativité de permutations aléatoires

Ainsi, pσ dépend seulement du type a(σ) de σ, d’où, grâce à la question b) :


X 1
pn = pσ
σ∈Sn
n!
1 X X
= pσ
n! a∈E
n σ ∈ Sn
a(σ) = a
n
1 X X 1 Y
= ak (σ)! k ak (σ)
n! a∈E n! k=1
n σ ∈ Sn
a(σ) = a
n
1 X na Y
= ak ! k ak
n! a∈E n! k=1
n
1 X
= 1
n! a∈E
n

|En |
= .
n!

Commentaires.
© On propose une preuve plus graphique du résultat de la question b), reposant
sur l’écriture parenthésée d’un produit de cycles disjoints.
Une permutation est de type a ∈ En si et seulement si elle peut être décomposée
comme un produit contenant ak cycles de longueur k pour tout k ∈ J1, nK, tous
ces cycles étant à supports disjoints. Pour écrire une permutation de type a sous la
forme d’un tel produit, on place donc les éléments de J1, nK entre les parenthèses
suivantes :
     
· ··· · · | · ··· · | · ··· · | ··· | · ... · | ··· | · .
| {z } | {z } | {z }
a1 parenthèses a2 parenthèses an parenthèses
à 1 emplacement à 2 emplacements à n emplacements

Comme le nombre total d’emplacements représentés ci-avant est égal à n, il existe


bien entendu n! façons de disposer les éléments de J1, nK sans répétition dans ces
emplacements. Pour chaque choix de placement ainsi considéré et pour chaque
parenthèse de longueur k ∈ J1, nK, il existe k façons de permuter les éléments
placés au sein de la parenthèse sans changer la permutation écrite. De même,
pour un choix de placement donné on peut pour tout k ∈ J1, nK permuter les
parenthèses de longueur k entre elles de ak ! façons différentes sans changer la
permutation représentée. Chaque permutation de type a est donc représentée
exactement nk=1 ak ! k ak fois dans la liste des n! placements obtenus, ce qui montre
Q

que le nombre de permutations de type a est :


n!
na = n .
Y
ak
ak ! k
k=1

38
Groupes, actions et représentations

© On peut montrer que limn→+∞ pn = 0 en majorant |En | de façon (très) grossière.


Si a = (a1 , . . . , an ) ∈ En , alors, pour tout k ∈ J1, nK, 0 6 kak 6 n d’où l’on
déduit 0 6 ak 6 n/k. Il y a donc au plus n/k + 1 choix possibles pour ak , ce qui
fournit la majoration :
n
Y
n  n 
(n + k) (2n)!
!
n n+k 2n
 
k=1
Y Y
n!
|En | 6 +1 = = n = = .
k=1
k k=1
k Y n! n
k
k=1

Or :
2n
! !
2n X 2n
6 = 22n ,
n k=0
k

d’où |En | 6 4n et la conclusion souhaitée.


© On peut montrer (voir questions ci-après) que |En | est le nombre de partitions
de n, c’est-à-dire le nombre d’éléments (k1 , . . . , kn ) de J0, nKn vérifiant les condi-
tions k1 6 . . . 6 kn et k1 + · · · + kn = n. En 1918, Hardy et Ramanujan ont
donné l’équivalent suivant de |En | lorsque n tend vers +∞ :
r !
1 2n
|En | ∼ √ exp π , (2)
4 3n 3

ce qui montre que la majoration obtenue dans le commentaire précédent est loin
d’être optimale.
© La limite obtenue ci-avant est à comparer à un résultat démontré dans le
Développement 2, le théorème de Dixon, qui stipule que si G est un groupe fini
non abélien, alors la probabilité pour que deux éléments tirés uniformément et
indépendamment dans ce groupe commutent est majorée par 5/8. En revanche,
on ne peut pas minorer cette probabilité par un réel strictement positif dans le
cas général, précisément parce que lim pn = 0.
n→+∞

Questions.
1. Rappeler pourquoi, si k ∈ J1, nK et si (x1 . . . xk ) est un k-cycle de Sn , alors
pour tout µ ∈ Sn on a

µ (x1 . . . xk ) µ−1 = (µ(x1 ) . . . µ(xk )).

2. Détailler pourquoi (1) implique que deux permutations de Sn sont conjuguées


dans Sn si et seulement si elles sont de même type.
3. Soit σ un n-cycle de Sn . Donner l’ensemble des permutations de Sn commutant
avec σ.
4. Supposons que n > 2. Soit σ un (n − 1)-cycle de Sn . Donner l’ensemble des
permutations de Sn commutant avec σ.

39
7. Commutativité de permutations aléatoires

5. Deux permutations de Sn de même type sont-elles nécessairement conjuguées


dans An ?
Indication : on pourra étudier les cardinaux des orbites du cycle (1 . . . n) (si n est
pair) ou du cycle (1 . . . n − 1) (si n est impair et au moins égal à 3) sous l’action
par conjugaison de Sn et de An .
6. Expliquer pourquoi, si pour tout k ∈ J1, nK et tout i ∈ J1, ak (σ)K il existe un
indice j ∈ J1, ak (σ)K tel que µCk,i µ−1 = Ck,j , alors µσµ−1 = σ.
Indication : justifier que tous les cycles Ck,i sont présents dans le produit

n aY
k (σ)
−1
µ Ck,i µ−1 .
Y
µσµ =
k=1 i=1

7. Dans la question a), aurait-on pu définir ck,i comme un élément quelconque


du support de Ck,i plutôt que comme son plus petit élément ?
8. Formaliser l’argument combinatoire donné dans la question a) en écrivant
une bijection entre l’ensemble des permutations de Sn commutant avec σ et un
ensemble bien choisi.
9. Déterminer l’ensemble des permutations de J1, 5K commutant avec (123)(45),
puis l’ensemble des permutations de J1, 7K commutant avec (1356)(27)(4).
10. Montrer que si G est un groupe fini, la probabilité pour que deux éléments
tirés uniformément et indépendamment dans G commutent est égale à kG /|G|,
où kG est le nombre de classes de conjugaison dans G.
11. Calculer p4 .
12. Montrer que pour tout n ∈ N∗ , |En | est égal au nombre de partitions de n,
c’est-à-dire au nombre de vecteurs (k1 , . . . , kn ) ∈ J0, nKn tels que k1 6 . . . 6 kn
et k1 + . . . + kn = n.
Indication : on exhibera une bijection entre En et l’ensemble des partitions de n.
13. Calculer |E10 |.
Indication : on pourra utiliser la question précédente et distinguer les cas selon la
valeur du plus grand élément de la partition de 10 considérée.
14. En utilisant la formule de Stirling et l’équivalent (2), donner un équivalent
de pn lorsque n → +∞.

40
Groupes, actions et représentations

Développement 8 (Cyclicité des groupes d’ordre pq F)

Soient p et q deux nombres premiers tels que p < q et q 6≡ 1 mod p. Soit G


un groupe d’ordre pq.
a) Notons np (resp. nq ) le nombre de p-Sylow (resp. q-Sylow) de G.
(i) Montrer que np = 1 si et seulement si tout p-Sylow est distingué.
(ii) Supposons que np = nq = 1 et notons P (resp. Q) l’unique p-Sylow
(resp. q-Sylow) de G. Montrer que tout élément de P commute avec tout
élément de Q.
b) On note P un sous-groupe d’ordre p et Q un sous-groupe d’ordre q de G.
(i) Justifier que P et Q existent.
(ii) Prouver que P est distingué dans G.
(iii) Prouver que Q est distingué dans G.
c) En déduire que G admet un élément d’ordre pq. Conclure au théorème :

Soient p et q deux nombres premiers, tels que p < q et q 6≡ 1 mod p.


Alors tout groupe d’ordre pq est cyclique.

Leçons concernées : 101, 103, 104


Les théorèmes de Sylow, rappelés en commentaire après le développement, sont un
outil crucial pour la compréhension de la structure des groupes finis. Ils fournissent
des résultats précis concernant certains sous-groupes, permettant d’en déduire des
propriétés sur le groupe entier.
Ce développement, assez élémentaire, est une application immédiate de ces idées
et illustre parfaitement les méthodes de raisonnements sur les groupes finis et les
différents théorèmes de Sylow (101, 103, 104).
Correction.
a) (i) Supposons que np = 1, autrement dit que G admet un unique p-Sylow.
Soit P ce p-Sylow de G. Pour tout x ∈ G le sous-groupe xP x−1 est également un
p-Sylow puisqu’il a même cardinal. Donc, puisqu’il n’y a qu’un seul p-Sylow dans
G par hypothèse, tous les sous-groupes xP x−1 sont égaux, autrement dit on a
xP x−1 = P pour tout x ∈ G, ce qui signifie que P est distingué dans G.
Réciproquement, supposons que tous les p-sous-groupes de Sylow de G soient
distingués dans G. Soit P un p-Sylow distingué de G. Le deuxième théorème de
Sylow affirme que tous les p-Sylow de G sont conjugués entre eux, en particulier
ils sont tous conjugués à P , autrement dit se mettent sous la forme xP x−1 pour
un certain x ∈ G. Puisque P est supposé distingué dans G, on a xP x−1 = P pour
tout x ∈ G et donc P est l’unique p-Sylow de G.
(ii) Puisque p et q sont deux premiers distincts, ils sont premiers entre eux.
Ainsi, P ∩ Q, qui est à la fois un sous-groupe de P et un sous-groupe de Q, a un
ordre qui divise p et q, et donc leur pgcd qui vaut 1. Ainsi P ∩ Q = {e}, où e
désigne l’élément neutre de G.

41
8. Cyclicité des groupes d’ordre pq

Par la question a)(i), P et Q sont des sous-groupes distingués de G. Soient x ∈ P


et y ∈ Q. Considérons le commutateur

(xy)(yx)−1 = xyx−1 y −1 = x(yx−1 y −1 ) ∈ P


= (xyx−1 )y −1 ∈ Q,

de sorte que (xy)(yx)−1 ∈ P ∩ Q = {e}, autrement dit xy = yx. Ainsi, tout


élément de P commute avec tout élément de Q.
b) On note P un sous-groupe d’ordre p et Q un sous-groupe d’ordre q de G.
(i) Le groupe G est d’ordre pq et, puisque p et q sont deux nombres premiers
distincts, on a p - q et q - p. Ainsi, par le premier théorème de Sylow, il existe un
p-Sylow (d’ordre p) et un q-Sylow (d’ordre q).
(ii) Par le troisième théorème de Sylow, on a np | q et np ≡ 1 mod p. Ainsi, np
vaut 1 ou q et, par hypothèse, q 6≡ 1 mod p donc np = 1. Ainsi P est l’unique
p-Sylow de G, et est donc distingué dans G par la question a)(i).
(iii) Par le troisième théorème de Sylow, on a nq | p et nq ≡ 1 mod q. Ainsi nq
vaut 1 ou p mais nq est congru à 1 modulo q, donc nq ne peut être qu’égal à 1 car
p < q. Donc Q est le seul q-Sylow de G, et c’est un sous-groupe distingué de G
par la question a)(i).
c) Par les questions b)(ii) et b)(iii) on a np = nq = 1, donc la question a)(ii)
garantit que les éléments de P commutent avec ceux de Q. Soient x ∈ P un élément
d’ordre p et y ∈ Q un élément d’ordre q. Puisque leurs ordres sont premiers entre
eux et qu’ils commutent, xy est d’ordre pq ; puisque hxyi est un sous-groupe de G
d’ordre maximal, il vient que G = hxyi et G est donc cyclique.

Commentaires.
© Les sous-groupes de Sylow sont des sous-groupes importants du groupe G. Il
s’agit de sous-groupes de G dont le cardinal est une puissance maximale de nombre
premier : si G est de cardinal pr m où p est un nombre premier et p - m, alors un
p-sous-groupe de Sylow de G est un sous-groupe d’ordre pr .
Rappelons les trois théorèmes de Sylow. Ils ne sont plus officiellement au pro-
gramme de l’agrégation, il est donc de bon ton d’avoir une idée des outils nécessaires
à leur preuve.
• G admet un p-sous-groupe de Sylow. De plus, chaque sous-groupe de G
d’ordre une puissance de p est contenu dans un p-Sylow.
• Tous les p-Sylow de G sont conjugués dans G.
• Soit np le nombre de p-Sylow de G. Alors

np | m et np ≡ 1 mod p.

© Dans le cas d’un groupe G abélien, le résultat est immédiat. En effet, par le
théorème de structure des groupes abélien, G est isomorphe à un produit de
groupes cycliques et donc est isomorphe à Z/pqZ ou à Z/pZ × Z/qZ ; le théorème
des restes chinois assure alors que ces deux derniers groupes sont isomorphes, de
sorte que G est cyclique.

42
Groupes, actions et représentations

© On peut proposer une solution à la question b)(i) se passant des théorèmes de


Sylow : puisque p divise |G|, le théorème de Cauchy affirme qu’il existe un élément
x ∈ G d’ordre p ; de même, il existe un élément y ∈ G d’ordre q. Alors, P = hxi
est un sous-groupe d’ordre p de G, et Q = hyi en est un sous-groupe d’ordre q.
© La question a) donne un outil utile pour prouver qu’il existe un sous-groupe
distingué non trivial de G, à savoir un p-Sylow satisfaisant la condition np = 1, et
donc que G n’est pas simple.

Questions.
1. Montrer qu’un groupe de cardinal pq n’est pas simple.
2. Pour x ∈ G, justifier que P et xP x−1 ont même cardinal.
3. Si x est d’ordre n et y est d’ordre m, et si x et y commutent, montrer que xy
est d’ordre ppcm(n, m).
4. Donner la démonstration des théorèmes de Sylow.
5. Montrer que le groupe S5 a dix sous-groupes d’ordre 3 et six d’ordre 5.
6. Montrer que tous les sous-groupes de Sylow d’un groupe fini sont abéliens si,
et seulement si, ce groupe est isomorphe au produit direct de ses sous-groupes de
Sylow.
7. Soit N distingué dans G et P un p-Sylow de N . Montrer que si P est distingué
dans N , alors il l’est dans G.
8. Soient p et q deux nombres premiers distincts, et P (resp. Q) un p-Sylow (resp.
q-Sylow) de G. Quel est le cardinal de P ∩ Q ?
9. Soit H un p-Sylow de G et soit K un sous-groupe distingué de G. Montrer que
l’intersection H ∩ K est un p-Sylow de K.
10. Montrer que les sous-groupes de Sylow d’un groupe diédral sont cycliques.
11. Soient p et q des nombres premiers distincts. Montrer qu’un groupe d’ordre p2 q
n’est pas simple.
12. Que se passe-t-il lorsque p = q ? et lorsque q ≡ 1 modulo p ?

43
9. Groupes d’ordre 105

Développement 9 (Groupes d’ordre 105 FFF)

a) Soit p un nombre premier et G un groupe. Montrer que si G admet k > 1


sous-groupes de cardinal p, alors il a au moins k(p − 1) éléments d’ordre p.
Soit G un groupe d’ordre 105.
b) Montrer que G admet un unique 5-Sylow ou un unique 7-Sylow.
c) Prouver que G admet un sous-groupe d’ordre 35.
d) En admettant que tout groupe d’ordre 35 est cyclique, montrer que G
admet un unique 5-Sylow et un unique 7-Sylow. En déduire que G n’admet
qu’un unique sous-groupe d’ordre 5 et un unique sous-groupe d’ordre 7.
e) Montrer que G est isomorphe au produit direct de Z/5Z par un groupe
d’ordre 21.

Leçons concernées : 101, 103, 104, 121, 190

Les théorèmes de Sylow affirment l’existence de p-groupes maximaux pour un


groupe fini donné pour tout nombre premier p, et donnent des conditions très
précises sur le nombre de p-Sylow d’un groupe de cardinal donné. Cela permet
d’obtenir des informations sur la structure des groupes finis et est parfois suffisant
pour classifier entièrement les groupes d’un ordre donné. C’est notamment le
cas pour les petits groupes, principe illustré ici pour les groupes d’ordre 105. La
preuve du résultat consiste essentiellement en un problème de combinatoire pour
déterminer le nombre exact de sous-groupes de différents ordres.
Ce développement regorge d’arguments typiques de la théorie des groupes finis, en
particulier concernant les propriétés de l’action par conjugaison (101), justifiant
sa présence pour illustrer la leçon 104. Le principe du dévissage d’un groupe en
sous-groupes plus petits est central dans ce développement, ce qui illustre l’utilité
des sous-groupes distingués et des groupes quotients (103), particulièrement dans
le cas des sous-groupes de Sylow. Les propriétés des groupes d’ordre premier
et l’utilisation des relations de congruence données par les théorèmes de Sylow
peuvent en justifier l’apparition dans la leçon sur les nombres premiers (121).
Enfin, la recherche de conditions nécessaires suffisamment fortes pour déterminer
entièrement les nombres de sous-groupes de Sylow en fait un développement original
pour la leçon de dénombrement (190).
Correction.
a) Un élément d’ordre p est toujours inclus dans le sous-groupe d’ordre p qu’il en-
gendre. Réciproquement, dans un groupe d’ordre p premier, tout élément différent
de l’élément neutre est d’ordre p, de sorte que tout sous-groupe d’ordre p admet
p − 1 éléments d’ordre p. Ainsi, les sous-groupes d’ordre de p de G correspondent
à des ensembles de p − 1 éléments d’ordre p.
De plus, deux sous-groupes distincts de G d’ordre p ont une intersection triviale,
puisqu’elle est un sous-groupe d’ordre strictement inférieur à p, et divisant p par
le théorème de Lagrange. Les sous-groupes de G d’ordre p distincts correspondent

44
Groupes, actions et représentations

donc à des ensembles distincts de p − 1 éléments d’ordre p par le procédé précédent.


Ainsi, si G admet k sous-groupes de taille p, il admet k(p − 1) éléments d’ordre p.
b) Le deuxième théorème de Sylow donne des conditions sur le nombre de sous-
groupes de Sylow de G. En notant np le nombre de p-Sylow de G, on a

n5 | 21 et n5 ≡ 1 mod 5,
n7 | 15 et n7 ≡ 1 mod 7.

On déduit de ces conditions que

n5 ∈ {1, 21} et n7 ∈ {1, 15}.

Si n5 et n7 étaient différents de 1, alors on aurait n5 = 21 et n7 = 15. Mais


alors, par la question a) il y aurait 21 × (5 − 1) = 84 éléments d’ordre 5 et
15 × (7 − 1) = 90 éléments d’ordre 7 dans G, ce qui est impossible puisque G ne
contient que 105 éléments. Ainsi, on a nécessairement n5 = 1 ou n7 = 1.
c) D’après la question précédente, il suffit de vérifier séparément que G admet
un sous-groupe d’ordre 35 dans le cas où n5 = 1 et dans le cas où n7 = 1.
Supposons que n5 = 1, de sorte que G admet un unique 5-Sylow, noté N5 . Il
est distingué par le deuxième théorème de Sylow. Ainsi, le quotient G/N5 est un
groupe et la projection G → G/N5 est un morphisme de groupes. Le quotient G/N5
est d’ordre 21, donc il admet un 7-Sylow par le premier théorème de Sylow, que
nous notons N . Son image réciproque par la projection canonique G → G/N5 est
donc un sous-groupe d’ordre 35.
Supposons que n7 = 1, et raisonnons de manière analogue en notant N7 l’unique 7-
Sylow de G, nécessairement distingué. Le quotient G/N7 est un groupe d’ordre 15
et la projection G → G/N7 est un morphisme de groupes. Le quotient G/N7 admet
donc un 5-Sylow noté N , par le premier théorème de Sylow. L’image réciproque
de N par la projection G → G/N7 est donc un sous-groupe d’ordre 35.
Ainsi, dans tous les cas G admet un sous-groupe d’ordre 35.
d) Par la question précédente, G admet un sous-groupe H d’ordre 35, autrement
dit d’indice 3. Il s’agit du plus petit facteur premier de G, donc H est distingué
dans G. De plus, on a admis que tout groupe d’ordre 35 est cyclique, en particulier
commutatif. Ainsi, ses sous-groupes de Sylow sont distingués dans H.
De manière générale, « être distingué dans » n’est pas une relation transitive. Mais
dans le cas présent, lorsqu’il s’agit d’un sous-groupe de Sylow, le lemme suivant
garantit que c’est le cas :
Soit H un sous-groupe distingué de G et N un p-sous-groupe de Sylow
de H distingué dans H. Alors N est distingué dans G.
En effet, puisque le p-Sylow N est distingué dans H, c’est l’unique p-Sylow par le
second théorème de Sylow. Pour un élément g ∈ G, puisque N ⊆ H, le sous-groupe
gN g −1 ⊆ gHg −1 est inclus dans H puisque H est distingué dans G. Ainsi, gN g −1
est un p-Sylow de H, et donc par unicité gN g −1 = N . Cela signifie bien que N
est distingué dans G.

45
9. Groupes d’ordre 105

Ainsi, les sous-groupes de Sylow de H sont distingués dans G. Mais ce sont des
groupes d’ordre 5 et 7, donc ce sont également des sous-groupes de Sylow de G.
Or, si un sous-groupe de Sylow est distingué, il est unique, on peut donc conclure
que n5 = 1 et n7 = 1.
e) Soient N5 et N7 les uniques 5-Sylow et 7-Sylow de G respectivement, qui
existent par la question d). Soit P un 3-Sylow de G. Puisque N7 est distingué
dans G comme unique 7-Sylow, le produit H = P N7 est un sous-groupe de G, et
il est d’ordre 21. Puisque 21 et 5 sont premiers entre eux, l’intersection N5 ∩ H
est triviale, de sorte que HN5 est de cardinal 105 ; il est donc égal à G.
On montre à présent que G = HN5 est isomorphe au produit direct H × N5 .
Introduisons l’application

H × N5 −→ HN5
(h, n) 7−→ hn

qui est clairement bijective. Montrons qu’il s’agit bien d’un morphisme, ce qui
revient à prouver que les éléments de H et de N5 commutent.
Comme N5 est un sous-groupe distingué de G, on en déduit que H agit par
conjugaison sur N5 . Cela définit un morphisme
∼ (Z/5Z)× ∼
φ : H −→ Aut(N5 ) = = Z/4Z
 
h 7−→ n 7→ hnh−1 .

Comme H est d’ordre 21, l’image de φ est isomorphe à un quotient de H (à savoir,


le quotient de H par le noyau de φ) et en particulier est d’ordre divisant 21. De plus,
comme cette image est isomorphe à un sous-groupe de Z/4Z, son ordre divise 4.
Or, 4 et 21 sont premiers entre eux, donc l’image de φ est d’ordre un, autrement
dit elle est triviale. Ainsi, le morphisme φ est trivial, et donc l’action de H sur N5
par conjugaison est triviale. Autrement dit, les éléments de H commutent avec
ceux de N5 . Ainsi, G est isomorphe au produit direct H × N5 ∼ = H × Z/5Z, et H
est d’ordre 21.

Commentaires.
© De nombreuses propriétés élémentaires sur les groupes sont exploitées dans ce
développement. Il convient bien évidemment d’être à l’aise sur tous ces points
de détail, et d’avoir en tête les hypothèses cruciales mobilisées à chaque étape
(notamment la particularité du caractère distingué d’un sous-groupe, impliquant
que les classes à droite ou à gauche sont égales et forment un groupe). Il est donc
aisé d’adapter le développement selon ses préférences, en détaillant plus ou moins
certains arguments lors de sa présentation. Plusieurs questions demandant de
telles clarifications font suite à ces commentaires.
© Les théorèmes de Sylow ne sont plus officiellement au programme de l’agrégation,
ce qui justifie le niveau de difficulté annoncé du développement. Il va de soi qu’un
candidat présentant ce développement doit maîtriser leurs énoncés, que nous
rappelons ici :

46
Groupes, actions et représentations

Soit p un nombre premier. Soit G un groupe tel que pn soit la plus


grande puissance de p divisant |G|, pour un entier n > 0.
(1) Il existe un sous-groupe de G d’ordre pn , appelé un p-sous-groupe
de Sylow de G (aussi abrégé en « p-Sylow » de G).
(2) Tous les p-sous-groupes de Sylow de G sont conjugués.
(3) Si |G| = pn m avec m ∈ N∗ et p - m, le nombre np de p-sous-
groupes de Sylow vérifie
• np | m,
• np ≡ 1 mod p,
• pour tout p-Sylow P , on a np = [G : NG (P )].

Ces théorèmes constituent un outil important pour l’étude des groupes finis et
ont toute leur place dans les leçons 101, 103 et 104.
© Le résultat du développement est satisfaisant dans l’esprit de la classification
des groupes finis, puisqu’on a ramené l’étude des groupes d’ordre 105 à celle des
groupes d’ordre 21, qui sont plus petits et donc plus simples à étudier.
© On admet pour ce développement deux résultats du même type, plus faciles
à démontrer : les groupes d’ordre 35 sont cycliques et il n’y a que deux groupes
d’ordre 21 à isomorphisme près. Ils peuvent être mentionnés dans le plan comme
premiers exemples d’illustration des théorèmes de Sylow.
© Avec des arguments de comptage similaires à ceux de la preuve, on prouverait
qu’il n’existe que deux groupes d’ordre 21 à isomorphisme près, ce qui permet
de conclure grâce à la question e) qu’il n’existe que deux groupes d’ordre 105 à
isomorphisme près. Bien évidemment, il y a le groupe cyclique d’ordre 21. On
peut par ailleurs montrer qu’il existe un unique groupe d’ordre 21 non abélien.
Plus généralement, ce résultat est valable pour tous les cardinaux de la forme pq
lorsque p et q sont deux nombres premiers tels que p|(q − 1).
© La classification des groupes finis a été une des grandes aventures du XXe
siècle. Dès qu’un groupe G possède un sous-groupe distingué N , il est possible de
considérer son groupe quotient G/N et l’étude de G se ramène essentiellement
à celle des groupes plus petits N et G/N . En effet, G est isomorphe au produit
semi-direct N o G/N , voir par exemple [PCD96]. C’est le dévissage donné par la
suite exacte
1 → N → G → G/N → 1.
On se ramène donc à l’étude des groupes finis qui n’ont pas de sous-groupes
distingués non triviaux : ce sont les groupes simples. La classification des groupes
finis simples a été l’œuvre colossale de nombreux mathématiciens, et a été achevée
à travers un travail de compilation virtuose de Gorenstein [Gor82], répertoriant
tous les cas possibles après de nombreuses réductions du problème. La preuve
entière constitue une somme d’une dizaine de milliers de pages, et pose encore
aujourd’hui des problèmes épistémologiques concernant la valeur d’un tel résultat,
que personne hormis peut-être Gorenstein n’a pu lire minutieusement. Parmi les
outils essentiels de cette classification se trouvent les théorèmes de Sylow, qui

47
9. Groupes d’ordre 105

donnent des informations très précises sur un groupe à partir de la seule donnée
de son ordre. Ce développement en est une bonne illustration.
© Nous profitons de cette discussion pour citer le théorème de Feit-Thompson,
énonçant que tout groupe fini simple non cyclique est d’ordre pair. La longue
et technique preuve de ce théorème a été publiée dans un volume entier d’une
revue de recherche et a été formalisée puis vérifiée par l’assistant de preuve Coq,
soulevant aussi des questions épistémiques.

Questions.
1. S’il n’existe qu’un unique p-Sylow, pourquoi est-il distingué ?
2. Si N est distingué dans G et si X est un sous-ensemble de G/N , montrer que
la préimage de X par la projection G → G/N est de cardinal un multiple de |N |.
Sous quelle condition la préimage a-t-elle pour cardinal |X| × |N | ? Donner un
exemple explicite de cas où l’égalité n’est pas vérifiée.
Indication : quelle est la forme d’une image réciproque par cette projection ?
3. Soit p le plus petit facteur premier divisant l’ordre de G. Soit H un sous-groupe
de G d’indice p. Prouver que H est distingué.
Indication : que dire du centralisateur de H dans G ?
4. Si N est distingué dans G et H est un sous-groupe de G, montrer que HN est
un sous-groupe de G.
5. Montrer que la relation « être distingué dans » n’est pas transitive.
Indication : considérer le groupe S4 et ses sous-groupes donnés par h(12)(34)i et
{Id, (12)(34), (13)(42), (23)(41)}.
6. Si G est d’ordre 30, montrer qu’il admet un 3-Sylow et un 5-Sylow distingués.
7. Si G est d’ordre 100, montrer qu’il admet un 5-Sylow distingué.
8. Montrer que tous les sous-groupes d’ordre 35 sont cycliques.
Indication : raisonner par l’absurde et montrer que, si ce n’était pas le cas, il
existerait des éléments d’ordre 5 et d’ordre 7. Montrer qu’il n’existerait alors qu’un
unique 7-Sylow. Déduire qu’il existerait 28 éléments d’ordre 5, donc 7 sous-groupes
d’ordre 5, contrairement à la condition n5 ≡ 1 mod 5.
9. Montrer qu’il n’existe que deux groupes d’ordre 21 à isomorphisme près.
Indication : montrer qu’un tel groupe admet un unique 7-Sylow, qui est donc
distingué. Le groupe est donc isomorphe au produit semi-direct Z/7Z oφ Z/3Z
où φ est un morphisme φ : Z/3Z → Aut(Z/7Z) ∼ = Z/6Z. Il n’y en a que deux qui
conviennent, et on peut voir que les deux groupes obtenus ne sont pas isomorphes.

48
Groupes, actions et représentations

Développement 10 (Table des caractères des groupes diédraux F)

Soit n > 3. Notons G le groupe diédral d’ordre 2n. Par définition,

G = ha, b | an = b2 = (ba)2 = 1i.

Soient ε = exp(2iπ/n) et j ∈ J1, n − 1K, introduisons les matrices


! !
εj 0 0 1
Aj = et B = .
0 ε−j 1 0

a) Considérons le morphisme défini par

ρj : G −→ GL2 (C)
a 7−→ Aj
b 7−→ B.

(i) Vérifier que ρj définit un unique morphisme de groupes et que c’est une
représentation de G. Donner une interprétation géométrique de ρj .
(ii) Montrer que ρj est irréductible pour tout j ∈ J1, n − 1K.
(iii) Montrer que ρj et ρk ne sont pas semblables si j, k ∈ J1, n − 1K et j =
6 k.
b) Supposons que n est impair.
(i) Combien y a-t-il de caractères irréductibles de G ?
(ii) En considérant le sous-groupe hai, trouver des caractères de G.
(iii) Dresser la table des caractères de G.
c) Supposons que n est pair.
(i) Combien y a-t-il de caractères irréductibles de G ?
(ii) En considérant le sous-groupe ha2 i, trouver des caractères de G.
(iii) Dresser la table des caractères de G.

Leçons concernées : 101, 104, 107, 108

Ce développement est l’archétype de la méthode de recherche des caractères irré-


ductibles d’un groupe fini, l’insérant naturellement dans le cadre de la leçon 104.
L’utilisation des générateurs du groupe diédral ainsi que de sous-groupes engendrés
en fait un développement pertinent pour la leçon 108. Le thème central reste les
représentations et leurs caractères, en faisant une bonne illustration des leçons
sur les actions de groupes finis 101 et 107.

Correction.
a) (i) Puisque G est engendré par a et b, ses éléments s’écrivent comme des
mots sur l’alphabet {a, b}. La relation supplémentaire (ba)2 = 1 peut se formuler
comme ba = a−1 b−1 de sorte que tous les éléments de G peuvent s’écrire sous

49
10. Table des caractères des groupes diédraux

la forme ar bs pour certains r, s ∈ Z. Il est aisé de voir qu’une telle écriture est
unique, de sorte que l’application ρj est entièrement définie par les images de a
et b.
Soit j ∈ J1, n − 1K. Un calcul matriciel donne Anj = B 2 = (Aj B)2 = I2 . En
particulier, les images des éléments de G par ρj satisfont les mêmes relations que
les éléments de G et notamment la même règle de réécriture que précédemment.
En particulier, pour deux éléments x = ar bs et y = at bu de G, avec r, s, t, u ∈ Z,
on a

ρj (xy) = ρj (ar bs at bu ) = ρj (ar a−t b−s bu )


= ρj (ar−t b−s+u ) = Ar−t
j B
−s+u

= Arj B s Atj B u = ρj (ar bs )ρj (at bu )


= ρj (x)ρj (y),

de sorte que ρj est bien définie et est une représentation de G dans GL2 (C).
(ii) L’image du vecteur (1, 0) ∈ C2 est envoyée par Aj sur (εj , 0) et par B
sur (0, 1), qui forment une base de C2 . Ainsi, toute sous-représentation de ρj est
au moins de dimension 2 : les représentations ρj sont donc irréductibles.
(iii) Notons i 6= j deux entiers entre 1 et n/2 − 1. Si ρi et ρj étaient équivalentes,
alors ρi (g) et ρj (g) seraient conjuguées pour tout g ∈ G. Or, en particulier
avec g = a, les spectres de ρi (a) et ρj (a) sont distincts, à savoir {εi , ε−i } et {εj , ε−j }
respectivement : elles ne sont donc pas conjuguées. Ainsi, en notant ψj le caractère
irréductible associé à ρj , pour 1 6 j < n/2, on obtient certains des caractères
irréductibles de G.
b) (i) Les classes de conjugaison dans G sont :
• l’identité {1},
• les rotations {ar , a−r } pour r ∈ J1, (n − 1)/2K,
• {as b : 0 6 s 6 n − 1}.
Il y a ainsi (n+3)/2 classes de conjugaison, et donc (n+3)/2 caractères irréductibles.
Nous en connaissons déjà (n − 1)/2 qui sont associés aux ρj . Il en reste donc 2 à
obtenir.
(ii) Le groupe hai engendré par a est distingué dans G et G/hai ' Z/2Z. Cela
motive l’introduction des deux caractères distincts définis en relevant des deux
caractères de Z/2Z, à savoir le caractère trivial χ1 = 1 et le caractère
(
1 si g = ar , r > 1,
χ2 : g ∈ G 7→
−1 si g = ar b, r > 1.

Puisque les deux caractères χ1 et χ2 sont de dimension 1, ils sont irréductibles.


Ainsi, ce sont les deux derniers caractères irréductibles de G.
(iii) On obtient la table de caractères suivante, où r ∈ J1, (n − 1)/2K, où l’on
n’écrit qu’un représentant de chaque classe de conjugaison par colonne :

50
Groupes, actions et représentations

g 1 ar b
χ1 1 1 1
χ2 1 1 −1
ψj 2 ε + ε−jr
jr 0
Nous avons ainsi déterminé tous les caractères irréductibles de G.
c) Notons n = 2m avec m ∈ N.
(i) Les classes de conjugaison de G sont, pour r ∈ J1, (n − 1)/2K,
• l’identité {1},
• les rotations {ar , a−r },
• {as b : s pair},
• {as b : s impair}.
Il y a ainsi m + 3 caractères irréductibles de G, et nous en connaissons déjà m − 1
qui sont donnés par les caractères associés aux représentations irréductibles ρj . Il
en reste donc 4 à obtenir.
(ii) Considérons le sous-groupe ha2 i de G engendré par a2 . C’est un sous-groupe
distingué dans G et

G/ha2 i = {ha2 i, ha2 ia, ha2 ib, ha2 iab}


' Z/2Z × Z/2Z.

Cela motive la définition des quatre caractères relevés des caractères bien connus
de Z/2Z × Z/2Z. Les quatre caractères de Z/2Z × Z/2Z sont donnés par les images
possibles de chaque générateur (1, 0) et (0, 1), et elles sont égales à ±1. On peut
alors déduire des caractères sur G à partir de ceux-ci, en les définissant comme
triviaux sur ha2 i. Ils sont irréductibles puisque de dimension 1.
(iii) On obtient la table de caractères suivante, où r parcourt J1, m − 1K et j
parcourt J1, n − 1K :
g 1 ar b ab
χ1 1 1 1 1
χ2 1 1 −1 −1
χ3 1 (−1)r 1 −1
χ4 1 (−1)r −1 1
ψj 2 εjr + ε−jr 0 0
Nous avons ainsi déterminé tous les caractères irréductibles de G.

Commentaires.
© Les représentations d’un groupe sont un moyen de réaliser le groupe comme un
groupe de matrices, et en particulier d’en tirer une intuition très géométrique. Les
représentations ρj considérées ici sont les représentations naturelles pour le groupe
diédral, défini comme le groupe des isométries d’un polygone régulier du plan. Il
est engendré par une rotation d’ordre n, qui est exactement l’isométrie associée à
la matrice Aj , et par la symétrie associée à la matrice B. Travailler formellement

51
10. Table des caractères des groupes diédraux

avec le groupe G se ramène donc à travailler avec un sous-groupe de matrices


donné par l’image ρj (G) par la représentation. On en déduit des propriétés sur le
groupe G en fonction des propriétés préservées par la représentation, par exemple
une représentation fidèle produit un groupe isomorphe à G : c’est le cas ici.
© Les représentations sont des objets a priori difficiles à saisir, puisque ce sont des
objets qui peuvent être de grandes dimensions. Construire toutes les représentations
d’un groupe donné n’est pas aisé, et une fois qu’elles sont classifiées il n’est
pas évident de décomposer une représentation donnée comme somme de sous-
représentations irréductibles. La théorie des caractères est un outil puissant et
pratique permettant de le faire : cette étude se ramène à celle d’un nombre
fini de quantités simples, à savoir les valeurs propres des actions. Les relations
d’orthogonalité ainsi que quelques caractères simples systématiquement présents
permettent de compléter la classification des caractères irréductibles, et donc des
représentations irréductibles.
© De nombreuses tables de caractères sont disponibles dans le livre très dé-
taillé [JL01], et pourrait inspirer d’autres développements ou de belles heures
d’étude. Cette théorie est assez systématique et requiert peu d’outils, la connais-
sance de quelques caractères faciles et les formules d’orthogonalité permettent
souvent de compléter l’essentiel de la table des caractères. La pratiquer sur quelques
exemples est un investissement utile permettant d’illustrer de nombreuses leçons
de théorie des groupes ainsi que d’algèbre linéaire.
© Le procédé utilisé aux questions b)(ii) et c)(ii) est un outil utile pour obtenir des
caractères d’un groupe à partir de la connaissance des caractères de certains de ses
quotients G/H, généralement appelé l’inflation. Si H est un sous-groupe distingué
de G, alors G/H est un groupe. Toute représentation de G/H s’étend alors en
une représentation de G en composant par la projection G → G/H → GL(V ),
et cette construction préserve l’irréductibilité. La représentation ainsi obtenue
ne dépend que des classes modulo H, son caractère est donc constant sur H et
cela donne un moyen d’obtenir des caractères supplémentaires. Ainsi, lorsqu’il est
possible d’obtenir des groupes quotients assez faciles, c’est une bonne stratégie.
Toutefois, cela ne fonctionne par toujours : ainsi pour les groupes symétriques Sn
qui n’admettent que le groupe alterné An comme sous-groupe distingué, cette
construction ne donne que la signature comme caractère non trivial. De manière
générale, cela n’apporte rien pour les groupes simples qui n’ont pas de sous-groupes
distingués non triviaux, et auxquels on peut ainsi se limiter.
© Il existe une construction générale permettant d’obtenir une représentation
de G à partir d’une représentation d’un sous-groupe quelconque H : il s’agit de
l’induction. On peut également exhiber une formule pour le caractère associé.
Voir par exemple [JL01] pour plus de détails sur ce procédé très puissant de la
théorie des représentations. Toutefois, l’induction ne préserve pas nécessairement
l’irréductibilité.

52
Groupes, actions et représentations

Questions.
1. Justifier que l’écriture des éléments de G sous la forme ar bs avec r, s ∈ Z est
unique.
2jπ
2. En notant θj = n , montrer que Aj est conjuguée à la matrice de rotation
!
cos θj − sin θj
.
sin θj cos θj

3. Montrer que le caractère χ2 obtenu en b)(iii) est le déterminant.


4. Démontrer la classification des classes de conjugaison de G.
5. Montrer que les sous-groupes considérés aux questions b)(ii) et c)(ii) sont
bien distingués dans G.
6. Généraliser le résultat de la question a)(ii) comme suit : si G est un groupe
fini et ρ : G → GL2 (C) une représentation telle que deux images ρ(g) et ρ(h) ne
commutent pas, alors ρ est irréductible.
7. Montrer que l’inflation de représentations décrite dans les commentaires et
utilisée aux questions b)(ii) et c)(ii) préserve l’irréductibilité.
8. Donner la table des caractères de S4 .
9. Si N est un sous-groupe distingué de G, montrer qu’il existe des caractères
irréductibles χ1 , . . . , χs de G tels que
s
\
N= Ker χi .
i=1

10. Trouver tous les caractères irréductibles de Z/4Z, et décomposer le caractère


régulier de Z/4Z comme combinaison linéaire de ces caractères irréductibles.

53
11. Théorème pa q b de Burnside

Développement 11 (Théorème pa q b de Burnside FFF)

a) Soit G un groupe fini. Soit χ un caractère complexe de G et g ∈ G.


(i) Montrer que |χ(g)/χ(1)| 6 1.
χ(g) χ(g)
(ii) Montrer que si 0 < χ(1) < 1, alors χ(1) n’est pas un entier algébrique.
|G|χ(g)
(iii) Montrer que pour χ irréductible, |CG (g)|χ(1) est un entier algébrique.
b) Soit p un nombre premier et a > 1 un entier. Supposons que G contienne
une classe de conjugaison de cardinal pa .
(i) Prouver que l’un des caractères χ de g est tel que χ(g) 6= 0 et p - χ(1).
(ii) Montrer que pour un tel caractère, |χ(g)/χ(1)| = 1.
(iii) En déduire que G n’est pas simple.
c) Prouver le théorème de Burnside :

Soient p, q des nombres premiers et a, b ∈ N tels que a + b > 2. Si


le groupe G est d’ordre pa q b alors G n’est pas simple.

Leçons concernées : 101, 103, 104, 107, 144


Ce développement est l’occasion d’utiliser la théorie des actions de groupes et des
caractères pour étudier la structure des groupes finis. L’un des premiers produits
non-triviaux de cette théorie est le théorème de Burnside, présenté ici.
La preuve de ce théorème utilise de nombreux arguments classiques de la théorie
des actions de groupes, des groupes de Sylow et des raisonnements sur les nombres
algébriques. Les relations d’orthogonalité des caractères et la formule des classes
sont les deux ingrédients principaux. Certains prérequis non triviaux sont rappelés
dans les commentaires ou au cours du corrigé.
Ce développement est une succession d’arguments élémentaires et classiques, et est
donc pertinent pour illustrer les leçons centrées sur les actions de groupes et les
représentations de groupes (101, 103, 104, 107) sans avoir à assimiler de théorie
trop spécialisée. La forte utilisation d’arguments d’intégralité en fait également
une illustration pour la leçon sur les zéros de polynômes (144) dans le cas où elle
intègre une partie sur les anneaux d’entiers de corps de nombres ainsi que sur les
nombres algébriques.
Correction.
a) (i) Nous allons prouver que χ(g) est une somme de χ(1) racines de l’unité.
Considérons le sous-groupe cyclique hgi engendré par g et notons n son ordre.
Soit π la restriction à hgi de la représentation de G dont χ est le caractère,
et Vπ l’espace de la représentation π. Le théorème de Maschke assure que π est
totalement réductible, c’est-à-dire que Vπ se décompose comme somme directe
k
M
Vπ = Ui ,
i=1

54
Groupes, actions et représentations

où les Ui sont des espaces de sous-représentations irréductibles de π et k > 1.


Puisque hgi est un groupe abélien, les Ui sont de dimension 1. Puisque π(g) stabilise
chacune de ces droites, il agit comme une homothétie : pour tout i ∈ J1, kK, il
existe un scalaire ωi ∈ C tel que

∀x ∈ Ui , π(g)x = ωi x.

Or, g étant d’ordre n, π(g) est également d’ordre divisant n, de sorte que les ωi
sont des racines n-ièmes de l’unité. On obtient ainsi une base de diagonalisation
de π(g) dont les valeurs propres associées sont des racines de l’unité. Puisque la
dimension de Vπ est égale à χ(1) et que les Ui sont de dimension 1, on en déduit
que dimVπ = k = χ(1). On obtient que la trace de π(g), c’est-à-dire χ(g) par
définition, est la somme des valeurs propres de π(g), donc une somme de χ(1)
racines de l’unité. Puisque les racines de l’unité sont de module 1, l’inégalité
triangulaire permet de conclure.
(ii) Supposons que x = χ(g)/χ(1) est un entier algébrique et que 0 < χ(g)
χ(1) < 1.
Montrons qu’alors χ(g) = 0, ce qui est contradictoire. Soit P le polynôme minimal
de x, écrit sous la forme

P = X n + an−1 X n−1 + · · · + a1 X + a0 ∈ Z[X].

Les conjugués de χ(g), c’est-à-dire les autres racines de P dans C, s’écrivent


également comme somme de χ(1) racines de l’unité. En divisant par χ(1), les
conjugués de x sont donc également de modules inférieurs à 1. Puisqu’on a
supposé que |x| < 1, le produit des conjugués de x, y compris x, est de module
strictement inférieur à 1. Mais ce produit est exactement le produit des racines,
c’est-à-dire ±a0 . Puisqu’il s’agit d’un entier de module strictement inférieur à 1,
il vient que a0 = 0. Or P est irréductible, on doit donc avoir P = X, c’est-à-dire
que x = 0.
(iii) Soit π la représentation attachée à χ et Vπ l’espace de π. Soit C la classe
de conjugaison de g dans G. Introduisons
X
π(C) = π(h) ∈ GL(Vπ ). (1)
h∈C

C’est un élément qui commute avec tous les π(x) pour x ∈ G, donc par le lemme
de Schur, il existe un scalaire λ ∈ C tel que π(C) = λId sur Vπ .
En prenant la trace de cette égalité, puisque χ ne dépend que de la classe de
conjugaison de g, il vient λχ(1) = |C|χ(g). De plus |C| = |G/CG (g)|, de sorte que
la quantité λ = |C|G|χ(g)
G (g)|χ(1)
est celle recherchée.
Il reste à montrer que λ est algébrique. Par ce qui précède, λ est une valeur propre
de π(C). Introduisons h1 , . . . , hn les éléments de G, et les coefficients aij ∈ {0, 1}
tels que
r
X
π(hi )π(C) = aij π(hj ). (2)
j=1

55
11. Théorème pa q b de Burnside

Puisque λ est valeur propre de π(C), il est valeur propre de la matrice A = (aij )i,j
qui est à coefficients entiers. Il est donc racine du polynôme det(A − XIn ) qui est
à coefficients entiers. On conclut donc que λ est algébrique.
b) Soit g ∈ G. Notons G · g sa classe de conjugaison, et supposons |G · g| = pa > 1.
(i) La classe de conjugaison de g n’est pas trivialement réduite à g par hypothèse,
donc G n’est pas abélien et g =6 1. Notons χ1 , . . . , χk les caractères irréductibles
de G avec χ1 = 1. Les relations d’orthogonalité énoncent que
k
X
1+ χi (g)χi (1) = 0.
i=2

En particulier en divisant par p, on a


k
1 X χi (1)
− = χi (g) . (3)
p i=2 p

Supposons que chaque χi (1)/p est un entier algébrique si χi (g) est non nul.
Les χi (g) sont des entiers algébriques comme sommes de racines de l’unité. Comme
les entiers algébriques forment un anneau, on déduirait que 1/p est un entier
algébrique par l’équation (3). En particulier, puisqu’il est rationnel, il devrait être
entier, ce qui est une contradiction. Ainsi, l’un des χi (1)/p n’est pas un entier
algébrique, pour un i tel que χi (g) est non nul. En particulier, il existe un i tel
que p - χi (1) et χi (g) 6= 0, comme voulu.
(ii) La question précédente implique que |G · g| = pa et χ(1) sont premiers entre
eux. Il existe donc par l’identité de Bézout des entiers u et v tels que

u|G · g| + vχ(1) = 1.

En multipliant cette identité par χ(g)/χ(1), il vient

|G| χ(g) χ(g)


u + vχ(g) = . (4)
|CG (g)| χ(1) χ(1)

Par la question a)(i), on sait que χ(g) est un entier algébrique comme somme
de racines de l’unité. Par la question b)(i), |G|χ(g)/|CG (g)|χ(1) est un entier
algébrique. Ainsi, le membre de gauche de (4) est un entier algébrique, et il est
non nul puisque χ(g) 6= 0. On obtient alors que χ(g)/χ(1) est un entier algébrique
non nul, et par suite la question a)(ii) assure que |χ(g)/χ(1)| = 1.
(iii) Soit π une représentation de G de caractère χ. Puisque |χ(g)| = χ(1) par
la question précédente, le cas d’égalité de l’inégalité triangulaire implique qu’il
existe un scalaire λ ∈ C tel que toutes les valeurs propres de π(g) sont égales à λ
et donc tel que π(g) = λId. Soit K = Ker(π) ; c’est un sous-groupe distingué de G
comme noyau de morphisme de groupes. Puisque χ n’est pas trivial, π n’est pas
trivial et donc K 6= G. Si K 6= {1}, alors G n’est pas simple car K est distingué.
Supposons alors K = {1}. Dans ce cas, π est une représentation fidèle. Or π(g)
est une homothétie, donc commute avec tous les autres π(h) pour h ∈ G. Puisque

56
Groupes, actions et représentations

la représentation est fidèle cela implique que g commute avec tous les h ∈ G,
autrement dit on a g ∈ Z(G). Ainsi, le centre Z(G) de G n’est pas trivial, et
puisque c’est un sous-groupe distingué de G il vient que G n’est pas simple. Ainsi,
dans tous les cas nous avons prouvé que G n’est pas simple.
c) Supposons que a ou b est nul. Dans ce cas, l’ordre de G est puissance d’un
nombre premier donc son centre n’est pas trivial. Soit g ∈ Z(G) d’ordre premier,
qui existe par les théorèmes de Sylow. Le groupe hgi est alors distingué dans G et
non trivial, donc G n’est pas simple.
Supposons a > 1 et b > 1. Par les théorèmes de Sylow, il existe un sous-groupe H
de G d’ordre q b . Le même argument que précédemment implique que Z(H) 6= {1}.
Soit alors g ∈ Z(H)\{1}. On a que H est un sous-groupe de CG (g), en particulier
il existe un certain 0 6 u 6 b tel que la classe de conjugaison de g vérifie

|G · g| = |G/CG (g)| = pu .

Soit u = 0 et alors g ∈ Z(G), de sorte que G n’est pas simple comme précédemment.
Soit u > 1, et G contient la classe de conjugaison de g qui est de cardinal pu > 1.
La question précédente implique alors que G n’est pas simple, terminant la preuve.

Commentaires.
© Ce développement est très modulable quant à son contenu de sorte à se concen-
trer sur les propriétés des caractères, ou au contraire sur les propriétés des groupes
ou des entiers algébriques. Des résultats tels ceux des questions a)(i) ou b)(i)
peuvent être admis et intégrés au plan.
© La question a)(i), bien que classique, regorge de propriétés sur les caractères,
les représentations et la réduction des endomorphismes. Une version présentée en
détails de ce résultat pourrait constituer un développement de niveau F.
© Ce développement utilise le langage des actions de groupes qui admet plusieurs
conventions et formalismes. Ici, l’action considérée est souvent celle de G agissant
sur lui-même par conjugaison. On note ainsi G · g la classe de conjugaison de
g ∈ G et CG (g) son stabilisateur, appelé le centralisateur dans le cas de l’action
par conjugaison.
© La question a)(ii) utilise un résultat non trivial sur les conjugués au sens de
la théorie algébrique des nombres. Si un nombre x est algébrique, alors il est
racine d’un polynôme à coefficients entiers, et admet en particulier un polynôme
minimal P . Les conjugués de x sont alors les autres racines de P . Le résultat
utilisé est le lemme suivant :
Si x et y sont des nombres algébriques, les conjugués de x + y sont de
la forme x0 + y 0 où x0 (resp. y 0 ) est un conjugué de x (resp. y).

Ce résultat est évidemment immédiat avec des idées élémentaires de la théorie de


Galois : les conjugués sont les images par les Q-automorphismes, rendant l’énoncé
essentiellement évident.

57
11. Théorème pa q b de Burnside

© Un des grands enjeux des mathématiques du XXe siècle a été la classification des
groupes finis. Si un groupe G n’est pas simple, il admet un sous-groupe distingué
non trivial H, de sorte que l’étude du groupe se réduit à celle des deux groupes
plus petits H et G/H. Ainsi, le problème se réduit essentiellement à comprendre
les groupes simples, et le résultat de Burnside énonce qu’il n’y a pas de groupe
simple de cardinal pa q b avec a + b > 2.
© Toutes les représentations considérées dans ce développement sont des repré-
sentations sur un C-espace vectoriel. L’usage est généralement de confondre la
représentation π et l’espace Vπ sur lequel la représentation agit, de manière à
alléger les notations. Nous avons ici opté pour conserver la distinction entre les
deux objets, mais il est évident que le lecteur averti peut faire la confusion en
conservant à l’esprit la signification de ce qu’il fait. De même pour la notation
des représentations comme C[G]-modules, où gv est la notation choisie pour
g · v = π(g)v.
© L’un des résultats élémentaires majeurs de la théorie des représentations est le
lemme de Schur, utilisé dans ce développement. Puisque ce résultat n’est pas au
programme officiel de l’agrégation, nous le rappelons ici, bien qu’il ait une place
naturelle dans toute leçon traitant de théorie des représentations :

Soient π et π 0 deux représentations irréductibles d’un groupe G. Consi-


dérons φ : Vπ → Vπ0 un morphisme de représentations (ou : opérateur
d’entrelacement), autrement dit vérifiant :

∀g ∈ G, ∀v ∈ Vπ , φ(π(g)v) = π 0 (g)φ(v).

Alors soit φ = 0, soit φ est un isomorphisme. De plus, si Vπ = Vπ0 sont


des C-espaces vectoriels, alors φ est une homothétie.

Le lemme de Schur a de nombreuses applications et demeure au centre de beaucoup


d’arguments en théorie des représentations. Par exemple, si π est une représen-
tation linéaire irréductible sur un K-espace vectoriel V , alors l’ensemble C(V )
des opérateurs d’entrelacements V → V est une algèbre à division. Ces dernières
laissent peu de possibilités : si K = C, alors V = C retrouvant les homothéties
citées dans le lemme de Schur ; si K = R, alors C(V ) = R, C ou H, l’algèbre des
quaternions de Hamilton (voir Développement 27).
© On peut déduire des arguments menant à la preuve du théorème de Burnside
le théorème plus précis suivant :

Tout groupe d’ordre pa q b est résoluble.

Le résultat se prouve par récurrence sur a + b. Le cas a + b 6 1 est immédiat. Si


a+b > 2 et G est un groupe d’ordre pa q b , les arguments du développement prouvent
que G n’est pas simple, autrement dit il admet un sous-groupe distingué H non
trivial. Les deux groupes H et G/H sont alors de cardinal de la forme pα q β avec
α + β < a + b, l’hypothèse de récurrence affirme donc qu’ils sont résolubles. Il

58
Groupes, actions et représentations

existe donc deux suites de résolubilité

{1} / G1 / · · · Gs = H
{1} = Gs /H / Gs+1 /H / · · · / Gr /H = G/H

où tous les quotients Gi /Gi−1 sont cycliques d’ordre premier. Alors on peut
composer les séries de résolubilité pour obtenir la série de résolubilité de G

{1} / G1 / · · · / Gr = G.

Questions.
Soit G un groupe fini, et χ un caractère irréductible de G.
1. Montrer que si |χ(g)| = χ(1) alors π(g) est une homothétie.
2. Justifier pourquoi π(C) = λId à partir du lemme de Schur.
3. Expliquer pourquoi les coefficients aij dans a)(iii) sont parmi 0 ou 1.
4. Expliciter un vecteur propre considéré pour la matrice A en a)(iii).
5. Justifier l’identité (2).
6. Si G est de cardinal la puissance d’un nombre premier, montrer que Z(G) 6= {1}.
7. Dans un p-groupe non trivial, existe-t-il toujours un élément d’ordre premier ?
8. Rappeler pourquoi les entiers algébriques sur un corps forment un anneau.
9. Si x et y sont deux nombres algébriques, montrer que les conjugués de x + y
sont les nombres de la forme x0 + y 0 où x0 est un conjugué de x et y 0 est un
conjugué de y.
10. Prouver le lemme de Schur rappelé en commentaires.
11. Montrer que si G est abélien, alors ses représentations sont des caractères.
12. Montrer que l’élément π(C) défini en (1) commute avec π(g), pour tout g ∈ G.
13. Montrer qu’un entier algébrique qui est de plus un nombre rationnel est entier.

59
Anneaux, corps et
théorie des nombres

L’arithmétique est la branche des mathématiques qui s’intéresse à la structure de


l’ensemble des nombres entiers (Développements 22, 24) ainsi qu’à ses irréductibles,
les nombres premiers. La théorie des nombres peut être vue comme la recherche de
structures arithmétiques dans le cadre des anneaux et des corps quelconques : elle
a pour objet l’étude des corps de nombres, c’est-à-dire des extensions finies de Q,
et de leurs propriétés (Dév. 23, 25). L’étude des polynômes bénéficie également de
propriétés arithmétiques très proches de celles des nombres entiers (Dév. 12, 14).
Jusqu’au XXe siècle, la théorie des nombres est restée exclusivement dans le
domaine des mathématiques fondamentales, sans guère admettre d’application
concrète. Toutefois, l’avènement des ordinateurs et des télécommunications a révélé
de nombreuses applications cruciales de ces idées, notamment en cryptographie et
en compression de données.
La théorie des anneaux émerge dès les années 1870, dans le cadre de l’étude
des polynômes et des entiers algébriques (Dév. 15), lorsque Dedekind essaie de
formaliser les propriétés d’ensembles apparaissant en théorie des nombres. Les
notions d’anneau et de corps sont une extension de la notion de groupe : une
multiplication associative est adjointe à l’addition et s’entrelace avec elle par
une propriété de distributivité. Les questions multiplicatives se posent avant tout
avec la recherche et l’utilisation des idéaux (Dév. 16), analogues des sous-groupes
distingués en théorie des groupes, qui permettent de « dévisser » les anneaux. Les
corps, caractérisés par l’existence d’un inverse de tout élément non nul pour la
multiplication, ont une structure beaucoup plus forte que les anneaux et leur sont
préférés dans de nombreux domaines : polynômes, espaces vectoriels et formes
quadratiques (Dév. 13) vérifient de nombreux résultats très forts lorsqu’ils sont
considérés sur des corps, qui tombent toutefois en défaut sur les anneaux plus
généraux.
La théorie de Galois (Dév. 21) est au cœur de l’étude des corps, dans laquelle elle
permet de remplacer l’étude d’une extension de corps par celle du groupe de ses
automorphismes (Dév. 18, 17, 19). Sans aller très loin dans cette direction, il est
intéressant de comprendre que cette approche découle du même changement de
point de vue que celui opéré en théorie des groupes ou en géométrie et participe
de l’idée simple selon laquelle les morphismes sont plus importants que les points.
Anneaux, corps et théorie des nombres

Développement 12 (Théorème de Cohn F)

Soit P ∈ Z[X] un polynôme non constant écrit sous la forme

P = am X m + · · · + a1 X + a0 , m > 1, a0 , . . . , am ∈ Z.

Considérons une racine α ∈ C de P .


a) Soit H = max 06i<m |ai /am |.
(i) Montrer que |α| < H + 1.
(ii) Montrer que si P (n) est premier pour un entier n > H + 2, alors le
polynôme P est irréductible dans Z[X].
b) Supposons que les coefficients de P vérifient : am > 1, am−1 > 0 et qu’il
existe M > 0 tel que |ai | 6 M pour tout i 6 m − 2.
(i) Montrer que les racines de P vérifient l’une des conditions

1 + 1 + 4M
Re(α) 6 0 ou |α| < ρM = .
2

(ii) Supposons qu’il existe un nombre premier p et un entier b > 2 tels que
le développement en base b de p est donné par

p = am bm + · · · + a1 b + a0 = P (b), a0 , . . . , am ∈ J0, b − 1K .

Montrer que le polynôme P est irréductible dans Z[X].


c) Supposons que les coefficients de P sont dans {0, 1}.
(i) Montrer que les racines de P vérifient l’une des conditions

1+ 5
Re(α) 6 √ ou |α| < 3/2.
2 2

(ii) Supposons qu’il existe un nombre premier p dont le développement


dyadique, i.e. en base 2, est donné par

p = am 2m + · · · + a1 2 + a0 = P (2), a0 , . . . , am ∈ {0, 1}.

Montrer que le polynôme P est irréductible sur Z[X].

Leçons concernées : 121, 141, 144


Ce développement se propose de montrer le théorème de Cohn :
Soit b > 2. Si p est un nombre premier dont la décomposition en base b
est p = am bm + · · · + a1 b + a0 , alors le polynôme donné par les mêmes
coefficients P = am X m + · · · a1 X + a0 est irréductible dans Z[X].
Les méthodes utilisées dans ce développement sont élémentaires mais typiques

63
12. Théorème de Cohn

de nombreux raisonnements sur les polynômes. Quelques informations sur les


coefficients permettent déjà d’imposer des contraintes fortes sur les zéros. C’est
un atout important lorsque l’on cherche à approcher numériquement de tels zéros,
par exemple pour déterminer les valeurs propres d’une matrice.
Ce développement s’intègre naturellement aux leçons sur les polynômes (141) et
leurs racines (144). L’intrication des propriétés d’irréductibilité sur un anneau
de polynômes et de primalité sur un anneau d’entiers en font une illustration
originale de la leçon sur les nombres premiers (121), n’utilisant que la définition
même de la primalité et de l’irréductibilité, mettant en parallèle les structures
arithmétiques de Z et de Z[X].
Correction.
a) (i) Puisque α est une racine de P , on peut reformuler P (α) = 0 en

−am αm = am−1 αm−1 + · · · + a1 α + a0 ,

de sorte que, en divisant par le coefficient dominant non nul am , en utilisant la


définition de H et en sommant des termes en progression géométrique, on obtient
|α|m − 1
|α|m 6 H(|α|m−1 + · · · + |α| + 1) = H .
|α| − 1

Dans le cas où H = 0, alors P = am X m et α = 0 vérifie bien |α| < H + 1, si


bien que l’on peut désormais supposer que H = 6 0. Si 0 < |α| 6 1 et H 6= 0, on
a toujours |α| < H + 1. Si |α| > 1, on peut multiplier par |α| − 1 > 0 l’inégalité
précédente pour obtenir

|α|m+1 − |α|m < H|α|m ,

ce qui donne |α| < H + 1, finissant de prouver l’inégalité pour tous les cas.
(ii) Supposons que P soit réductible dans Z[X]. Cela signifie qu’il existe deux
polynômes non constants A, B ∈ Z[X] tels que P = AB. En évaluant cette égalité
en n, puisque P (n) est premier, on en déduit que A(n) ou B(n) est égal à ±1.
Quitte à échanger A et B, on peut supposer que A(n) = ±1. Puisque A est scindé
dans C[X], on peut écrire
k
Y
A=a (X − αi ), (1)
i=1

où a ∈ Z est le coefficient dominant de A, k > 1 son degré et les αi ses racines


complexes. Notons ai les coefficients de A. Puisque les αi sont également racines
de P = AB, la question précédente garantit que |αi | < H + 1 pour tout i 6 k.
Ainsi, par l’inégalité triangulaire et puisque n > H + 2,
k
Y k
Y
|A(n)| > (n − |αi |) > (n − H − 1) > 1.
i=1 i=1

Puisque A(n) = ±1, ce n’est pas possible. On en déduit que P est irréductible
dans Z[X].

64
Anneaux, corps et théorie des nombres

b) (i) De deux choses l’une : soit Re(α) 6 0, soit Re(α) > 0. Si Re(α) 6 0, l’une
des conditions voulues est déjà satisfaite. Considérons désormais le cas Re(α) > 0.
Considérons deux cas possibles.
• Soit |α| 6 1, et il est clair que |α| < ρH .
• Soit |α| > 1. Dans ce cas, pour tout z ∈ C tel que |z| > 1 et Re(z) > 0, on peut
utiliser l’inégalité triangulaire et les hypothèses faites sur am et am−1 pour écrire

P (z) am−1 a0
m
= am + + ··· + m
z z z
am−1 1 1
 
> am + −M + · · · +
z |z|2 |z|m
+∞
am−1
|z|−k
X
> am + −M
z k=2
am−1 M
 
> Re am + − 2
z |z| − |z|
P (z) M |z|2 − |z| − M
> 1 − = . (2)
zm |z|2 − |z| |z|2 − |z|

En particulier on peut remplacer z par la racine α dans (2), de sorte que

|α|2 − |α| − M
< 0.
|α|2 − |α|

Le dénominateur de cette fraction est positif car |α| > 1, donc le numérateur est
nécessairement négatif. Ainsi le module de α est situé entre les deux racines du
polynôme X 2 − X − M . La plus grande de ces racines est ρH , par conséquent on
a |α| < ρH .
(ii) Supposons que P est réductible dans Z[X]. Il existe donc A, B ∈ Z[X] non
constants tels que P = AB. Puisque P (b) = A(b)B(b) est premier, A(b) ou B(b)
est égal à ±1 et, quitte à permuter A et B, on peut supposer que A(b) = ±1. Par
définition de la décomposition en base b, chaque coefficient ai est entre 0 et b − 1,
si bien que l’on peut appliquer le résultat de la question b)(i) avec M = b − 1 :
les zéros de P sont soit de partie réelle négative, soit de valeur absolue inférieure
à ρb−1 .
Si pour une telle racine α, on est dans le cas Re(α) 6 0, alors on peut écrire les
minorations |b − α| > Re(b − α) = b − Re(α) > b > 1. Sinon, |α| 6 ρb−1 par la
question b)(i) On vérifie alors que
p
1+ 1 + 4(b − 1)
|α| < 6 b − 1.
2

En particulier, on a |b − α| > b − |α| > 1. Ainsi, pour tout zéro α de A, |b − α| > 1.


En décomposant A en produit de polynômes du premier degré dans C[X] comme
en (1), on obtient alors que |A(b)| > 1, contrairement au fait que A(b) = ±1.
Ainsi, P est irréductible dans Z.

65
12. Théorème de Cohn

c) (i) Essayons de trouver une condition nécessaire et suffisante pour que



1+ 5
Re(α) 6 √ . (3)
2 2

Par la question b)(i), on a |α| < 1+2 5 . Mettons de côté le cas trivial α = 0, et
supposons donc α 6= 0. La détermination principale de l’argument est à valeurs
dans ] − π, π] et on a alors Re(α) = |α| cos(arg(α)). Il est clair que (3) est vérifiée
lorsque le cosinus est négatif. Considérons le cas du cosinus positif, de sorte que (3)
est équivalente à cos(arg(α)) 6 √12 par la question b)(i). Ainsi, (3) est vérifiée si,
et seulement si, α = 0 ou vérifie arg(α) ∈] − π, − π4 ] ∪ [ π4 , π].
Supposons désormais que (3) n’est pas vérifiée, autrement dit que |arg(α)| < π4
par ce qui précède. Le polynôme P s’écrit P = X m + am−1 X m−1 + · · · + a0 , avec
ai ∈ {0, 1} pour tout i ∈ J1, mK. Si m = 1, l’unique zéro de P est 0 ou −1, qui
est donc bien dans la boule ouverte de centre 0 et de rayon 3/2. Pour m = 2, les
zéros sont parmi 0, −1, i, −i, j et j 2 qui sont également dans la boule ouverte de
centre 0 et de rayon 3/2.
On considère maintenant que m > 3. Pour z 6= 0, on a
P (z) am−1 am−2 a0
m
= 1+ + 2 + ··· m
z z z z
am−1 am−2 1 1
 
> 1+ + 2 − + · · · .
z z |z|3 |z|m

Nous avons supposé que |arg(α)| < π/4, donc Re( α1 ) > 0 et Re( α12 ) > 0, de sorte
que, en remplaçant z par la racine α dans ce qui précède, on obtient
P (α) 1 |α|3 − |α|2 − 1
0= > 1 − = .
αm |α|2 (|α| − 1) |α|2 (|α| − 1)
Le numérateur et le dénominateur de la fraction ci-avant sont donc de signes
opposés. Une étude de fonction prouve que le polynôme X 3 − X 2 − 1 admet une
unique racine réelle, qui est positive et inférieure à 3/2. Ainsi, compte tenu du
signe du terme dominant, on en déduit que |α| < 3/2.
(ii) Supposons qu’il existe A, B ∈ Z[X] non constants tels que P = AB.
Puisque P (2) est premier, quitte à permuter A et B, on peut supposer que
|A(2)| = 1. Soit v > 0 tel que Re(α) < v. En notant d > 1 le degré de A, on a
m
Y
A(X + v) = c (X + v − αi ), où α1 , . . . , αm ∈ C.
i=1

Soit i ∈ J1, mK. Il y a deux possibilités pour αi :


• Soit αi est réel, auquel cas X + v − αi est un polynôme à coefficients positifs.
• Soit αi est complexe non réel et, puisque A est un polynôme à coefficients
réels, la racine conjuguée αi est également parmi les αj . Parmi les facteurs de
A se trouve alors
(X + v − αi )(X + v − αi ) = X 2 + 2Re(v − αi )X + |v − αi |2 ,

66
Anneaux, corps et théorie des nombres

qui est également à coefficients positifs. Ainsi, A(X + v) est un polynôme à


coefficients positifs.
En remplaçant X par −X, il vient que A(−X + v) est un polynôme ayant les
mêmes coefficients mais avec des signes alternés. Ainsi, pour tout x > 0, on en
tire que ±A(−x + v) < A(x + v), c’est-à-dire |A(−x + v)| < A(x + v). Si v < 2, en
évaluant l’inégalité précédente avec x = 2 − v, il vient |A(−2 + 2v)| < |A(2)| = 1.
Par la question précédente, √ v = 3/2 est admissible, en particulier on peut
√ la valeur
prendre v = 3/2 > (1 + 5)/2 2, de sorte que l’on obtient |A(2)| > |A(1)| > 1
(pour les mêmes raisons qu’en b)(ii), avec b = 2), en contradiction avec le fait
que |A(2)| = 1.
Ainsi, P est irréductible dans Z[X].
Commentaires.
© La structure arithmétique des nombres entiers est similaire à celle des poly-
nômes : Z et Z[X] sont deux anneaux euclidiens. Cette analogie est la source
de nombreuses conjectures reliant polynômes irréductibles et nombres premiers.
L’une des conjectures centrales en ces terres est celle de Buniakowski, qui énonce
que tout polynôme entier P tel que les éléments de P (N) n’admettent pas de
diviseur commun non trivial prend une infinité de fois une valeur égale à un
nombre premier. Cette conjecture demeure l’un des défis actuels de la théorie des
nombres.
© Le théorème présenté dans ce développement est dû à Cohn, et dans sa for-
mulation originale énonce qu’un polynôme dont les coefficients sont les chiffres
d’un nombre premier (écrit en base 10) est un polynôme irréductible dans Z[X].
Ce résultat a par la suite été généralisé à toute base par Brillhart, Filaseta et
Odlyzko. La preuve présentée dans ce développement est une version moderne
proposée par Murty [Mur02].
© Le critère d’irréductibilité donné à la question a)(ii) est optimal, dans le sens
où le polynôme P = X 3 − 9X 2 + X − 9 est réductible en (X − 9)(X 2 + 1), ses
coefficients sont de valeur absolue bornée par 9, et pourtant P (10) est premier.
© La dichotomie des cas |α| 6 1 et |α| > 1 est souvent présente dans les exercices
de localisation des racines de polynômes, et est naturelle. En effet, la prépondérance
dans l’évaluation du polynôme est donnée au terme du plus petit ordre ou du plus
grand ordre en fonction de la situation.
© L’essentiel des preuves reposent sur la qualité de la localisation des zéros d’un
polynôme non constant à coefficients complexes, en fonction de la taille de ses
coefficients. La question a) prouve un résultat dû à Cauchy : connaître la taille des
coefficients d’un polynôme permet de contrôler la localisation de ses racines. Cela
permet déjà d’obtenir des résultats intéressants, comme l’illustre la question a)(ii).
Les questions b) et c) constituent un raffinement de cette borne lorsque certaines
propriétés supplémentaires sur les coefficients sont connues. Il est possible de
moduler le développement en fonction des envies, notamment en faisant l’impasse
sur la première question, en mentionnant le critère d’irréductibilité dans le plan,
ou encore en ne traitant pas le cas b = 2.

67
12. Théorème de Cohn

© Un autre résultat classique dans cette direction est le théorème de Gauss-Lucas :


les racines complexes d’un polynôme dérivé P 0 d’un polynôme P à coefficients
complexes sont situées dans l’enveloppe convexe des racines de P . Le théorème de
Rouché en analyse complexe est également un outil souvent exploité pour obtenir
des informations sur la localisation des racines de polynômes.

Questions.
1. Détailler les études de fonctions mentionnées aux questions b)(i) et c)(i).
2. Pourquoi le raisonnement utilisé pour b > 3 ne s’applique-t-il plus pour b = 2 ?
3. Montrer que la réciproque à la conjecture de Buniakowski est vraie. Autrement
dit, montrer que si un polynôme P ∈ Z[X] prend une infinité de fois une valeur
première, alors P est irréductible.
4. Rappeler la preuve du lemme de Gauss : un polynôme unitaire de Z[X] est
irréductible dans Q[X] si, et seulement si, il est irréductible dans Z[X]. Cette
propriété est plus généralement vraie pour les polynômes primitifs, i.e. dont le
plus grand commun diviseur de ses coefficients vaut 1. Donner un contre-exemple
dans le cas où le polynôme n’est pas primitif.
5. Montrer que (X − 1)(X − 2) · · · (X − n) − 1 est irréductible dans Z[X].
6. Soit P ∈ C[X]. Montrer que les racines de P 0 sont contenues dans l’enveloppe
convexe des racines de P (théorème de Gauss-Lucas).
Indication : on pourra considérer la dérivée logarithmique P 0 /P , et l’évaluer en
une racine de P 0 qui n’est pas racine de P .

68
Anneaux, corps et théorie des nombres

Développement 13 (Lemme de Hensel F)

a) Considérons un polynôme P ∈ Z[X].


(i) Soit a ∈ Z. Montrer qu’il existe Q ∈ Z[X] tel que

P (X + a) = P (a) + P 0 (a)X + Q(X)X 2 .

(ii) Soient a, b ∈ Z et un nombre premier p. Montrer que

∀k > 1, P (a + bpk ) ≡ P (a) + P 0 (a)bpk mod pk+1 .

b) En déduire le lemme de Hensel :

Soit P ∈ Z[X]. S’il existe x ∈ Z tel que

P (x) ≡ 0 mod p et P 0 (x) 6≡ 0 mod p, (1)

alors pour tout k > 1, il existe xk ∈ Z tel que

P (xk ) ≡ 0 mod pk et xk ≡ x mod p.

Leçons concernées : 120, 121, 126, 144

Le lemme de Hensel est un des résultats centraux de l’analyse p-adique. Ce


développement en propose une preuve dans le langage classique de l’arithmétique
modulaire. Il s’agit, connaissant la solution d’une équation polynomiale modulo p,
d’en tirer récursivement des solutions de l’équation modulo pk pour tout k > 1.
Cela en fait une illustration de la leçon sur les équations en arithmétique (126)
ainsi que sur celle des racines de polynômes (144). Les méthodes sont celles
de l’arithmétique modulaire et reposent fortement sur le fait que p soit premier,
rendant le développement adéquat pour les leçons 120 et 121.

Correction.
a) On souhaite prouver que X 2 divise le polynôme P (X +a)−P (a)−P 0 (a)X (cette
quantité peut être interprétée comme l’erreur dans la première approximation
affine de P ). Par linéarité en P de cette expression, il suffit de le prouver le
résultat pour les monômes X n pour n > 1. On a alors par la formule du binôme
de Newton, pour tout n > 1 et P = X n ,

P (X + a) − P (a) − P 0 (a)X = (X + a)n − an − nan−1 X


n n
! !
X n X n
= X k an−k − an − nan−1 X = X k an−k ,
k=0
k k=2
k

69
13. Lemme de Hensel

et cette quantité est divisible par X 2 puisque que chacun de ses termes l’est. On
obtient ainsi le résultat voulu.
b) Par la question précédente, il existe un polynôme Q ∈ Z[X] tel que

P (X + a) − P (a) − P 0 (a)X = X 2 Q(X).

En substituant X par bpk , pour un k > 1, il vient

P (a + bpk ) = P (a) + P 0 (a)bpk + Q(bpk )b2 p2k


≡ P (a) + P 0 (a)bpk mod pk+1 .

c) On raisonne par récurrence sur k > 1. Le cas k = 1 est l’hypothèse (1).


Supposons la propriété vraie pour k > 1 et prouvons-la au rang k + 1. Il existe
donc, par l’hypothèse de récurrence, xk ∈ Z tel que

P (xk ) ≡ 0 mod pk et xk ≡ x mod p.

On peut alors écrire P (xk ) = apk pour un certain entier a ∈ Z. Si p | a, alors on a


déjà la congruence P (xk ) ≡ 0 mod pk+1 et cela suffit pour avoir la propriété de
récurrence au rang k + 1 en posant xk+1 = xk .
Supposons désormais p - a. On parcourt la classe de xk modulo pk de sorte à
trouver des candidats pour xk+1 . Autrement dit on considère un élément de la
forme xk+1 = xk + tpk pour un t entier. Il reste à déterminer un tel t de sorte que
P (xk+1 ) ≡ 0 mod pk+1 .
Par les questions précédentes,

P (xk + tpk ) ≡ P (xk ) + P 0 (xk )tpk ≡ (a + tP 0 (xk ))pk mod pk+1 .

On peut alors choisir t qui annule le membre de droite puisque p - P 0 (xk ).


Plus explicitement, P 0 (xk ) est inversible dans Z/pZ, on peut donc choisir t =
−aP 0 (xk )−1 où P 0 (xk )−1 désigne l’inverse dans Z/pZ, et t convient alors. Ceci
achève la récurrence et la preuve du lemme de Hensel.

Commentaires.
© L’un des grands thèmes de l’arithmétique et de la théorie des nombres est
l’étude des équations diophantiennes. Un outil puissant pour leur étude est la
possibilité de les étudier modulo les puissances de nombres premiers pk et, en
s’autorisant des puissances tendant vers l’infini, dans les nombres p-adiques Qp ,
voir Développement 23. L’espoir est de pouvoir en tirer des informations sur les
solutions globales, dans Z ou Q. Un résultat dans cette direction est le principe
de Hasse, qui est un principe local-global pour les équations diophantiennes
polynomiales de degré deux :

Soit P ∈ Z[X1 , . . . , Xn ] de degré 2. Alors P admet une racine sur Q


si, et seulement si, il admet des racines dans tous les Qp et dans R.

70
Anneaux, corps et théorie des nombres

© Toutefois, ce principe cesse d’être vérifié pour les degrés supérieurs. Déjà pour
le degré trois (le problème est alors celui de trouver les points rationnels d’une
courbe elliptique), certaines équations admettent des solutions locales, modulo
tout pk , et des solutions réelles, mais aucune solution rationnelle. C’est le cas par
exemple pour l’équation de Selmer,

3x3 + 4y 3 + 5z 3 = 0.

Le lemme de Hensel permet justement de construire des solutions non-triviales


de l’équation de Selmer modulo tout pk , autrement dit dans les corps p-adiques.
Toutefois, cette équation n’admet pas de solution rationnelle non-triviale.
© Le lemme de Hensel connait de nombreuses variations. Il peut par exemple être
affiné pour prendre en compte le cas où la dérivée première, voire les suivantes,
s’annulent modulo p. De plus, le polynôme peut être pris à coefficients dans Zp .
© Le lemme de Hensel doit être pensé et interprété comme une méthode de
Newton p-adique : la preuve en est une mimique modulo p. En particulier, l’idée
du lemme de Hensel est de construire des solutions approchées (dans un véritable
sens topologique, lorsqu’on se place dans le corps des rationnels p-adiques Qp )
itérativement. En effet, une solution modulo pk+1 est plus précise qu’une solution
modulo pk , par l’injection Z/pk Z → Z/pk+1 Z. La limite (pour la topologie p-
adique) d’une telle suite de solutions (xk )k est un élément x∞ ∈ Zp , dont les xk
doivent justement être pensés comme l’approximation numérique, tronquant xk
à k chiffres dans la décomposition p-adique. Voir [Kob84] pour une ouverture vers
l’analyse p-adique.
© Le résultat de la question a)(i) est une première approximation affine polyno-
miale, et celui de la question a)(ii) une première approximation affine modulaire.
Il faut garder en tête que pk est petit lorsque k grandit (au sens de la norme p-
adique), de sorte que l’analogie avec la méthode de Newton et les développements
limités conserve tout leur sens.
© Le lemme de Hensel admet une pléthore d’applications qui foisonnent dans la
littérature de théorie algébrique des nombres. Certaines sont illustrées dans les
exercices. Nous précisons ici une application dans l’anneau des entiers p-adiques Zp ,
qui peut très bien être intégrée — comme d’autres exemples — au développement
si le temps le permet. On a la conséquence suivante :
Les u ∈ Zp tels que u ≡ 1 mod pZp sont des puissances n-ièmes
dans Zp , pour tout n > 1 non divisible par p.

En effet, appliquons le lemme de Hensel au polynôme X n − u, en commençant


avec X = 1. On a bien P (1) = 1 − u ≡ 0 mod pZp et P 0 (1) = n 6≡ 0 mod pZp .
Il existe donc une solution α ∈ Z telle que αn = u dans Zp avec α ≡ 1 mod pZp .
© La structure topologique des corps p-adiques Qp est très différente de celle
des corps archimédiens tels que R. Par exemple, la boule unité est un anneau
ou les séries sont convergentes dès que leur terme général tend vers zéro. Voir le
Développement 23 pour plus de détails sur les nombres p-adiques.

71
13. Lemme de Hensel

© Nous donnons ici une version plus fine du lemme de Hensel, utilisant la valeur
absolue p-adique et les nombres p-adiques :

Soit P ∈ Z[X]. S’il existe x ∈ Zp tel que

P (x) ≡ 0 mod p et |P (x)|p < |P 0 (x)|2p , (2)

alors il existe y ∈ Zp tel que

P (y) = 0 et |x − y|p < |P 0 (x)|p .

Ainsi, il est possible de se passer de la condition P 0 (x) 6≡ 0 mod p (qui signifie


que p ne divise pas P 0 (x), autrement dit que |P 0 (x)|p > 1) : il suffit de s’assurer
que la dérivée P 0 (x) n’est pas trop proche de zéro.

Questions.
1. Soit p un nombre premier impair. Montrer que si u ∈ Z∗p est un carré modulo p,
alors c’est un carré dans Zp . Généraliser ce résultat à toute racine simple d’un
polynôme unitaire.
2. Trouver les solutions de l’équation

5x3 + x2 − 1 ≡ 0 mod 125.

3. Trouver une solution à l’équation

x3 − 2x ≡ 1 mod 125.

4. Montrer que a ∈ Zp est inversible dans Zp si et seulement si son coefficient a0


de degré zéro est inversible sur Z/pZ.
Indication : appliquer le lemme de Hensel au polynôme aX − 1.
5. Montrer que Zp contient toutes les racines de X p−1 − 1.
6. Si m est premier à p(p − 1), montrer que tout élément de Q∗p admet une racine
m-ième dans Qp .
7. Montrer que Qp ne contient pas de racine primitive p-ième de l’unité si p > 2.
8. Montrer que Qp n’a pas d’endomorphisme non trivial.
Indication : on peut utiliser les propriétés prouvées aux questions précédentes,
notamment constater que les unités de Qp ont des racines m-ièmes pour une
infinité de valeurs de m.
9. Retrouver la version du lemme de Hensel prouvée dans le développement à
partir de la version p-adique donnée dans le dernier commentaire.

72
Anneaux, corps et théorie des nombres

Développement 14 (Méthodes polynomiales en combinatoire FF)

Soient n ∈ N∗ , K un corps et P un polynôme de K[X1 , . . . , Xn ]. On considère


une famille S1 , . . . , Sn de sous-ensembles de K telle que la fonction polynomiale
associée à P est identiquement nulle sur S1 × · · · × Sn .
a) Dans le cas où n = 1, montrer que si |S1 | > deg(P ) alors P = 0.
b) On suppose que |Si | > degXi (P ) pour tout i ∈ J1, nK. Montrer que P = 0.
c) Pour tout i ∈ J1, nK, on pose gi = s∈Si (Xi − s) ∈ K[Xi ]. Montrer qu’il
Q

existe h1 , . . . , hn ∈ K[X1 , . . . , Xn ] tels que


n
X
P = hi gi
i=1

et, pour tout i ∈ J1, nK, deg(gi hi ) 6 deg(P ).


d) Soit M un monôme tel que deg(M ) = deg(P ) et tel que |Si | > degXi (M )
pour tout i ∈ J1, nK. Montrer que le coefficient de M dans P est nul.
e) Déduire des questions précédentes une preuve du théorème de Chevalley-
Warning dont l’énoncé est le suivant :

Soient p un nombre premier et d, n, r ∈ N∗ . On pose q = pd . Soient


P1 , . . . , Pr des polynômes de Fq [X1 , . . . , Xn ] dont la somme des
degrés est au plus n − 1.
Alors le nombre de racines communes de P1 , . . . , Pr sur Fq est
divisible par p.

Leçons concernées : 123, 144, 190, 925

Cet exercice trouve naturellement sa place dans les leçons 123 et 144, grâce aux
propriétés des corps finis utilisées dans la preuve du théorème de Chevalley-
Warning et à la manipulation de racines de polynômes. De plus, en remplaçant la
question e) par une sélection des questions 2 à 5 ci-après, on peut aussi illustrer
l’utilisation de la méthode polynomiale en combinatoire (190) et en théorie des
graphes (925).

Correction.
a) L’énoncé revient à montrer qu’un polynôme P à coefficients dans un corps, de
degré au plus d et admettant d + 1 racines est nul.
Si d < 0, alors P = 0 par définition du degré. Soit d ∈ N. Supposons que la
propriété ci-avant est vraie pour tout polynôme de degré strictement inférieur à d
et montrons qu’elle est vraie pour tout polynôme de degré d. Soit P ∈ K[X1 ] de
degré d ayant d + 1 racines. Soit α ∈ K une racine de P . Comme K est un corps,
l’anneau K[X1 ] est euclidien et on peut effectuer la division de P par X1 − α :

P = (X1 − α)Q + R

73
14. Méthodes polynomiales en combinatoire

où deg(R) < deg(X1 − α) = 1. Ainsi, R est constant. En évaluant l’équation


précédente en α, on obtient R = R(α) = 0, d’où P = (X1 − α)Q. On a ainsi
deg(P ) = deg(Q) + deg(X1 − α), ce qui assure que deg(Q) = deg(P ) − 1 = d − 1.
De plus, si β ∈ K est une racine de P différente de α, on a (β −α)Q(β) = P (β) = 0,
donc β est une racine de Q.
Ainsi, Q a au moins deg(Q) + 1 = d racines, et par hypothèse de récurrence on en
déduit que Q = 0, d’où P = 0. Cela achève la preuve par récurrence.
b) On procède par récurrence sur n, le cas n = 1 étant traité par la question
précédente. Soit n > 2. Supposons que le résultat soit vrai pour les polynômes
en n − 1 variables et montrons qu’il est aussi vrai pour les polynômes en n
variables. Prenons donc P ∈ K[X1 , . . . , Xn ], et écrivons-le comme un élément de
K[X1 , . . . , Xn−1 ][Xn ], i.e.
degXn (P )
X
P = Pi Xni (1)
i=0
q y
avec Pi ∈ K[X1 , . . . , Xn−1 ] pour tout i ∈ 0, degXn (P ) .
Soit (s1 , . . . , sn−1 ) ∈ S1 × · · · × Sn−1 . Le polynôme P (s1 , . . . , sn−1 , Xn ) ∈ K[Xn ]
s’annule sur Sn , et a pour degré au plus degXn (P ) < |Sn |. Il est donc nul par le
cas n = 1. Ainsi tous ses coefficients, à savoir les q Pi (s1 , . . . , y
sn−1 ), sont nuls. Par
hypothèse de récurrence, Pi = 0 pour tout i ∈ 0, degXn (P ) , d’où P = 0.
c) Chaque gi est un polynôme unitaire de degré |Si | en une variable. On peut
donc effectuer les divisions euclidiennes successives de P par g1 , . . . , gn , ce qui
permet d’écrire
n
X
P = g1 h1 + R1 = g1 h1 + (g2 h2 + R2 ) = · · · = gi hi + Rn (2)
i=1

où, pour tout j ∈ J1, nK, hj et Rj sont respectivement le quotient et le reste dans
la division de P − j−1
P
i=1 gi hi par gj . On note R = Rn .
À chaque étape j ∈ J1, nK, comme deg(Rj ) < deg(gj ) 6 deg(gj hj ), on a
 
j−1
X
deg(gj hj ) = max{deg(gj hj ), deg(Rj )} = deg P − gi hi  = deg(Rj−1 ).
i=1

On a donc deg(Rj ) 6 deg(Rj−1 ). En posant R0 = P , on obtient alors que


la séquence (deg(Rj ))j∈J0,nK est décroissante. Finalement, on obtient bien les
inégalités deg(gj hj ) 6 deg(Rj−1 ) 6 deg(P ) pour tout j ∈ J1, nK.
Pour obtenir le résultat recherché, il suffit donc de montrer que R est nul. Pour
ce faire, on utilise la question b). D’une part, pour i ∈ J1, nK, le raisonnement
précédent assure que la séquence (degXi (Rj ))j∈J0,nK est aussi décroissante. On en
déduit la majoration suivante :
degXi (R) 6 degXi (Ri ) < degXi (gi ) = |Si |.
D’autre part, R s’annule sur S1 ×· · ·×Sn par l’équation (2). La question précédente
assure donc que R = 0. On a donc bien écrit P sous la forme ni=1 gi hi où
P

deg(gi hi ) 6 deg(P ) pour tout i ∈ J1, nK.

74
Anneaux, corps et théorie des nombres

d) Il s’agit de calculer le coefficient de M des deux côtés de la relation obtenue


à la question précédente. Dans le membre gauche, il s’agit du coefficient de M
dans P . Pour traiter le membre droit, on s’occupe individuellement de chaque
terme de la somme. Fixons donc un entier i ∈ J1, nK. Comme deg(M ) = deg(P )
et deg(gi hi ) 6 deg(P ), le degré de gi hi est au moins égal à celui de M . Or on
a aussi degXi (gi ) = |Si | > degXi (M ), donc le coefficient de M dans hi gi est nul.
Ainsi, le coefficient de M dans le membre droit est nul, il en est donc de même
du coefficient de M dans P .
e) Soit S l’ensemble des racines communes à P1 , . . . , Pr . L’idée de la preuve est
d’utiliser ces polynômes pour construire un polynôme P s’annulant sur Fnq . En
appliquant le résultat de la question précédente à un monôme bien choisi, on peut
prouver qu’il a un coefficient nul dans P . Le résultat s’obtient alors en calculant
ce coefficient de deux manières différentes.
Commençons par définir P . Pour s = (s1 , . . . , sn ) ∈ Fnq , on définit
n 
Y 
gs = 1 − (Xi − si )q−1 .
i=1

Rappelons que si x ∈ Fq , on a xq−1 = 1 si x 6= 0 et xq−1 = 0 sinon. Ainsi, pour


i ∈ J1, nK, le i-ème terme du produit définissant gs s’annule dès que Xi ne s’évalue
pas à si . Le polynôme gs vaut donc 1 en s et 0 ailleurs, i.e. gs est la fonction
caractéristique de s.
On peut réutiliser la démarche précédente pour construire un polynôme dont les
non-racines sont exactement les racines communes de P1 , . . . , Pr . On définit :
r  
1 − Piq−1 .
Y
Q=
i=1

On voit alors que Q(x1 , . . . , xn ) = 1 si (x1 , . . . , xn ) ∈ S, et Q(x1 , . . . , xn ) = 0


sinon.
On pose alors P = Q − s∈S gs . Calculons de deux manières le coefficient de
P

(X1 · · · Xn )q−1 dans P .


• On utilise d’abord le résultat de la question d). Soit s ∈ Fnq . Si s ∈ S, on en
déduit Q(s) = t∈S gt (s) = 1. Si s ∈
P P
/ S, alors Q(s) = t∈S gt (s) = 0 pour les
mêmes raisons. Ainsi, on a bien P (s) = 0 dans tous les cas. Le polynôme P
s’annule sur le produit cartésien Fnq . Comme

degXi ((X1 · · · Xn )q−1 ) < q = |Fq |

pour tout i ∈ J1, nK, la question précédente assure que le coefficient du


monôme (X1 · · · Xn )q−1 dans P est nul (dans Fq ).
• L’hypothèse ri=1 deg(Pi ) < n implique que le coefficient de (X1 · · · Xn )q−1
P

dans Q est nul. De plus, pour tout s ∈ S, ce monôme a pour coefficient


(−1)n dans gs . Ainsi, son coefficient dans P est − s∈S (−1)n = (−1)n−1 |S|.
P

On obtient donc que (−1)n−1 |S| = 0 dans Fq , d’où |S| ≡ 0 mod p.

75
14. Méthodes polynomiales en combinatoire

Commentaires.
© Le résultat de la question a) est classique et peut naturellement être admis
dans le cadre de l’agrégation.
© Le résultat prouvé dans les quatre premières questions s’utilise aussi pour sa
contraposée, qui porte le nom de Nullstellensatz combinatoire :

Soient n ∈ N∗ , K un corps et P un polynôme de K[X1 , . . . , Xn ]. On


considère une famille S1 , . . . , Sn de sous-ensembles de K. Supposons
qu’il existe un monôme M tel que :
1. deg(M ) = deg(P ) ;
2. pour tout i ∈ J1, nK, degXi (M ) < |Si | ;
3. le coefficient de M dans P est non nul.
Alors il existe un point de non-annulation de P dans S1 × · · · × Sn .

On peut ainsi transformer des problèmes combinatoires du type « montrer qu’il


existe un objet possédant une propriété P dans un espace E » en problèmes
calculatoires du type « montrer qu’un polynôme obtenu à partir de P admet un
monôme de degré total maximal et dont le degré en chaque variable est borné
en fonction de E ». Toute la difficulté est donc de définir un polynôme adapté,
c’est-à-dire dont les points de non-annulation fournissent des solutions au problème
initial. Une des forces de l’énoncé provient du fait que seuls les monômes de degré
total maximal comptent ; autrement dit, on peut négliger les termes de petit degré.
Ce point de vue est développé dans les questions ci-après.
© Attention, la réciproque n’est pas valide en général : il se peut que le polynôme
choisi n’ait pas de monôme adéquat, mais que le problème combinatoire admette
quand même des solutions.
© Une autre interprétation de la question b) est à rapprocher du fameux Null-
stellensatz de Hilbert, établissant que dans un corps algébriquement clos, si P
s’annule sur les zéros communs à Q1 , . . . , Qp alors une puissance de P appartient
à l’idéal hQ1 , . . . , Qp i. Ici, la forme particulière des gi (ou de manière équivalente,
le fait que les zéros communs forment un produit cartésien) permet de produire
un résultat plus fort : c’est P et non une de ses puissances qui appartient à l’idéal.
© La construction du polynôme P utilisé dans la dernière question est motivée
par le comportement de Q sur S et hors de S. En effet, en dehors de S, Q
s’annule, ce qui est le but recherché. En revanche, sur S, Q s’évalue en 1. Pour
obtenir un polynôme s’annulant sur tout Fnq , il faut retrancher à Q un polynôme
dont la fonction polynomiale associée coïncide avec l’indicatrice de S. Ici, ce
facteur correctif est tout trouvé en utilisant les gs . Il a aussi le bon goût de
« masquer » le polynôme Q (sur lequel on a moins d’information que sur les gs )
vis-à-vis des monômes de degré maximal grâce à l’hypothèse du théorème de
Chevalley-Warning, comme on le constate dans la suite de la preuve.

76
Anneaux, corps et théorie des nombres

Questions.
1. Soient A un anneau, et D, P ∈ A[X] deux polynômes tels que D est unitaire.
Pourquoi peut-on toujours trouver Q, R ∈ A[X] tels que P = DQ + R avec
deg R < deg D, même si A[X] n’est pas euclidien ? Quid de l’unicité de Q et R ?
2. Soient A et B des sous-ensembles non vides de Fp . Montrer qu’on a :

|A + B| > min{p, |A| + |B| − 1}.

Indication : on pourra distinguer les cas |A| + |B| > p et |A| + |B| 6 p. Dans le
second, on pourra considérer le polynôme c∈C (X + Y − c) où C est un ensemble
Q

de taille |A| + |B| − 2 contenant A + B.


3. Montrer que d hyperplans affines ne contenant pas l’origine sont nécessaires
(et suffisants) pour couvrir l’hypercube H = {0, 1}d de Rd .
Indication : on pourra évaluer sur H le polynôme
 
m
Y d
X d
Y
 ai,j Xj − 1 − (−1)m−d (Xj − 1)
i=1 j=1 j=1

Pd
où j=1 ai,j xj = 1 est l’équation normalisée d’un hyperplan pour tout i ∈ J1, nK.
4. Soit n un entier pair. Soit G le graphe cyclique de taille n. On donne à chaque
sommet deux couleurs autorisées. Montrer qu’on peut trouver une coloration de G
où chaque sommet utilise une de ses couleurs autorisées, et où toute paire de
sommets adjacents reçoit deux couleurs différentes (cf. Développement 113).
Indication : on pourra introduire un polynôme dont les racines correspondent aux
colorations impropres de G.
5. Soit G un graphe simple, de degré moyen strictement supérieur à 2p − 2 et
de degré maximal au plus 2p − 1 où p est un nombre premier. Montrer que G
contient un sous-graphe dont tous les sommets sont de degré d.
Indication : on pourra introduire une variable Xe pour chaque arête de G, et
|E(G)|
évaluer sur F2 le polynôme
  p−1 
Y X Y
1 −  av,e Xe   − (1 − Xe )
 
v∈V (G) e∈E(G) e∈E(G)

où av,e = 1 si e est incidente à v et 0 sinon.

77
15. C est algébriquement clos

Développement 15 (C est algébriquement clos F)

Soit P ∈ C[X] unitaire non constant. L’objectif est de prouver que P admet
une racine complexe.
a) Supposons que P est de degré d = 2n q, où n > 0 et où q est impair.
(i) Montrer que l’on peut supposer que P est à coefficients réels.
(ii) Si d est impair, prouver que P admet une racine réelle.
b) Soit K un corps de décomposition de P . Notons xi les racines de P dans K,
pour 1 6 i 6 d. Soit c ∈ R. Considérons les éléments yij = xi + xj + cxi xj
de K, pour 1 6 i 6 d. Soit
Y
Qc = (X − yij ). (1)
16i6j6d

(i) Prouver que Qc est à coefficients réels.


(ii) Supposons que pour tout c ∈ R, le polynôme Qc admet une racine
complexe zc . Montrer que l’un des yij est complexe, puis en déduire que
l’un des xi est complexe.
(iii) Conclure que C est algébriquement clos.

Leçons concernées : 125, 141, 144

On retrouve ici un résultat classique, parfois appelé le théorème fondamental de


l’algèbre ou le théorème de d’Alembert-Gauss. Il possède de nombreuses preuves,
utilisant souvent des arguments analytiques élaborés. Ici on trouve une preuve
élégante utilisant essentiellement deux faits algébriques — l’existence des corps de
décomposition et les relations entre coefficients et racines — et réduisant l’analyse
à l’utilisation du théorème des valeurs intermédiaires.
Le thème ainsi que les méthodes ancrent ce développement dans le cadre des leçons
associées aux racines de polynômes et aux extensions de corps (125, 141 et 144).
C’est l’occasion de mobiliser des arguments élémentaires sur les polynômes et
d’exploiter à plusieurs reprises les relations entre coefficients et racines.
Correction.
a) (i) Le polynôme P P est à coefficients réels. En effet, il est son propre
conjugué, il en va donc de même pour ses coefficients. Puisque les zéros de P sont
exactement les zéros de P P , il suffit de prouver que tout polynôme à coefficients
réels admet une racine dans C.
(ii) Soit P à coefficients réels et de degré impair. On note encore P la fonction
polynomiale définie sur R associée à P . Puisqu’elle est non nulle, elle est équivalente
en ±∞ à son terme de plus haut degré. Puisque celui-ci est de degré impair, P
tend soit vers +∞ soit vers −∞ en +∞, et inversement en −∞. Ainsi, pour x
de valeur absolue suffisamment grande, P (x) et P (−x) sont de signes opposés.
Puisque P est continue, le théorème des valeurs intermédiaires assure qu’il existe
un réel compris entre x et −x où P s’annule, i.e. une racine réelle de P .

78
Anneaux, corps et théorie des nombres

b) (i) Prouvons que les coefficients de Qc sont des fonctions symétriques réelles
en les xi . En effet, les coefficients de Qc sont des polynômes symétriques élé-
mentaires en ses racines yij . De plus, les yij sont des polynômes symétriques à
coefficients réels en (xi , xj ), donc les coefficients de Qc sont aussi des polynômes
symétriques à coefficients réels en les xi . Tout polynôme symétrique à coefficient
réel des xi s’écrit comme polynôme à coefficients réels des fonctions symétriques
élémentaires des xi , or ceux-ci sont les coefficients de P par le théorème de Newton.
En fin de comptes, les coefficients de Qc sont des polynômes à coefficients réels en
les coefficients de P . Puisque ceux-ci sont réels, les coefficients de Qc sont réels.
(ii) Puisque zc est une racine de Qc , elle est par définition l’un des yij puisque Qc
est scindé sur K, ce qui implique que zc = yi(c), j(c) pour certains indices i(c)
et j(c) de J1, nK.
On a donc construit une application c ∈ R 7→ (i(c), j(c)) ∈ J1, nK2 , qui ne peut
pas être injective puisqu’elle est à valeurs dans un ensemble fini et que R est infini.
Ainsi, il existe deux réels distincts c et c0 tels que

i(c) = i(c0 ) = r et j(c) = j(c0 ) = s.

Puisque les zc sont complexes, il vient


(
xr + xs + cxr xs = zc ∈ C
xr + xs + c0 xr xs = zc0 ∈ C.

Une combinaison linéaire immédiate de ces deux équations implique que xr + xs


et xr xs sont également dans C. Mais xr et xs sont racines du polynôme du second
degré
X 2 − (xr + xs )X + xr xs ,

qui est à coefficients complexes. Ses racines sont donc complexes, ce qui signifie
que P admet les racines complexes, éventuellement confondues, xr et xs .
(iii) Raisonnons par récurrence sur n ∈ N pour prouver que tout polynôme
de R[X] dont le degré est de la forme 2n q, avec q entier impair, admet une racine
dans C. La question a)(ii) correspond au cas n = 0. Soit n > 1. Supposons
la propriété vraie au rang n − 1. Soit P ∈ R[X] de degré d = 2n q où q est un
entier impair. Pour tout paramètre réel c, introduisons le polynôme Qc donné
par (1) où les xi sont les racines de P dans une clôture algébrique de R. Le degré
de Qc est le cardinal de l’ensemble {(i, j) ∈ J1, dK2 : i 6 j}. Celui-ci est égal à
1 n−1 q(d + 1) où q(d + 1) est un entier impair. Par l’hypothèse de
2 d(d + 1) = 2
récurrence, Qc admet donc une racine complexe zc pour tout c ∈ R. La question
b)(ii) assure alors que P admet une racine complexe. Ainsi la propriété est prouvée
au rang n, et par récurrence elle est vraie pour tout n ∈ N. On en déduit que
tout polynôme P ∈ R[X] non constant admet une racine complexe, i.e. que tout
polynôme P ∈ C[X] non constant admet une racine complexe a)(i), i.e. que C
est algébriquement clos.

79
15. C est algébriquement clos

Commentaires.
© Les relations entre coefficients et racines sont un outil puissant, offrant le
choix du langage le plus adapté pour caractériser un polynôme en fonction du
contexte. Ainsi, les problèmes de nature additive sont adaptés aux coefficients,
qui s’additionnent ; alors que les problèmes multiplicatifs sont naturellement
mieux exprimés en termes de racines, qui se concatènent. Voici deux exemples
de propositions immédiates dans le bon langage, mais difficilement démontrables
dans l’autre :
• Soit K une extension de corps de Fq et P ∈ K[X]. Alors P ∈ Fq [X] si,
et seulement si, P (X)q = P (X q ). La preuve est limpide en développant la
puissance q-ième et en faisant apparaître les coefficients ; autrement moins
évidente en considérant la forme multiplicative.
• Soit P ∈ C[X]. Alors pgcd(P, P 0 ) 6= 1 si, et seulement si, P admet une racine
double. C’est immédiat en regardant la décomposition comme produit de
facteurs linéaires, mais très difficile à voir sur les coefficients.
© Cette preuve relativement élémentaire est la porte ouverte à des questions assez
générales sur les polynômes et les relations de Newton, qu’il convient de bien
savoir écrire.

Questions.
1. À quel endroit de la preuve utilise-t-on le fait d’être dans C et non dans R ?
2. Donner un exemple de polynôme de C[X] ayant deux racines x1 et x2 dans
C\R, mais telles que x1 + x2 et x1 x2 soient dans R.
xi x2j en fonction des polynômes symétriques élémentaires.
P
3. Exprimer i6=j
4. Rappeler pourquoi il existe toujours un corps de décomposition pour un
polynôme non constant.
5. Prouver que les racines simples d’un polynôme complexe sont des fonctions
continues de ses coefficients.
Indication : penser au théorème des fonctions implicites.
6. Soit L/K une extension de corps et P ∈ K[X]. Supposons que P est scindé
dans L sous la forme i (X − ai ). Montrer que pour tout r > 1, le polynôme
Q
r
i (X − ai ) est dans K[X].
Q

7. Comment trouver toutes les racines rationnelles d’un polynôme donné ?


Indication : écrire explicitement le polynôme sous forme développée, puis considérer
l’image d’un rationnel générique ab avec a et b entiers premiers entre eux, b > 0.
Se ramener à un polynôme à coefficients entiers en multipliant par le plus grand
des dénominateurs, et réduire modulo a et modulo b.
8. Proposer une preuve alternative du fait que C est algébriquement clos, en
utilisant les fonctions holomorphes.
Indication : Si un polynôme non constant P ∈ C[X] ne s’annule pas sur C, que
dire de la fonction 1/P en tant que fonction d’une variable complexe ?

80
Anneaux, corps et théorie des nombres

Développement 16 (Lemme d’intersection de Krull FF)

Soit A un anneau noethérien, i.e. un anneau dans lequel toute famille non
vide d’idéaux admet un élément maximal pour l’inclusion.
a) Soit a un idéal de A. Montrer que tout ensemble de générateurs de a
contient un sous-ensemble fini de générateurs.
Supposons que A admet un unique idéal maximal m (A est un anneau local).
b) Montrer que A× = A\m.
c) Soit M un A-module engendré par un nombre fini d’éléments. Montrer que
si M = mM , alors M = 0. (Lemme de Nakayama)
d) Montrer le lemme d’intersection de Krull :
\
mn = {0}.
n>1

Leçons concernées : 122

Ce développement traite de questions purement théoriques sur les idéaux. Ce sont


des idées utiles dans de nombreux domaines, notamment en théorie algébrique des
nombres et en analyse p-adique. C’est l’occasion d’illustrer la leçon sur les idéaux
principaux (122) qui partagent les mêmes idées et de nombreuses propriétés.

Correction.
a) Soit S un ensemble de générateurs de a. La famille des idéaux engendrés
par un sous-ensemble fini de S est une famille d’idéaux de A, qui est non vide
car il contient l’idéal trivial {0} (engendré par la sous-partie ∅). Puisque A
est noethérien, il existe donc un idéal maximal m dans cette famille. C’est en
particulier un idéal engendré par une partie finie de S.
Il reste à montrer que m = a. Puisque tout sous-ensemble fini de S ⊆ a est inclus
dans a, il vient que m est engendré par des éléments de a, en particulier m ⊆ a.
De plus, on a nécessairement S ⊆ m. En effet, si tel n’était pas le cas, il existerait
un élément s ∈ S\m. On pourrait alors considérer l’idéal m + (s), qui est finiment
engendré par des éléments de S, car m l’est et s ∈ S. Mais il contiendrait alors
strictement m, contredisant l’hypothèse de maximalité. Ainsi on a S ⊆ m, et donc
on a l’inclusion a ⊆ m. Par suite, on a m = a.
Finalement, l’idéal a est engendré par une sous-partie finie de S.
b) Soit x ∈ A qui n’est pas une unité. Alors l’idéal engendré par x est propre, il
est donc inclus dans un idéal maximal. Ainsi, x est contenu dans un idéal maximal,
qui est donc nécessairement m par unicité de l’idéal maximal, puisque A est local.
Le complémentaire des unités A\A× est donc inclus dans m, et par passage au
complémentaire on en tire A\m ⊆ A× .
De plus, m ne contient pas d’unité, sinon il contiendrait l’idéal engendré par cette
unité, qui est tout l’anneau A. Ainsi, on a A× ⊆ A\m, et donc l’égalité souhaitée.

81
16. Lemme d’intersection de Krull

c) Supposons que M 6= 0, et considérons une famille minimale (e1 , . . . , en ) de


générateurs pour M . Alors, puisque M = mM par hypothèse, on aurait en
particulier e1 ∈ mM , de sorte qu’il pourrait s’écrire sous la forme
e1 = a1 e1 + · · · + an en , a1 , . . . , an ∈ m.

Il viendrait alors
(1 − a1 )e1 = a2 e2 + · · · + an en . (1)
Par la question b), les unités sont exactement les éléments hors de m. Or 1 − a1 ne
peut pas être dans m, sinon on aurait 1 = (1 − a1 ) + a1 ∈ m, et on aurait m = A,
contredisant la définition de m. Ainsi, 1 − a1 est une unité, et l’équation (1)
impliquerait que e1 est dans le module engendré par (e2 , . . . , en ), et donc que
la famille (e2 , . . . , en ) engendrerait M , contredisant la minimalité de (e1 , . . . , en ).
Ainsi, M est nécessairement nul.
d) La stratégie est d’arriver à prouver que m n mn = n mn , de sorte à appliquer
T T

le lemme de Nakayama. L’inclusion ⊂ est évidente car les mn sont des idéaux.
Il reste à prouver que, si n est assez grand, un élément de mn est combinaison
linéaire d’éléments de mk à coefficients dans m pour un certain k fixé.
Soit (a1 , . . . , ar ) un système générateur de m, qui existe par la question a). Alors,
pour tout n > 1, l’idéal mn est l’ensemble des f (a1 , . . . , ar ) où f ∈ A[X1 , . . . , Xr ]
est un polynôme homogène de degré n.
Soit Sm l’ensemble des polynômes f ∈ A[X1 , . . . , Xr ] homogènes de degré m
tels que f (a1 , . . . , ar ) soit dans n>1 mn . Soit a l’idéal de A[X1 , . . . , Xr ] engendré
T
S
par la réunion m>1 Sm . Puisque A est noethérien, A[X1 , . . . , Xr ] est également
noethérien et par la question a) il existe une famille finie (f1 , . . . , fs ) d’éléments
S
de m>1 Sm engendrant a. Notons di le degré de fi et d le maximum de ces degrés.
Soit b ∈ n>1 mn . Alors en particulier b ∈ md+1 , donc b = f (a1 , . . . , ar ) pour un
T

polynôme homogène f de degré d + 1. Mais alors, f ∈ Sd+1 ⊆ a est engendré par


les fi dans A[X1 , . . . , Xr ]. Il existe donc des polynômes gi ∈ A[X1 , . . . , Xr ] avec
f = g1 f1 + · · · + gs fs .

Les fi et f sont homogènes, donc on peut donc supposer que les gi sont homogènes
de degrés d(f )−di = d+1−di > 0 : en effet, les contributions des monômes de plus
petits degrés dans les gi se compensent nécessairement. Ainsi, gi (a1 , . . . , ar ) ∈ m
pour tout i ∈ J1, sK. On en déduit donc que
X \
b = f (a1 , . . . , ar ) = gi (a1 , . . . , ar )fi (a1 , . . . , ar ) ∈ m mn .
i n>1

En particulier, cela prouve que


\ \
mn = m mn ,
n>1 n>1

et le lemme de Nakayama, obtenu à la question c), permet donc de conclure que


cette intersection est nulle.

82
Anneaux, corps et théorie des nombres

Commentaires.
© Les anneaux noethériens sont une ouverture naturelle à partir des anneaux
principaux : alors que les anneaux principaux ont leurs idéaux engendrés par
un seul élément, ceux des anneaux noethériens sont engendrés par un nombre
fini d’éléments. Cette propriété de finitude est souvent utilisée comme un bon
substitut à la principalité, par exemple pour faire de l’algèbre linéaire sur les
A-modules.
© Il existe trois définitions équivalentes des anneaux noethériens qu’il est important
de garder en tête :
(i) toute suite croissante d’idéaux est stationnaire ;
(ii) toute famille non vide d’idéaux admet un élément maximal ;
(iii) tout idéal est de type fini, i.e. finiment engendré.
La preuve de l’équivalence de ces trois propriétés est classique mais importante : elle
contient de nombreux arguments typiques de la théorie des anneaux noethériens.
Ainsi, la question a) est triviale si l’on considère la définition (iii), mais beaucoup
moins pour les deux autres.
© Le lemme de Nakayama est un des premiers résultats d’algèbre commutative
générale. Il peut être formulé de nombreuses manières équivalentes, dont certaines
sont mentionnées en exercice.
© Grâce au lemme de Nakayama, on peut prouver le corollaire suivant :

Si N est un sous-A-module de M tel que M = N + mN , alors N = M .

Questions.
1. Dans la question a), il est supposé que a est un anneau finiment engendré.
Montrer que cette hypothèse n’est pas nécessaire dans un anneau vérifiant (ii).
2. Répondre à la question a) en utilisant la définition (i) des anneaux noethériens.
3. Donner des exemples d’anneaux locaux.
4. Soit A un anneau local d’idéal maximal m. Supposons que N ⊂ M sont des
A-modules finiment engendrés. Montrer que si N + mM = M , alors N = M .
5. Soit A un anneau local d’idéal maximal m et M un A-module finiment engendré.
Supposons que les classes {x1 , . . . , xn } modulo mM engendrent M/mM comme
espace vectoriel sur A/m. Montrer que {x1 , . . . , xn } engendre M en tant que
A-module.
6. Soit G le groupe abélien de générateurs x et yk pour k ∈ N et de relations
données par px = 0, x = py1 = p2 y2 = · · · = pk yk = . . . pour un certain nombre
premier p fixé. Vérifier que Gω = k>1 pk G = hxi, mais que pGω = 0 6= Gω .
T

Conclure que le lemme d’intersection de Krull n’est plus vrai lorsque M n’est plus
finiment engendré.
Indication : les groupes abéliens sont des Z-modules.
7. Si A est noethérien, montrer que A[X] est noethérien.

83
17. Cyclicité de F×
p

Développement 17 (Cyclicité de F×
p
FF)

Soit G un groupe abélien fini de neutre 1. Pour p premier, notons Gp le


sous-groupe de G constitué des éléments d’ordre une puissance de p.
a) Montrer que si chaque Gp est cyclique, alors G est cyclique.
b) Si Gp est non cyclique, montrer que xp = 1 admet au moins p + 1 solutions.
c) En déduire que F×
p est cyclique.

Leçons concernées : 104, 108, 121, 123

Ce développement présente un résultat très classique pour lequel de nombreuses


preuves existent. Les arguments utilisés ici ne font intervenir que des outils
élémentaires sur les ordres des éléments d’un groupe fini, ainsi que le théorème des
restes chinois. C’est une bonne illustration de la leçon sur les groupes finis (104),
mais aussi sur les nombres premiers (121) et les corps finis (123). L’utilisation
des ordres des éléments et des sous-groupes engendrés par des éléments rend le
développement également pertinent pour la leçon traitant des parties génératrices
d’un groupe (108).

Correction.
a) Notons n l’ordre de G, et n = q1e1 q2e2 · · · qm em sa décomposition en facteurs

premiers, où les qi sont des premiers distincts et ei > 1 pour tout i ∈ J1, mK. Pour
tout i ∈ J1, mK, notons Gi = Gqi . Puisque Gi est supposé cyclique, il est engendré
par un élément que l’on note gi ∈ Gi .
Prouvons que les gi engendrent G. Notons que n est divisible par chaque qiei , en
particulier les n/qiei sont des entiers. Ces entiers sont premiers entre eux dans leur
ensemble, de sorte qu’il existe une relation de Bézout entre eux : autrement dit, il
existe des ui ∈ Z, pour i ∈ J1, mK, tels que
m
X n
ui = 1.
i=1
qiei

Ainsi, chaque g ∈ G s’écrit sous la forme


Pm n m u n
ui e i e
i=1 q i q i
Y
1
g=g =g i = g i .
i=1
n
ui e
q i
Pour tout i ∈ J1, mKn, le i-ème facteur g est dans Gi (sa puissance qiei -ième
i

vaut g ui n = 1), donc c’est une puissance de gi car Gi est engendré par gi . Ainsi g
est un produit de puissances des gi , i ∈ J1, mK, autrement dit

G = hg1 , . . . , gm i.

Il reste à prouver que chaque produit g1r1 · · · gm


rm ∈ hg , . . . , g i, où les r sont
1 m i
des entiers, est égal à un élément de la forme (g1 · · · gm )r pour un certain r ∈ N.

84
Anneaux, corps et théorie des nombres

Puisque chaque gi est d’ordre divisant qiei , par le théorème des restes chinois il
existe r ∈ N tel que
r ≡ r1 mod q1e1 ,



 r ≡ r2 mod q e2 ,


2
..

  .

 r ≡ rm em .
mod qm

Dans ce cas, on a bien giri = gir pour tout i ∈ J1, mK. Ainsi, tout élément de G est
de la forme g1r1 · · · gm
rm = (g · · · g )r pour un certain r ∈ N, donc G = hg · · · g i
1 m 1 m
est cyclique.
b) Puisque Gp est abélien et que ses éléments sont d’ordre des puissances de p,
le groupe Gp est d’ordre une puissance de p. Notons ps l’ordre de Gp , pour un
certain entier s > 1. Puisque Gp n’est pas cyclique par hypothèse, on a s > 2.
Considérons pt l’ordre maximal d’un élément de Gp , pour un t ∈ J1, sK, et notons g
t−1
un élément d’ordre pt . Alors g p est d’ordre p, donc solution de xp = 1.
Il reste à trouver au moins p autres solutions de l’équation xp = 1 dans Gp . Il
suffit pour cela de trouver un élément d’ordre p dans Gp qui n’est pas dans le
sous-groupe hgi. Puisque Gp n’est pas cyclique, il existe h ∈ / hgi. Soit ` un entier
p ` p `−1
tel que h ∈ hgi. Quitte à remplacer h par h , on peut supposer que ` = 1.
Ainsi, il existe un élément h ∈ p
/ hgi tel que h ∈ hgi. Cela signifie que, pour un
certain n ∈ N, on a hp = g n . Notons pr 6 pt l’ordre de h, pour un r ∈ N∗ . L’ordre
de hp = g n doit donc être au plus pr−1 < pt . Cela implique p | n : autrement p et n
seraient premiers entre deux, et donc l’ordre de g n serait l’ordre de g, c’est-à-dire pt ,
ce qui n’est pas le cas puisque hp est d’ordre pr−1 < pt .
Il existe donc k ∈ N tel que n = pk, et on a donc hp = g pk . Cette égalité
peut s’écrire sous la forme (hg −k )p = 1 avec hg −k ∈ / hgi (puisque h ∈ / hgi). En
particulier, on obtient que hg ∈−k / hgi est d’ordre p.
p
Ainsi, l’équation x = 1 admet pour solutions tous les éléments du sous-groupe
engendré par hg −k , qui sont distincts de g et au nombre de p, ainsi que g. Cela
donne donc p + 1 solutions à l’équation xp = 1 dans Gp , comme souhaité.
c) Notons p − 1 = q1e1 q2e2 · · · qm
em la décomposition en facteurs premiers de p − 1,

avec qi premier et ei > 1. Pour tout i ∈ J1, mK, notons comme précédemment
n ei o
Gi = g ∈ F×
p : g
qi
≡ 1 mod p .

C’est un sous-groupe de F× p , et ses éléments sont d’ordre une puissance de qi . En


particulier, puisque Gi est abélien, |Gi | est d’ordre une puissance de qi .
Si Gi n’est pas cyclique alors, par la question précédente, Gi admet strictement
plus de qi solutions à l’équation xqi = 1. Toutefois, cette équation ne peut pas avoir
plus de qi solutions dans Fp puisque Fp est un corps. Ainsi, Gi est nécessairement
cyclique. Par la question a), le groupe F× p est donc cyclique.

85
17. Cyclicité de F×
p

Commentaires.
© Ce développement est élémentaire dans ses arguments. Sa longueur et le for-
malisme peuvent justifier le niveau de difficulté FF proposé. Il est envisageable
de présenter uniquement le résultat de la question a) avec sa réciproque (plus
facile, voir questions pour des détails complémentaires). Cela permettrait de
mettre l’accent sur le résultat important discuté dans le commentaire suivant, et
correspondrait à un développement de niveau F.
© La structure des groupes (Z/nZ)× se réduit à celle des (Z/pk Z)× où p est
un nombre premier et k > 1, par le théorème des restes chinois. En effet, si la
m
décomposition de n en produit de facteurs premiers prend la forme n = pk11 · · · pkm
où les pi sont des nombres premiers et ki ∈ N∗ pour tout i ∈ J1, mK, on a
(Z/nZ)× ' (Z/pk11 Z)× × · · · × (Z/pkmm Z)× .
Le résultat prouvé ici est la cyclicité des (Z/pZ)× . Ce résultat n’est plus vrai
lorsque p n’est plus premier, ainsi (Z/12Z)× n’est pas cyclique. La structure des
groupes d’unités des Z/pk Z est toutefois entièrement connue, plus précisément :
(
k × Z/2k−2 Z × Z/2Z si p = 2 et k > 3,
(Z/p Z) '
Z/pk−1 Z sinon.

© La cyclicité de (Z/pZ)× est utile en cryptographie, un générateur de ce groupe


étant au centre de certaines méthodes de cryptage à clé publique : les algorithmes
de Diffie-Hellman et El Gamal. Toutefois, aucune méthode algorithmique (exceptée
la recherche exhaustive) n’est connue pour trouver un tel générateur. De plus,
même si tel était le cas, le problème qui se poserait demeurerait difficile, c’est la
question du logarithme discret : étant donné h ∈ hgi, comment trouver k ∈ N tel
que h = g k ?
© Puisque tout sous-groupe d’un groupe cyclique est cyclique, on a prouvé la
caractérisation suivante de la cyclicité à l’aide des p-groupes :
Soit G un groupe abélien fini. Notons Gp le sous-groupe formé de ses
éléments dont l’ordre est une puissance de p. Le groupe G est cyclique
si et seulement si tous les Gp sont cycliques.
© De nombreuses preuves de la cyclicité de (Z/pZ)× existent. Nous proposons
une autre preuve dans un style très différent, suggérée par Feldman et Monsky,
utilisant des arguments sur les morphismes de groupes. Elle peut constituer un
développement alternatif, d’un niveau F à condition d’admettre qu’un groupe est
cyclique si et seulement si tous ses sous-groupes sont cycliques (voir questions).
Nous prouvons en effet, par récurrence sur l’ordre des sous-groupes de (Z/pZ)× ,
que tous ses sous-groupes sont cycliques.
• L’initialisation est immédiate car le seul sous-groupe d’ordre 1 est le sous-
groupe trivial, qui est bien cyclique.
Soit k > 2. Supposons que tous les sous-groupes de (Z/pZ)× d’ordres infé-
rieurs à k − 1 sont cycliques, et prouvons que ses sous-groupes d’ordre k sont
cycliques. Soit H sous-groupe de (Z/pZ)× d’ordre k. Distinguons deux cas.

86
Anneaux, corps et théorie des nombres

• Soit k est une puissance de nombre premier, disons q r où q est un nombre


premier et r > 1. Supposons que H n’est pas cyclique, de sorte que r > 2
et ses éléments sont d’ordre strictement inférieurs à q r . Par le théorème de
Lagrange, les ordres des éléments divisent q r donc, puisque q est premier,
r−1
ils divisent q r−1 . Ainsi, tous les éléments h ∈ H sont solutions de xq = 1.
Mais alors cette équation admet au moins q > q r r−1 solutions dans Fq , ce qui
n’est pas possible puisque c’est un corps. Donc H doit contenir un élément
d’ordre q r , qui est donc un générateur de H. Ainsi, H est cyclique.
• Soit k n’est pas une puissance de nombre premier, donc peut s’écrire sous la
forme k = mn avec m, n > 1 deux entiers premiers entre eux. Considérons
le morphisme f : h 7→ hn de H. Puisque k = mn est l’ordre de H on
a f (h)m = hmn = 1 pour tout h ∈ H. Ainsi

Ker(f ) = {h ∈ H : hn = 1},
Im(f ) ⊆ {h ∈ H : hm = 1}.

Puisque Fp est un corps, le nombre de solutions d’une équation polynomiale


ne peut excéder son degré. En particulier, on obtient

|Ker(f )| 6 n,
|Im(f )| 6 m.

Par les théorèmes d’isomorphismes, on a k = |Im(f )| · |Ker(f )| 6 nm = k.


Ainsi, on a nécessairement |Ker(f )| = n et |Im(f )| = m. Par hypothèse de
récurrence, puisque n, m < k, l’image et le noyau de f sont cycliques. Notons
alors Ker(f ) = hxi avec x ∈ H d’ordre n et Im(f ) = hyi avec y ∈ H d’ordre m.
Puisque n et m sont premiers entre eux et que H est commutatif, xy est
d’ordre mn = k. Ainsi, xy est un générateur de H qui est donc cyclique.
La propriété de récurrence est donc prouvée pour tous les sous-groupes de (Z/pZ)×
de cardinal inférieur ou égal à k. Par récurrence, cela prouve que tous les sous-
groupes de (Z/pZ)× sont cycliques. En particulier, on en déduit que (Z/pZ)× est
cyclique.

Questions.
1. Montrer qu’un groupe d’ordre un nombre premier p est cyclique.
2. Soit p un nombre premier. Soit G un groupe abélien et Gp un sous-groupe de G
constitué d’éléments d’ordre des puissances de p. Montrer que Gp est d’ordre une
puissance de p. Et dans le cas non abélien ?
3. Justifier que, si n et p sont premiers entre eux et g ∈ Gp , alors l’ordre de g et
l’ordre de g n sont égaux.
4. Montrer que l’équation xq = 1 ne peut avoir strictement plus de q solutions
dans un corps. Qu’en est-il dans Z/nZ en général ?
Indication : pour la seconde partie, considérer x2 = 1 dans Z/8Z.

87
17. Cyclicité de F×
p

5. Supposons G cyclique. Montrer que, pour tout nombre premier p, le sous-


groupe Gp est également cyclique.
6. Montrer qu’un groupe est cyclique si, et seulement si, tous ses sous-groupes
sont cycliques.
7. Montrer que, si x et y commutent et sont d’ordre m et n premiers entre eux,
alors xy est d’ordre mn. Que peut-on dire si m et n ne sont pas premiers entre
eux ? Que peut-on dire si x et y ne commutent pas ?

88
Anneaux, corps et théorie des nombres

Développement 18 (Automorphismes de Fpm F)

Soit p un nombre premier et m > 1.


a) Soit P ∈ Fp [X] irréductible de degré m. Montrer que, pour n ∈ N,
n
P Xp − X =⇒ m | n.

b) Soit P un polynôme irréductible de Fp [X] de degré m et α une racine de P


2 m−1
dans une clôture algébrique de Fp . Montrer que α, αp , αp , . . . , αp sont les
racines de P dans Fpm .
c) Montrer que les Fp -automorphismes de Fpm sont, pour j ∈ J0, m − 1K,

σj : Fpm −→ Fpm
j
x 7−→ xp .

Leçons concernées : 123, 125, 141

Ce développement est avant tout un résultat sur les corps finis (123) et plus
précisément la détermination de tous les automorphismes de Fpm laissant fixe Fp ,
autrement dit les automorphismes de l’extension de corps Fpm /Fp . Cela en fait
un résultat adéquat pour la leçon sur les extensions de corps (125). Les méthodes
reposent avant tout sur l’utilisation d’éléments générateurs des extensions de corps
et des polynômes minimaux de ces éléments (141) : en effet, les automorphismes de
corps considérés fixent les coefficients, et permutent donc les racines des polynômes
considérés.

Correction.
n
a) Supposons que P | X p − X pour un n ∈ N. Soit α une racine de P dans
n
un corps de décomposition de P sur Fp . Alors αp = α puisque c’est une racine
n
de X p − X, en particulier α ∈ Fpn . Par multiplicativité des degrés, on a donc

n = [Fpn : Fp ] = [Fpn : Fp (α)] · [Fp (α) : Fp ] = [Fpn : Fp (α)]m.

En particulier, m | n.
b) Puisque P est irréductible dans Fp [X], on a [Fp (α) : Fp ] = m, de sorte que
l’on a Fp (α) ' Fpm , en particulier on a α ∈ Fpm (à isomorphisme près, que l’on
considère désormais comme une égalité).
Soit x ∈ Fpm une racine de P , montrons que xp est également une racine de P .
Rappelons que l’application x 7→ xp est un morphisme de corps sur Fpm qui fixe Fp .
En particulier, en écrivant explicitement les coefficients
m
X
P = ai X i , a0 , . . . , am ∈ Fp ,
i=0

89
18. Automorphismes de Fpm

il vient

P (xp ) = am xpm + · · · + a1 xp + a0
= apm (xm )p + · · · + ap1 xp + ap0
= (am xm + · · · + a1 x + a0 )p
= P (x)p = 0.

Ainsi, la puissance p-ième conserve les racines de P , donc par une récurrence
2 m−1
immédiate on en déduit que α, αp , αp . . . , αp sont également racines de P .
Il reste à prouver que les éléments ci-avant sont distincts. Supposons qu’il existe
j k
des entiers 0 6 j < k 6 m − 1 tels que αp = αp . En élevant cette égalité à la
puissance pm−k -ième, il vient
m−k+j m
αp = αp = α.
m−k+j
Ainsi α est une racine de X p − X ∈ Fp [X]. Puisque P est le polynôme
m−k+j
minimal de α dans Fp [X], on a nécessairement P | X p − X. Par la question
précédente, cela implique m | m − k + j ∈ J1, m − 1K ce qui est impossible. Ainsi,
2 m−1
les m éléments α, αp , αp . . . , αp sont des racines distinctes de P . Puisque P
est de degré m sur le corps Fp , il admet au plus m racines, de sorte que ses racines
2 m−1
sont exactement les éléments α, αp , αp . . . , αp .
c) Vérifions que les σj sont des Fp -automorphismes de Fpm . Soit j ∈ J0, m − 1K.
Par commutativité de Fpm on a σj (x)σj (y) = σj (xy). De plus, puisque l’exponen-
tiation par p est un morphisme, on a σj (x + y) = σj (x) + σj (y). Le morphisme σj
est injectif comme morphisme de corps, et donc surjectif puisqu’il s’agit d’un
endomorphisme du corps fini Fpm . Enfin, les σj sont distincts puisque leur valeur
en l’élément α de Fpm sont distinctes par la question précédente.
Soit σ un Fp -automorphisme de Fpm . Soit β un élément primitif de Fpm sur Fp ,
et P son polynôme minimal dans Fp [X], de coefficients ai ∈ Fp . On a alors

0 = σ(P (β))
= σ(β m + am−1 β m−1 + · · · + a0 )
= σ(β)m + am−1 σ(β)m−1 + · · · + a0
= P (σ(β)).

On conclut donc que σ(β) est une racine de P dans Fpm . Par la question précédente,
j
on a donc σ(β) = β p pour un certain j ∈ J0, m − 1K. Puisque σ est un Fp -
automorphisme de Fpm et que β est primitif, cela détermine entièrement le
morphisme σ sur Fpm = Fp (β), de sorte que σ = σj .

90
Anneaux, corps et théorie des nombres

Commentaires.
© Les Fp -automorphismes de Fpm forment un groupe pour la composition des
applications, appelé le groupe de Galois de Fpm sur Fp . Le résultat prouvé dans ce
développement est que ce groupe de Galois est cyclique et engendré par x 7→ xp . On
constate notamment que les sous-groupes de Gal(Fpm /Fp ) sont en correspondance
bijective avec les extensions intermédiaires de Fpm /Fp : on retrouve un cas très
particulier de l’importante correspondance de Galois, voir Développement 21.
© Le morphisme x 7→ xp est appelé le morphisme de Frobenius. Il est un morphisme
uniquement en caractéristique p, et est souvent mentionné comme étant le « rêve
de l’étudiant », puisque c’est un morphisme lorsque (x + y)p = xp + y p . Ses
puissances donnent des éléments particuliers du groupe de Galois d’une extension
de corps de caractéristique p ; nous avons prouvé dans ce développement qu’il
engendre même tout le groupe de Galois dans le cas d’une extension finie de Fp .
Ce morphisme est un objet d’une richesse insoupçonnée en algèbre et en géométrie,
encore au cœur de nombreux domaines de recherche actuels.

Questions.
1. Rappeler une manière de construire le corps Fpn . En déduire que si l’on a
n
l’égalité αp = α, alors α ∈ Fpn .
m n
2. Montrer que si m | n, alors X p − X | X p − X.
3. Quels sont les sous-corps de Fpn ?
4. Montrer que le morphisme de Frobenius x 7→ xp est un morphisme de Fp .
Indication : utiliser la formule du binôme de Newton.
5. Expliciter la correspondance mentionnée en commentaires.
6. Si E, F, G sont trois corps tels que E ⊂ F ⊂ G, montrer qu’on a la multiplica-
tivité des degrés : [G : E] = [G : F ] · [F : E].
Indication : introduire les bases le l’espace vectoriel F (resp. G) sur E (resp. F ).
7. Déduire de la question b) que le corps de décomposition d’un polynôme
irréductible de degré m dans Fp [X] est Fpm .
8. Soit A un anneau. Est-ce qu’un polynôme P ∈ A[X] de degré m admet au plus
m racines distinctes ?
9. Montrer que tout morphisme de corps est injectif.
10. Montrer que F×
pm est un groupe cyclique (Théorème de Wedderburn).
11. Montrer que Fpm admet un élément primitif β ∈ Fpm , i.e. tel que Fpm = Fp (β).
Indication : utiliser le théorème de Wedderburn.

91
19. Automorphismes d’un corps cyclotomique

Développement 19 (Automorphismes d’un corps cyclotomique F)

Soit n > 2. On note µn le groupe des racines n-ièmes de l’unité dans C.


a) Soient ζ ∈ µn et p un nombre premier ne divisant pas n. Soit f (resp. g)
le polynôme minimal de ζ (resp. de ζ p ) dans Q[X]. Supposons que f 6= g.
(i) Montrer que f g|X n − 1 dans Q[X], puis dans Z[X]. Déduire f, g ∈ Z[X].
(ii) Monter que les réductions f¯ et ḡ modulo p sont premières entre elles.
(iii) En déduire que ζ et ζ p ont le même polynôme minimal.
b) On note G le groupe des Q-automorphismes de corps de Q(ζ).
(i) Montrer que pour tout σ ∈ G, il existe un unique aσ ∈ (Z/nZ)× tel que

∀x ∈ µn , σ(x) = xaσ .

(ii) Montrer que l’application

ψ : G −→ (Z/nZ)×
σ 7−→ aσ

est un morphisme de groupes injectif.


(iii) Montrer que ψ est un isomorphisme.

Leçons concernées : 102, 120, 121, 122, 125, 141, 144

Ce développement propose d’étudier les corps cyclotomiques, autrement dit les


corps engendrés par une racine de l’unité, illustrant ainsi les leçons 102 et 125. Il
s’agit d’exploiter les propriétés du polynôme minimal associé à chaque élément de
l’extension de corps ainsi considérée. Les arguments d’arithmétique des polynômes
sont centraux, en particulier le lemme de Gauss rappelé en commentaire, justifiant
cette preuve comme illustration des leçons 122, 141 et 144. L’objectif final est de
déterminer le groupe des Q-automorphismes de Q(ζ), autrement dit le groupe de
Galois de l’extension Q(ζ)/Q. Ces automorphismes sont paramétrés par (Z/nZ)× ,
justifiant ce développement dans la leçon 120, et l’utilisation de la décomposition
en nombres premiers permet d’illustrer la leçon 121.

Correction.
a) (i) Les racines de f et de g sont des racines n-ièmes de l’unité. En effet, ζ
et ζ p sont des racines n-ièmes de l’unité, donc sont racines de X n − 1 ∈ Q[X].
Puisque f (resp. g) est le polynôme minimal de ζ (resp. ζ p ) dans Q[X], on en
déduit que f et g divisent X n − 1 dans Q[X]. Ainsi, les deux polynômes f et g
sont distincts, unitaires et de plus irréductibles dans Q[X] comme polynômes
minimaux ; ils sont donc premiers entre eux. On en déduit que f g divise X n − 1.
Il existe donc h ∈ Q[X] tel que

X n − 1 = f gh. (1)

92
Anneaux, corps et théorie des nombres

Par le lemme de Gauss, puisque f , g et h sont des polynômes unitaires de Q[X]


divisant X n − 1 ∈ Z[X] qui est unitaire, on a f, g, h ∈ Z[X].
(ii) Rappelons que deux polynômes sont premiers entre eux dans Fp [X] si, et
seulement si, ils n’ont aucune racine commune dans une clôture algébrique. En
réduisant la factorisation (1) modulo p, on a X n − 1 = f¯ḡ h̄ dans Fp [X]. Notons
que X n − 1 est premier avec sa dérivée nX n−1 dans Fp [X] car p - n. On en déduit
que dans toute extension de Fp , le polynôme X n − 1 n’admet que des racines
simples. Ainsi, f¯ et ḡ sont en particulier premiers entre eux dans Fp [X].
(iii) Supposons que ζ et ζ p n’ont pas le même polynôme minimal, autrement dit
que f 6= g de sorte que les résultats des questions précédentes s’appliquent. Par
définition, ζ p est une racine de g, donc ζ est une racine de g(X p ) ∈ Q[X]. Puisque f
est le polynôme minimal de ζ dans Q[X], il vient que f |g(X p ), autrement dit il
existe k ∈ Q[X] unitaire tel que g(X p ) = f k. On a donc k ∈ Z[X] par le lemme
de Gauss.
En réduisant modulo p, on a ḡ(X p ) = ḡ(X)p dans Fp [X]. En particulier la relation
de divisibilité précédente s’écrit

ḡ(X)p = f¯k̄. (2)

Ainsi, tout facteur irréductible de f¯ est un facteur de ḡ p , donc de ḡ. Or, par
la question a)(ii), les polynômes f¯ et ḡ sont premiers entre eux : c’est une
contradiction. Ainsi, on a bien f = g.
b) (i) Commençons par prouver l’existence de aσ . Soit ζ une racine primitive
n-ième de l’unité, autrement dit un générateur de µn . En particulier, ζ n = 1 et
ζ k 6= 1 pour tout 1 6 k < n. Alors, puisque σ est un automorphisme de corps, on
a σ(ζ)n = 1 et σ(ζ)k = 6 1 pour tout 1 6 k < n, de sorte que σ(ζ) est aussi une
racine primitive n-ième de l’unité et donc il existe a ∈ (Z/nZ)× tel que σ(ζ) = ζ a .
Puisque tous les éléments de µn sont de la forme ζ k pour un certain k ∈ N, on
peut se contenter d’écrire l’image pour des éléments de cette forme. Pour k ∈ N,

σ(ζ k ) = σ(ζ)k = (σ a )k = (σ k )a .

En notant aσ = a avec ces notations, on obtient l’existence d’un tel élément aσ .


Supposons désormais qu’il existe aσ , bσ ∈ (Z/nZ)× tels que σ(x) = xaσ = xbσ
pour tout x ∈ µn . En prenant x une racine primitive n-ième de l’unité, on en
déduit que xaσ −bσ = 1, ce qui implique n | aσ − bσ , soit aσ = bσ dans Z/nZ. Cela
prouve l’unicité.
(ii) Soient σ, τ ∈ G. Notons στ = σ ◦ τ . Par définition de aστ , on a

(σ ◦ τ )(ζ) = ζ aστ .

Par ailleurs, par les propriétés des morphismes de corps, on a également

σ(τ (ζ)) = σ(ζ aτ ) = σ(ζ)aτ = (ζ aσ )aτ = ζ aσ aτ ,

donc en particulier aστ = aσ aτ par l’unicité de aστ prouvée à la question b)(i).


Ainsi, l’application ψ est un morphisme de groupes.

93
19. Automorphismes d’un corps cyclotomique

Soit σ dans Ker(ψ), autrement dit tel que aσ = 1 dans Z/nZ. On a alors σ(ζ) = ζ
pour une racine primitive. Puisque cette racine engendre le groupe µn , on en
déduit que σ vaut l’identité sur µn . Puisque c’est un Q-automorphisme, il agit
comme l’identité sur Q, c’est donc l’identité sur tout Q(µn ). Ainsi Ker(ψ) = {id}
et donc ψ est injectif.
(iii) Il reste à montrer que ψ est surjectif. Soit ζ ∈ µn une racine primitive
n-ième de l’unité. Montrons qu’un Q-morphisme σ ∈ G est un Q-automorphisme
si et seulement si σ(ζ) a le même polynôme minimal que ζ. Autrement dit, on
peut paramétrer les Q-automorphismes par l’image du générateur ζ.
Premièrement, supposons que l’image σ(ζ) a même polynôme minimal que ζ (qui
est plus précisément le n-ième polynôme cyclotomique), c’est donc une racine
primitive n-ième de l’unité. Ainsi, σ(ζ) est un générateur de µn et on en déduit que
σ est surjectif, et donc un automorphisme de corps. Réciproquement, supposons
que σ est un Q-automorphisme. L’image σ(ζ) est également une racine n-ième de
l’unité de même polynôme minimal que ζ : en effet, si f ∈ Q[X], il est invariant
par σ et on en déduit que f (σ(ζ)) = σ(f (ζ)). Puisque σ est injectif, on en déduit
que f (ζ) = 0 si et seulement si f (σ(ζ)) = 0, de sorte que ζ et σ(ζ) ont les mêmes
polynômes annulateurs et donc le même polynôme minimal.
Ainsi le cardinal du groupe G des Q-automorphismes de µn est égal au nombre
de racines n-ièmes de l’unité ayant même polynôme minimal que ζ.
Pour prouver la surjectivité de ψ il suffit donc de démontrer que, pour tout élément
a ∈ (Z/nZ)× , les éléments ζ et ζ a ont même polynôme minimal. Écrivons la
décomposition en facteurs premiers a = p1 · · · pr où r > 1 et les pi sont des
nombres premiers. Puisque a est inversible dans Z/nZ, il est premier avec n et
les nombres premiers pi ne divisent pas n. Par la question a)(iii), ζ et ζ p1 ont
même polynôme minimal et ζ p1 ∈ µn . En itérant ce procédé, on en déduit que les
éléments ζ et ζ p1 ···pr = ζ a ont même polynôme minimal. Ainsi, il est possible de
choisir σ(ζ) parmi toutes les racines primitives n-ièmes de l’unité. On en conclut
que |G| > |(Z/nZ)× | et donc ψ est surjectif.

Commentaires.
© Si on manque de temps ou que l’on souhaite prouver des détails, on peut s’arrêter
à l’injectivité de ψ prouvée dans la question b)(ii), explicitant par exemple les
preuves de la cyclicité de µn et de la détermination de ses générateurs. Cela donne
un développement de niveau F. La question b)(iii) demande un peu plus de
recul pour comprendre que les éléments de G = Gal(Q(ζ)/Q) sont en bijection
avec les « conjugués » de ζ, autrement dit les autres racines de son polynôme
minimal sur Q. Ces arguments sont à la source de la théorie de Galois, et on
pourra se reporter au Développement 21 pour plus d’arguments dans cette veine.
Traiter l’intégralité du développement nécessite d’être plus rapide sur certains
arguments de la question a) et de maîtriser sans hésitation les manipulations sur
les générateurs et les réductions de polynômes, ce que nous proposons pour un
développement de niveau FF.

94
Anneaux, corps et théorie des nombres

© La preuve de la description du groupe de Galois des extensions cyclotomiques


prouvée dans ce développement est due à Dedekind. D’autres preuves existent,
par exemple dues à Landau.
© Le lemme de Gauss est un résultat fondamental en arithmétique des polynômes.
Nous le rappelons ici, nous limitant aux polynômes unitaires :
Soit P ∈ Z[X] unitaire et non constant. Si P est réductible dans Q[X],
alors il est réductible dans Z[X]. Plus précisément, si P = AB avec
A, B ∈ Q[X] unitaire et non constants, alors A, B ∈ Z[X].
© Tous les résultats prouvés dans ce développement demeurent valide lorsqu’on
remplace Q par un corps de nombres quelconque, autrement dit une extension
finie de Q, et Z par l’anneau des entiers associé.
© Les extensions cyclotomiques sont des objets importants en mathématiques. En
effet, ce développement prouve que les extensions cyclotomiques sont abéliennes,
autrement dit qu’elles ont un groupe d’automorphismes (appelé groupe de Galois
de l’extension) abélien. Il y a peu de situations permettant de construire sur tout
corps de telles extensions abéliennes, comme les corps cyclotomiques. Dans le cas
de Q, toutes les extensions abéliennes proviennent de la situation étudiée ici : il
s’agit du théorème de Kronecker-Weber, que nous citons maintenant :
Toute extension abélienne de Q est dans une extension cyclotomique.
Ce résultat n’est plus vrai si le corps de base n’est pas Q : en effet, on peut
prouver que pour tout corps K de degré supérieur à 2 sur Q, il existe une
extension abélienne de K qui n’est dans aucune extension cyclotomique de K.

Questions.
1. Montrer que le groupe des racines n-ièmes de l’unité est cyclique.
2. Montrer que pour un groupe cyclique d’ordre n engendré par un élément x, les
générateurs sont les xk avec pgcd(k, n) = 1.
3. Rappeler pourquoi on a g(X p ) = g(X)p modulo p.
4. Montrer que tout morphisme de corps est injectif.
5. Détailler l’argumentation de b)(ii) : montrer que si un Q-automorphisme de
corps vérifie σ(ζ) = ζ pour ζ ∈ µ× n , alors σ = {id} sur Q(µn ).
0
6. Si P ∈ Q[X] avec pgcd(P, P ) = 1, montrer que P n’a que des racines simples.
7. Si K est un corps, expliquer pourquoi P ∈ K[X] et P 0 sont premiers entre eux
si, et seulement si, ils n’ont pas de racine commune. Est-ce que ce résultat demeure
vrai si K est seulement supposé être un anneau commutatif, par exemple Z ?
8. Illustrer la question c) avec le cas de la conjugaison : pour toute racine n-
ième de l’unité ζ ∈ C, l’extension cyclotomique Q(ζ)/Q peut être considérée
comme sous-corps de C. En considérant l’injection de Gal(Q(ζ)/Q) dans (Z/nZ)×
considérée dans le développement, quelle est l’image de la conjugaison complexe ?
9. Soit m > 1. Montrer que le nombre de racines de l’unité dans Q(ζm ) est égal à
ppcm(2, m). En déduire que pour n 6= m, on a Q(ζm ) = Q(ζn ) si, et seulement si,
l’ensemble {m, n} est de la forme {k, 2k} pour un entier impair k.

95
20. Automorphismes sauvages de C

Développement 20 (Automorphismes sauvages de C FFF)

a) Soit ϕ : C → C un automorphisme de corps.


(i) Montrer que pour tout q ∈ Q, on a ϕ(q) = q.
(ii) Montrer que si ϕ est continu ou si ϕ(R) ⊂ R, alors ϕ|R = IdR .
(iii) Dans chaque cas, en déduire que ϕ est l’identité ou la conjugaison.
Un automorphisme (de corps) de C est dit sauvage s’il n’est pas continu. Nous
cherchons désormais à construire un automorphisme sauvage de C.
b) Soient K et L deux corps et ψ : K → L un isomorphisme de corps. Soit E
l’ensemble des isomorphismes ψ 0 : K0 → L0 tels que
• K0 est un sous-corps de la clôture algébrique K de K et contient K.
• L0 est un sous-corps de la clôture algébrique L de L et contient L.
• ψ 0 est un isomorphisme de corps prolongeant ψ, i.e. ψ 0 |K = ψ.
(i) Montrer que E est non vide.
(ii) Soient ψ1 : K1 → L1 et ψ2 : K2 → L2 . On note

ψ1 6 ψ2 si K1 ⊂ K2 , L1 ⊂ L2 et ψ2 |K1 = ψ1 .

Montrer que toute famille totalement ordonnée d’éléments de E admet


un majorant. En déduire que E admet un maximum ψe : K e → L.e

(iii) Montrer que K


e = K.

(iv) En déduire que ψ se prolonge en un isomorphisme entre K et L.


c) Soit K un sous-corps de C muni d’un automorphisme ϕ : K → K. Soit F
l’ensemble des automorphismes ψ : L → L où L ⊂ C est un sur-corps de K,
et ψ prolonge ϕ. On munit F du même ordre que E.
(i) Montrer qu’il existe un élément maximal ϕ : L → L de F .
(ii) Montrer que C/L est une extension algébrique, puis que L = C.
d) Construire un automorphisme sauvage ϕ de C et montrer que ϕ(R) est
dense dans C.

Leçons concernées : 125, 141, 144, 207

Les notions centrales abordées dans ce développement (corps de rupture, clôture


algébrique, transcendance/algébricité) justifient une intégration dans la leçon 125,
ainsi que 141 et 144 dans une moindre mesure si ces notions figurent dans le plan.
On illustre ici l’utilisation du lemme de Zorn pour prolonger des fonctions. Ainsi,
il peut trouver sa place dans la leçon 207, à condition de consacrer une partie du
plan à ces notions plus algébriques.

96
Anneaux, corps et théorie des nombres

Correction.
a) (i) Comme ϕ est un morphisme de corps, on a ϕ(1) = 1. Une récurrence
immédiate fournit alors que, pour tout n ∈ N, on a

ϕ(n) = ϕ(1 + · · · + 1) = ϕ(1) + · · · + ϕ(1) = 1 + · · · + 1 = n.

De plus, on a

0 = ϕ(0) = ϕ(1 − 1) = ϕ(1) + ϕ(−1) = 1 + ϕ(−1),

d’où ϕ(−1) = −1. Par multiplicativité, on en déduit ϕ(−n) = −n pour tout


entier n ∈ N.
Ainsi, ϕ est l’identité sur Z. Soit q = ab un rationnel avec a ∈ Z et b ∈ N∗ . Alors

a = ϕ(a) = ϕ(bq) = ϕ(b)ϕ(q) = bϕ(q),


a
d’où ϕ(q) = b = q. Ainsi, ϕ est l’identité sur Q.
(ii) Distinguons les deux cas donnés dans l’énoncé.
• Supposons que ϕ est continu. Soit x ∈ R. Comme Q est dense dans R, il
existe une suite de rationnels (xn )n∈N de limite x. Alors, pour tout n ∈ N, on
a ϕ(xn ) = xn , d’où

ϕ(x) = lim ϕ(xn ) = lim xn = x.


n→+∞ n→+∞

On en déduit ϕ|R = IdR .


• Supposons maintenant que R soit stable par ϕ. Soient x, y deux réels tels
que y > x. Alors y − x est un réel positif, et on a par multiplicativité
√  √ 2
2
ϕ(y) − ϕ(x) = ϕ y−x =ϕ y−x .

Comme ϕ(R) ⊂ R, l’élément ϕ( y − x) est un réel, donc la quantité ci-avant
est positive, si bien que ϕ(y) − ϕ(x) est un réel positif. On a donc bien
ϕ(y) > ϕ(x), d’où la croissance de ϕ sur R.
Supposons qu’il existe un réel x tel que ϕ(x) 6= x. Quitte à remplacer x
par −x, on peut supposer que ϕ(x) < x. La densité de Q dans R fournit alors
un rationnel q ∈]ϕ(x), x[. On a donc ϕ(x) 6 q = ϕ(q) alors que q 6 x, ce qui
est impossible car ϕ est croissante sur R. Ainsi, ϕ est l’identité sur R.
(iii) Comme C = R[i], l’automorphisme ϕ est entièrement déterminé par son
image sur i. De plus, on a ϕ(i)2 + 1 = ϕ(i2 + 1) = 0, d’où ϕ(i) = ±i. Ces deux
cas fournissent l’identité et la conjugaison, qui sont bien les automorphismes
recherchés.
b) (i) L’ensemble E contient l’isomorphisme ψ : K → L et est donc non vide.
(ii) Soit (ψt : Kt → Lt )t∈Λ une partie non vide et totalement ordonnée d’éléments
de E. On définit K0 = ∪t∈Λ Kt . Si x, y ∈ K0 , la somme et le produit de x et y sont
définis comme la somme et le produit dans n’importe quel Kt contenant x et y (la

97
20. Automorphismes sauvages de C

somme et le produit sont bien définis car (Kt )t∈Λ est totalement ordonnée pour
l’inclusion). Ces deux opérations munissent K0 d’une structure de corps. De plus,
on a
K ⊂ K0 ⊂ K.
On montre de même que L0 = ∪t∈Λ ψt (Kt ) est un sous-corps de L contenant L. On
définit alors ψ 0 : K0 → L0 par ψ 0 (x) = ψt (x) pour tout x ∈ Kt . Pour tout s, t ∈ Λ,
si ψs et ψt sont définis sur x, alors ψs (x) = ψt (x) puisque l’un est restriction de
l’autre. Ainsi, l’application ψ 0 est bien définie, et on montre facilement que c’est
un automorphisme de corps, qui prolonge tous les ψt pour t ∈ Λ.
Ainsi, ψ 0 est un majorant de l’ensemble des termes de la famille (ψt )t∈Λ . L’en-
semble E est donc inductif et non vide. D’après le lemme de Zorn, il possède donc
un maximum noté ψe : K e → L.
e

(iii) Supposons que Ke ne soit pas algébriquement clos. Alors il existe un poly-
Pd i
nôme P = i=0 ai X ∈ K[X] e e avec d > 2. Comme ψe est un
irréductible sur K,
Pd e
isomorphisme, le polynôme image Q = i=0 ψ(ai )X i est aussi irréductible sur L. e
L’application
K[X]/P
e −→ L[X]/Q
e
d−1
X d−1
X
pk X k 7−→ e )X k
ψ(pk
k=0 k=0

est alors un isomorphisme de corps entre les corps de rupture de P sur K e et


de Q sur L.
e Autrement dit, si α (resp. β) est une racine de P (resp. Q) dans la
clôture algébrique K (resp. L), on peut prolonger ψe en un isomorphisme de K[α]
e
sur L[β].
e Ceci contredit la maximalité de ψe dans E. Ainsi, K
e est algébriquement
clos. Comme il est de plus contenu dans K par définition de E, on a K e = K.

(iv) Comme ψe est un isomorphisme, son image L e est aussi algébriquement close
et contenue dans L par définition de E, d’où L
e = L. Ainsi, ψe est un isomorphisme
entre les clôtures algébriques K et L prolongeant ψ.
c) (i) L’ensemble F est non vide car ϕ ∈ F . Montrons maintenant que F est
inductif. Soit (ψt : Lt → Lt )t∈Λ une partie non vide et totalement ordonnée
d’éléments de F . Par le même raisonnement qu’à la question b)(ii), L = ∪t∈Λ Lt
est un sous-corps de C contenant K et l’application ψ : L → L définie par
ψ(x) = ψt (x) pour tout x ∈ Lt est un majorant de l’ensemble des termes de la
famille (ψt )t∈Λ . L’ensemble F est donc inductif et non vide. D’après le lemme de
Zorn, il possède donc un maximum noté ϕ : L → L.
(ii) Montrons par l’absurde que C/L est algébrique. Supposons qu’il existe un
élément α ∈ C transcendant sur L. En particulier, L(α) contient strictement L.
Alors L(α) est isomorphe (en tant que L-algèbre) à L(X). Par propriété universelle
de l’algèbre L(X), tout automorphisme de L se prolonge de manière unique en un
automorphisme de L(X) fixant X.
Ainsi, on peut étendre ϕ en un automorphisme de L(α) tel que ϕ(α) = α, ce qui
contredit la maximalité de ϕ dans E. On en conclut que tout élément de C est
algébrique sur L, autrement dit, l’extension C/L est algébrique.

98
Anneaux, corps et théorie des nombres

D’après la question b), on peut prolonger ϕ : L → L en un automorphisme de


la clôture algébrique L de L. Par maximalité de ϕ, on a donc L = L, ce qui
assure que L est algébriquement clos. Comme C/L est une extension algébrique,
tout élément de C est racine d’un polynôme à coefficients dans L, donc dans L
puisque L est algébriquement clos. Ainsi L = C et ϕ est un automorphisme de C
prolongeant ϕ.

d) Soit K = Q[ 2]. L’application

ϕ: K √ −→ K√
a + b 2 7−→ a − b 2

est un automorphisme de K. D’après la question précédente, il existe un automor-


phisme ϕ : C → C prolongeant ϕ. On a donc
√ √ √
ϕ( 2) = ϕ( 2) = − 2.

D’après la question a)(i), ϕ laisse


√ fixe tout rationnel. Ainsi, si (qn )n∈N √
est une suite

de rationnels tendant vers 2, la suite (ϕ(qn ))n∈N tend aussi vers 2 6= ϕ( 2).
Ainsi, ϕ n’est pas continu.
En particulier, ϕ ne peut stabiliser R (autrement, ce serait l’identité ou la conju-
gaison d’après la question a)). Il existe donc x ∈ R tel que ϕ(x) ∈ C \ R.
Alors, (1, ϕ(x)) forme une R-base de C.
Soit z ∈ C que l’on décompose sous la forme z = a + bϕ(x) avec a, b ∈ R.
Soient (an )n∈N et (bn )n∈N deux suites de rationnels convergeant respectivement
vers a et b. Alors, pour tout n ∈ N, on a

ϕ(an + xbn ) = an + ϕ(x)bn −−−−−→ a + ϕ(x)b = z.


n→+∞

Ainsi, ϕ(Q + xQ) (et donc a fortiori ϕ(R)) est dense dans C.

Commentaires.
© Il est important de sélectionner scrupuleusement les points à détailler selon la
leçon dans laquelle ce développement est utilisé, et le niveau de difficulté souhaité.
Tel que présenté ici, le développement est dense, il ne faut donc pas le présenter
dans son intégralité. La question a) constitue à elle seule un développement de
niveau F. Elle peut néanmoins être admise en tant que résultat assez classique pour
se concentrer sur les questions suivantes, plus intéressantes bien que nécessitant
de maîtriser des outils plus élaborés. Si on souhaite traiter la question d), il peut
être utile d’admettre le lemme démontré question b), à savoir :
Soit ψ : K → L un isomorphisme de corps. Alors on peut prolonger ψ
en un isomorphisme de corps entre des clôtures algébriques K → L.
La preuve de ce lemme utilise les mêmes arguments que la question c) et peut
donc être raisonnablement admise (à condition de pouvoir l’expliquer en quelques
mots). Ce lemme et sa preuve à eux seuls peuvent constituer un développement
de niveau FF adapté aux leçons sur les prolongements et les corps de rupture.

99
20. Automorphismes sauvages de C

© Selon la leçon dans lequel ce développement est présenté, il est important de


moduler la présentation, en mettant l’accent sur certaines parties quitte à en
admettre d’autres. Le lemme démontré en question b) est en effet classique et
peut être admis dans les leçons d’analyse. Il est alors important d’insister sur
l’utilisation de la densité dans la question a) et la dernière question.
© Dans le cas où ϕ(R) ⊂ R, on peut utiliser la caractérisation séquentielle de
la densité pour redémontrer le résultat de la question a)(ii). Si x ∈ R, on peut
l’approcher par deux suites de rationnels, l’une (an )n∈N croissante et l’autre
(bn )n∈N décroissante telles que an 6 x 6 bn pour tout n ∈ N. Comme ϕ est
croissante et ϕ|Q = Id, on a pour tout n ∈ N

an = ϕ(an ) 6 ϕ(x) 6 ϕ(bn ) = bn .

En passant à la limite, le théorème des gendarmes assure alors que ϕ(x) = x.


© Contrairement à ce que laisse imaginer le cas des automorphismes de R étudié
en question a), les automorphismes de C sont nombreux (leur ensemble est indé-
nombrable) et leur comportement est erratique, comme en témoigne la propriété
de densité de la dernière question de l’exercice. Les automorphismes sauvages
portent bien leur nom : on peut montrer qu’ils sont discontinus en tout point, et
que l’image de tout intervalle réel est dense dans C, alors qu’ils fixent tous les
rationnels. D’après la question d), ils permettent aussi d’exhiber un sous-corps
dense de C isomorphe à R.
© On présente ici une construction possible d’automorphisme. Grâce à la ques-
tion c), on peut même obtenir des exemples plus exotiques : on peut choisir un
automorphisme envoyant un élément algébrique sur un de ses conjugués, ou un
élément transcendant sur n’importe quel élément transcendant. En effet, étant
donnés deux réels x, y algébriques, conjugués et distincts, on peut construire un
automorphisme ϕ d’une clôture séparable de R tel que ϕ(x) = y. On peut alors
étendre cet automorphisme en un automorphisme sauvage de C. On peut aussi
choisir x, y transcendants et distincts, et prolonger à C l’automorphisme de Q[x, y]
échangeant x et y.
© La démonstration présentée ici s’appuie sur deux utilisations distinctes du lemme
de Zorn, mais très similaires. La première fournit un prolongement automorphique
maximal, tandis que la deuxième fournit un prolongement isomorphique maximal.
Il semble difficile à première vue de factoriser l’argument. En effet, on a besoin de
considérer des automorphismes pour gérer les éléments transcendants (et étendre
un automorphisme de K en un automorphisme de K(α) pour α transcendant).
Considérer des isomorphismes dans ce cadre soulève des problèmes dus à la
recherche d’une bonne image pour α. Dans la seconde utilisation, on a en revanche
besoin d’utiliser des isomorphismes, puisque même en partant d’un automorphisme
ϕ : K → K et d’un élément algébrique α sur K, il n’y a aucune raison pour qu’on
puisse obtenir un automorphisme de K[α] puisque le polynôme minimal de α sur K
n’est pas nécessairement préservé lorsqu’on applique ϕ à ses coefficients. Ainsi,
on peut seulement étendre ϕ en un isomorphisme de K[α] sur K[β] où β n’est pas
forcément un conjugué de α. On a donc besoin que le morphisme construit par le

100
Anneaux, corps et théorie des nombres

lemme de Zorn soit maximal parmi les isomorphismes et pas seulement parmi les
automorphismes.
© On montre ici un résultat plus général que l’existence d’un automorphisme
sauvage : tout automorphisme d’un sous-corps de C peut être prolongé en un
automorphisme de C lui-même. Comme on l’a vu dans le développement, on peut
facilement prolonger des isomorphismes ou des automorphismes à des « petites »
extensions de corps, par exemple K(α)/K (en distinguant les cas selon que α
est algébrique ou transcendant). Malheureusement, on ne peut en général pas
atteindre C avec un nombre fini (même dénombrable) de telles extensions. C’est
pourquoi on utilise ici le lemme de Zorn, qui permet d’obtenir des prolongements
maximaux. Les « petites » extensions permettent alors de montrer que le prolon-
gement maximal est défini sur tout C. On verra dans les questions que ce résultat
est faux si on part initialement d’un isomorphisme et non d’un automorphisme.
© Le lemme de Zorn est un résultat équivalent à l’axiome du choix. Son énoncé
est le suivant :
Soit E un ensemble non vide muni d’un ordre noté <. Si (E, <) est
inductif, i.e. si toute sous-partie totalement ordonnée de E admet un
majorant, alors E admet un maximum.

Ce résultat est à la base de nombreux théorèmes classiques du répertoire de


l’agrégation. On peut par exemple citer, en algèbre, le théorème de la base
incomplète, le théorème de Krull, l’existence d’une clôture algébrique ; en analyse,
les théorèmes de Hahn-Banach et de Tychonov ; et en informatique, la complétude
de la logique du premier ordre. Parmi les exemples classiques, on peut aussi citer
le théorème de Zermelo établissant que tout ensemble peut être muni d’un bon
ordre, c’est-à-dire tel que toute partie non vide admet un minimum. Parmi ses
conséquences moins naturelles, on trouve en revanche l’existence de parties non
Lebesgue-mesurables dans R, ou encore le paradoxe de Banach-Tarski.
© L’axiome du choix (AC) énonce que pour toute collection d’ensembles non vides,
il existe une fonction de choix associant à chaque ensemble un de ses éléments. Bien
que semblant couler de source (surtout sous la formulation « un produit d’ensembles
non vides est non vide »), cet axiome est controversé pour plusieurs raisons. D’une
part, les preuves utilisant l’axiome du choix sont souvent non constructives : la
fonction de choix existe, mais il n’y a en général pas de construction explicite.
D’autre part, même s’il permet d’obtenir de nombreux résultats très utiles, il en
découle aussi des assertions pouvant sembler paradoxales (voir point précédent),
mais pas contradictoires. En effet, cet axiome est indépendant des axiomes usuels
de la théorie des ensembles (i.e. de la théorie de Zermelo-Fraenkel, notée ZF) :
AC ainsi que sa négation AC préservent la cohérence de ZF. Autrement dit, si on
obtient une contradiction en utilisant les axiomes de ZF+AC (ou ZF+AC), on
pouvait en fait obtenir une contradiction directement dans ZF.
© Pour toutes ces raisons, l’axiome du choix est toujours un sujet sensible d’un
point de vue philosophique, et peut donc amener son lot de questions. Il est
donc important d’avoir quelques notions de culture générale à son propos, si l’on

101
20. Automorphismes sauvages de C

souhaite utiliser ce développement. Pour s’entraîner au maniement de l’axiome


du choix, on pourra aussi se référer aux exercices ci-après.
© Dans certains cas, il n’y a pas besoin de l’axiome du choix pour obtenir une
fonction de choix. Une telle fonction peut être construite directement, par exemple
dans le cas où chaque ensemble de la collection est totalement ordonné. Dans
ce cas, on peut définir la fonction de choix comme retournant le minimum de
chaque ensemble. Ceci est aussi illustré par la célèbre analogie de Russell : si on
a une infinité de paires de chaussures, il est facile d’en choisir une dans chaque
paire (par exemple, prendre toutes les chaussures gauches). En revanche, si on
a une infinité de paires de chaussettes, on doit utiliser l’axiome du choix pour
en choisir une de chaque paire, car les deux chaussettes d’une même paire sont
indistinguables.

Questions.
1. Justifier que l’application ψ définie en b)(ii) est bien un isomorphisme.
2. Justifier que si α est transcendant sur L, alors L(α) est isomorphe à L(α) en
tant que L-algèbre.
3. Expliciter l’automorphisme de L(α) décrit en question c)(ii).
4. Expliciter l’application K[α]
e → L[β]
e définie dans la preuve du lemme, et
montrer qu’il s’agit bien d’un isomorphisme.

5. Montrer qu’il√ existe un sous-corps maximal K de R ne contenant pas 2.
Montrer que K[ 2] ( R, puis que R/K est une extension algébrique, et en déduire
que K est indénombrable (un tel corps est appelé sous-corps exotique de R).
6. Soient (an )n∈N une suite de complexes transcendants sur Q et algébriquement
indépendants. On définit un morphisme de corps ϕ : Q(a0 , . . .) → Q(a1 , . . .) par
ϕ(ai ) = ai+1 pour tout i ∈ N.
En appliquant le lemme de Zorn à la famille des isomorphismes ψ : K → L
prolongeant ϕ et tels que L ⊂ K et α0 est transcendant sur L, construire un
isomorphisme de C sur un corps K ne contenant pas α0 . En déduire que cet
isomorphisme n’est pas prolongeable en un automorphisme de C.
7. Montrer que si tout ensemble peut être muni d’un bon ordre, alors l’axiome du
choix est vrai.
8. Appliquer le lemme de Zorn pour montrer l’existence d’une base dans tout
espace vectoriel E, et en déduire l’existence d’une forme linéaire discontinue dans
tout K-espace vectoriel de dimension infinie (pour K = R ou C).
Indication : on pourra considérer l’ensemble des familles libres de E, muni de
l’inclusion.
9. À l’aide du lemme de Zorn, montrer que tout ensemble E peut être muni d’un
bon ordre.
Indication : on pourra considérer l’ensemble des couples (X, <X ), où X ⊂ E et
où <X est un bon ordre sur X, et l’ordonner par (X, <X ) < (Y, <Y ) si X ⊂ Y et,
pour tous x ∈ X et y ∈ Y , y <Y x si et seulement si y ∈ X et y <X x.

102
Anneaux, corps et théorie des nombres

Développement 21 (Théorème d’Artin FFF)

Soient E et F des corps et G un sous-groupe fini de Aut(E), où Aut(E) désigne


le groupe des automorphismes de E. Introduisons l’ensemble des points de E
fixés par G, appelé corps fixe de G dans E, défini par

E G = {α ∈ E : ∀σ ∈ G, σ(α) = α}.

a) Soient α un nombre algébrique sur F , de polynôme minimal P et K une


extension de F . Soit φ0 : F → K un morphisme de corps. Montrer qu’il existe
une correspondance bijective ψ donnée par
n o n o
prolongements de φ0 racines de φ0 (P )
φ:F [α]→K −→ dans K
φ 7−→ φ(α).

Soit E/F une extension de corps, on note Aut(E/F ) le groupe des F -


automorphismes de E, autrement dit des automorphismes de E fixant F .
b) Soit E une extension finie de F , engendrée sur F par les racines d’un
polynôme P ∈ F [X], et soit K une extension de F . Montrer que le nombre
de F -morphismes φ : E → K est inférieur à [E : F ].
c) Soit E une extension finie de F et L une extension de F . Montrer qu’il
existe au plus [E : F ] différents F -morphismes de E dans L.
h i
d) Prouver que E : E G 6 |G|. (Théorème d’Artin)
 
e) En déduire que pour tout groupe fini G ⊂ Aut(E), on a G = Aut E/E G .

Leçons concernées : 125, 141, 144, 162

Les F -morphismes d’une extension algébrique sont peu nombreux, et sont en-
tièrement déterminés par les images de générateurs. Ceux-ci sont des nombres
algébriques dont l’étude se fait en considérant leur polynôme minimal, justifiant
la présence de ce résultat dans les leçons 141 et 144. Ce développement est au
seuil de la théorie de Galois et de la théorie des extensions de corps, en faisant
une très bonne illustration pour la leçon 125. L’argument central est l’étude et
la manipulation astucieuse d’un système linéaire et en fait donc également un
développement pertinent pour la leçon 162.

Correction.
a) Soit φ : F [α] → K un morphisme de corps qui prolonge φ0 . Montrons que φ(α)
est une racine de φ0 (P ). Puisque φ est un morphisme de corps qui prolonge φ0 , on
a φ(P ) = φ0 (P ). En effet, en notant P = ni=0 ai X i avec des coefficients ai ∈ F
P

et un degré n = deg(P ) ∈ N, on a
n n n n
! !
X X X X
φ(P ) = φ ai X i = φ(ai )X i = φ0 (ai )X i = φ0 ai X i = φ0 (P ).
i=0 i=0 i=0 i=0

103
21. Théorème d’Artin

De plus, puisque φ est un morphisme de corps et que α est une racine de P , on


en déduit que φ0 (P )(α) = φ(P )(α) = φ(P (α)) = 0, et donc φ(α) est une racine
de φ(P ) = φ0 (P ). Ainsi tout morphisme φ : F [α] → K envoie α sur une racine
de φ0 (P ). L’application ψ est ainsi bien définie.
Prouvons désormais la surjectivité de ψ. Considérons γ ∈ K une racine de φ0 (P ),
et montrons que l’on peut définir un morphisme φ : F [α] → K qui prolonge φ0 et
tel que ψ(φ) = φ(α) = γ. L’application

evalγ : F [X] −→ K[γ]


(1)
Q(X) 7−→ φ0 (Q)(γ)

contient l’idéal (P ) dans son noyau puisque P annule γ. Elle se factorise donc par
le quotient F [X]/(P ). En composant par l’inverse de F [X]/(P ) ' F [α] qui est
défini par X + (P ) 7→ α, on obtient un morphisme φ : F [α] → K, résumé dans le
diagramme

evalγ
F [X] K

F [X]/(P ) φ
'

F [α]

On a ainsi un morphisme φ prolongeant φ0 et tel que φ(α) = γ.


Enfin, si φ et φ0 sont deux morphismes F [α] → K qui étendent φ0 et qui ont
la même valeur en α, alors ils sont égaux sur F [α] et donc égaux en tant que
morphismes. Ainsi, la correspondance est injective, et donc bijective.
b) Raisonnons par récurrence sur n > 1.
• Considérons le cas n = 1, de sorte que E = F [α1 ]. Soit P1 ∈ F [X] le
polynôme minimal de α1 dans F [X]. La question précédente affirme alors
qu’il y a au plus deg(P1 ) = [F [α1 ] : F ] = [E : F ] tels prolongements.
• Supposons désormais la propriété de récurrence vraie jusqu’au rang n − 1,
et prouvons-la au rang n > 2. Notons E = F [α1 , . . . , αn ] où α1 , . . . , αn ∈ E
sont des générateurs de E sur F .
• Un morphisme φ : E → K est en particulier un morphisme qui étend le
morphisme F [α1 , . . . , αn−1 ] → K sous-jacent. Soit Pn ∈ F [α1 , . . . , αn−1 ][X]
le polynôme minimal de αn dans F [α1 , . . . , αn−1 ][X]. La question précédente
affirme alors qu’il y a au plus deg(Pn ) = [F [α1 , . . . , αn ] : F [α1 , . . . , αn−1 ]]
tels prolongements. De plus, par hypothèse de récurrence, il y a au plus
[F [α1 , . . . , αn−1 ] : F ] morphismes F [α1 , . . . , αn−1 ] → K. Par multiplicativité
des indices, il s’ensuit qu’il y a au plus [E : F ] F -morphismes E → K. La
propriété de récurrence est donc vraie au rang n.
Ainsi, par axiome de récurrence la propriété est vraie pour tout degré n > 1.

104
Anneaux, corps et théorie des nombres

c) Notons E = F [α1 , . . . , αn ] où α1 , . . . , αn ∈ E sont des générateurs de E sur F


et n > 1, puis introduisons P ∈ F [X] le produit des polynômes minimaux des αi ,
pour i ∈ J1, nK, de sorte que E est engendré sur F par les racines de P . Notons K
un corps de décomposition de P considéré comme un élément de L[X]. Puisque
le corps de décomposition K de P ∈ L[X] contient L, un F -morphisme E → L
est aussi un F -morphisme E → K. Par la question b), il existe moins de [E : F ]
F -morphismes E → K, donc aussi moins de F -morphismes E → L.
d) Notons G = {σ1 , . . . , σm } où σ1 est l’identité de E et m > 1. Supposons qu’on
ait n = [E : E G ] > |G|. Soit α1 , . . . , αn une base de E sur EG , avec n > m. On
cherche à prouver que les αi , pour i ∈ J1, mK, sont linéairement indépendants
sur E G . Considérons le système d’équations

 σ1 (α1 )X1 + · · · + σ1 (αn )Xn



 = 0,
.. .. (2)
 . .
σm (α1 )X1 + · · · + σm (αn )Xn = 0.

C’est un système de m équations à n > m inconnues : il admet donc des solutions


non triviales sur E. Soit (c1 , . . . , cn ) ∈ E n une telle solution contenant le moins
possible d’éléments non nuls. Quitte à renuméroter, on peut supposer que c1 = 6 0.
Quitte à multiplier par une constante, on peut supposer que c1 ∈ E , donc G

que σ(c1 ) = c1 pour tout σ ∈ E G . Prouvons que tous les ci sont dans E G .
En appliquant σk au système d’équations (2) et puisque σk ∈ G permute les
éléments de G, on obtient que (c1 , σk (c2 ), . . . , σk (cn )) est aussi une solution du
système, autrement dit

 σ1 (α1 )c1 + σ1 (α2 )σk (c2 ) + · · · + σ1 (αn )σk (cn )



 = 0,
.. .. (3)
 . .
σm (α1 )c1 + σm (α2 )σk (c2 ) + · · · + σm (αn )σk (cn ) = 0.

En soustrayant chaque ligne du système (3) de la ligne correspondante de (2)


appliqué à la solution (c1 , . . . , cn ), les c1 se compensent et on obtient une solu-
tion (0, . . . , σk (ci ) − ci , . . .) qui admet strictement moins d’éléments non-nuls que
(c1 , . . . , cn ). Elle est donc nulle, et on en déduit que σk (ci ) = ci pour i ∈ J1, mK,
autrement dit tous les ci sont dans E G puisque E G est le corps fixe des automor-
phismes σi . La première équation de (2) s’écrit alors, puisque σ1 = IdE ,
α1 c1 + · · · + αn cn = 0.
Il s’agit d’une relation de dépendance linéaire entre les αi à coefficients dans E G .
Ainsi la famille (α1 , . . . , αn ) n’est pas libre, contrairement à l’hypothèse. On ne
peut donc pas avoir n > m. Ainsi n 6 m, autrement dit [E : E G ] 6 |G|.
e) On a toujours G ⊆ Aut(E/E G ) par définition de E G , il suffit donc de prouver
l’égalité de leurs cardinaux. La question précédente prouve que [E : E G ] 6 |G|.
De plus, |Aut(E/E G )| 6 [E : E G ] par la question a). Ainsi, il vient
[E : E G ] 6 |G| 6 |Aut(E/E G )| 6 [E : E G ],
de sorte que toutes les inégalités sont des égalités, donc G = Aut(E/E G ).

105
21. Théorème d’Artin

Commentaires.
© Ce développement est très modulable et peut être abordé avec de nombreux
niveaux de lecture différents :
• le développement présenté ci-avant est ambitieux, et demande une aisance
certaine avec les morphismes de corps, les extensions et les arguments de
factorisation. Cela justifie son niveau FFF ;
• on peut se contenter de présenter seulement le théorème d’Artin de la
question d), qui est très bref et permet de se concentrer sur les arguments
de la théorie des systèmes linéaires. Cela nécessite de bien comprendre les
notations et définitions, et constituerait un développement FF ;
• les résultats sur les correspondances bijectives entre racines et extensions
de morphismes de la question a) peuvent constituer un développement F,
mettant l’accent sur les extensions de corps et les racines de polynômes. Nous
encourageons dans ce cas à prendre φ0 = Id.
© Ce résultat est une des prémisses de la théorie de Galois, sans en avoir les
restrictions : c’est un résultat vrai pour tout corps et nécessitant peu de prére-
quis. La théorie de Galois est justement une correspondance descriptive entre
extensions de corps et sous-groupes du groupe de Galois associé, déjà en germe
dans les arguments ci-avant. Plus précisément, une version simple du théorème
fondamental de la théorie de Galois est la suivante, formulée dans le cadre du
présent développement :

Soit G un sous-groupe de Aut(E) et F = E G . Alors il existe une


bijection entre les corps intermédiaires de E/F et les sous-groupes du
groupe de Galois Aut(E/F ).

Donnons un énoncé plus complet du théorème fondamental de la théorie de Galois.


On dit qu’un polynôme est séparable s’il est à racines simples dans un corps de
décomposition.

Soit E un corps de décomposition d’un polynôme séparable dans F [X].


Alors il existe une bijection entre corps intermédiaires F ⊂ K ⊂ E et
les sous-groupes du groupe de Galois H ⊂ Aut(E/F ). Cette bijection
est explicitement donnée par
n o n o
Extensions intermédiaires K Sous-groupes H
telles que F ⊂K⊂E −→ de Aut(E/F )

K 7−→ Aut(E/K)
EH ←−[ H.

On dit dans ce cas que l’extension E/F est galoisienne, propriété qui admet de
nombreuses formulations équivalentes par un théorème d’Artin, parmi lesquelles :
• E est le corps de décomposition d’un polynôme séparable (i.e. admettant
des racines distinctes dans une clôture algébrique) à coefficients dans F ;

106
Anneaux, corps et théorie des nombres

• tout polynôme irréductible de F [X] admettant une racine dans E est scindé
dans E et à racines simples ;
• F est le corps fixe de Aut(E/F ) ;
• |Aut(E/F )| > [E : F ].
Notons que tout polynôme est séparable dans les corps de caractéristique nulle
(tels que Q, Qp , C(X)), dans les corps finis ou dans les corps algébriquement clos.
© La correspondance de Galois ci-avant n’est pas seulement une bijection entre
sous-groupes du groupe de Galois et extensions intermédiaires : elle préserve de
nombreuses informations structurelles.
• la correspondance renverse l’ordre : H1 ⊂ H2 ⇔ E H1 ⊃ E H2 ;
• l’indice correspond au degré : [H1 : H2 ] = [E H2 : E H1 ] ;
• H est distingué si et seulement si E H est normale, i.e. si tout polynôme
minimal d’un élément de E H est scindé dans E H [X].
Ce dictionnaire est ainsi très adapté à la reformulation d’un problème de théorie
des corps en termes de problème de théorie des groupes et réciproquement. On
pourra par exemple se référer à [Tau08] pour un exposé clair de la théorie et de
nombreux exemples. Nous laissons toutefois
√ un exemple assez simple de cette
3
correspondance pour l’extension Q( 2, j)/Q, où nous notons j pour l’une des
racines primitives 3-ièmes de l’unité :

Q( 3 2, j)
3 2
2
2
√ √ √
Q(j) Q( 3 2) Q(j 3 2) Q(j 2 3 2)
3 3
2 3
Q

Figure 1.2 – Corps intermédiaires de l’extension Q( 3 2, j)/Q ; les valeurs
indiquées correspondent aux degrés des extensions intermédiaires.

{1}
2
2
3 2
A3 h(12)i h(13)i h(23)i
3
3
2 3
S3

Figure 1.3 – Sous-groupes du groupe de Galois Aut(Q( 3 2, j)/Q) ' S3 ; les
valeurs indiquées correspondent aux indices des sous-groupes.

107
21. Théorème d’Artin

Questions.
1. Montrer que le corps fixe E G de G dans E est bien un corps.
2. Soit φ0 : F [α] → K un morphisme de corps et P le polynôme minimal de α.
Montrer que φ0 (P ) est le polynôme minimal de φ(α).
Indication : se rappeler que tous les morphismes de corps sont injectifs, et en
déduire qu’ils sont bijectifs F → F et donc bijectifs F [X] → F [X].
3. Soit α un nombre algébrique sur F et P son polynôme minimal. Pourquoi le
morphisme K[X]/(P (X)) → K[α] donné par X +(P ) 7→ α est-il un isomorphisme ?
4. Soient P et Q deux polynômes unitaires tels que P | Q. Montrer que si Q est
scindé, alors P est scindé.
5. Soit K un corps de décomposition de P . Montrer qu’il existe un F -morphisme
de corps E → K.

6. Vérifier l’énoncé à la main sur l’exemple E = Q( 2).
7. Soit P ∈ F [X] un polynôme de corps de décomposition E. Montrer que

[E : F ] 6 (degP )!.

Donner un exemple où l’égalité est atteinte.



8. Établir directement la carte des sous-corps de Q( 3 2, j)/Q obtenue en commen-
taires avec la correspondance de Galois. Réaliser chacun de ces√sous-corps comme
le corps fixe par un sous-groupe du groupe de Galois Aut(Q( 3 2, j)/Q) ' S3 .

108
Anneaux, corps et théorie des nombres

Développement 22 (L’unique entier entre un carré et un cube FF)

On cherche à déterminer les entiers n tel que n − 1 est un carré et n + 1 est


un cube. On s’intéresse donc à l’équation diophantienne

x2 + 2 = y 3 (1)

d’inconnues x, y ∈ N.

a) Dans un premier temps, on étudie l’anneau Z[i 2]. On montre d’abord qu’il
est factoriel, puis on s’intéresse à certains éléments remarquables (inversibles
et irréductibles).
√ √
(i) Soient a, b ∈ Z[i 2] avec b =6 0. Montrer qu’il existe q ∈ Z[i 2] tel qu’on
ait | ab − q| < 1.

(ii) En déduire que l’anneau Z[i 2] est euclidien.

(iii) Montrer que z ∈ Z[i 2] est√inversible si et seulement si |z|2 = 1. En
déduire les inversibles de Z[i 2].
√ √
(iv) Montrer que i 2 est irréductible dans Z[i 2].
b) Soit (x, y) ∈ Z2 une solution de l’équation x2 + 2 = y 3 .
√ √ √
(i) Montrer que√ kle pgcd de x + i 2 et x − i 2 dans Z[i 2] est de la
forme ±(i 2) pour k = 0, 1, 2 ou 3.
√ √
(ii) Si k 6= 0, montrer que i 2 divise x dans Z[i 2], puis que c’est impossible.
(iii) En déduire que x = ±5.
(iv) Conclure quant aux solutions de l’équation (1) et aux valeurs possibles
d’un entier n tel que n − 1 est un carré et n + 1 un cube.

Leçons concernées : 122, 126, 142

Ce développement présente une méthode de résolution d’équation diophantienne


et trouve donc sa place en leçon 126. On illustre une nouvelle fois la différence
de complexité entre l’énoncé d’un problème √ arithmétique et sa résolution. Ici, on
utilise de manière centrale le fait que Z[i 2] est un anneau à pgcd (en montrant
qu’il est euclidien). Ce développement d’inscrit donc dans le cadre de la leçon 142,
et (dans une moindre mesure) de la leçon 122.

Correction.
a
√ √
a) (i) Soient x, y ∈ R tels que = x + i 2y, ce qui est possible car j(1, i 2)
b k
est une base de C en tant que R-espace vectoriel. On définit x0 = x + 12
j k √
(respectivement y 0 = y + 12 ) et on pose q = x0 + i 2y 0 . Alors x0 (resp. y 0 ) est un

entier le plus proche de x (resp. y) et q est un élément de Z[i 2] le plus proche
de ab (voir Figure 1.4).

109
22. L’unique entier entre un carré et un cube

a
b


q = x0 + i 2y 0


Figure 1.4 – La maille du réseau Z[i 2] contenant ab .

On a alors
2
a 1 1
−q = (x − x0 )2 + 2(y − y 0 )2 6 + 2 × < 1.
b 4 4

(ii) Soient a, b ∈ Z[i 2]√ tels que b 6= 0. On cherche à montrer l’existence de
deux éléments q, r ∈ Z[i 2] √ tels que a = bq + r et |r| < |b|. D’après la question

précédente, il existe q ∈ Z[i 2] tel que | ab − q| < 1. En posant r = a − bq ∈ Z[i 2],
on obtient que a = bq + r et | rb | < 1. Ainsi, il existe une division euclidienne

sur Z[i 2], qui est donc un anneau euclidien.
√ √
(iii) Soit z = a + i 2b un inversible de Z[i 2]. Alors on a

1 = |zz −1 |2 = |z|2 |z −1 |2 .

Comme |z|2 et |z −1√|2 sont des entiers positifs, on a |z|2 = 1. Réciproquement,


√ √ si
un élément z ∈ Z[i 2] vérifie |z|2 = 1, on a z z̄ = 1 et z̄ = a − i b ∈ Z[i 2]. Ainsi,
l’élément z est inversible.
La condition |z|2 = 1 se réécrit a2 +√2b2 = 1 ; nécessairement a = ±1 et b = 0. On
en déduit que les inversibles de Z[i 2] sont 1 et −1.
√ √ √
(iv) Supposons que i 2 = (a + i 2b)(c + i 2d) avec a, b, c, d ∈ Z. Alors on a
√ 2 √ 2 √ 2
2 = i 2 = a + i 2b c + i 2d = (a2 + 2b2 )(c2 + 2d2 ).

Comme 2 est premier dans Z, on a a2 + 2b2 = 1 (donc |a| √ = 1 et b = √ 0) ou


c2 + 2d2 = 1 (donc√|c| = 1 et d = 0), ce qui assure
√ que a + i 2b ou c + i 2d est
inversible. Ainsi, i 2 est irréductible dans Z[i 2].
√ √ √ √
b) (i) Soit d le pgcd de x+i 2 et x−i 2 dans √ Z[i 2] (qui
√ existe√car Z[i 2] est

euclidien,√donc principal). Alors d divise (x + i 2) − (x − i 2) = 2i 2 = −(i √ 2)3 .
Comme i 2 est irréductible par d)(iv), et comme
√ k les seuls inversibles de Z[i 2]
sont ±1, le pgcd d est bien de la forme ±(i 2) avec 0 6 k 6 3.
√ √ √ √
(ii) Supposons
√ 2 que k 6= 0. Alors√
i 2 divise√d, donc x+i 2 et x−i √2, dans Z[i 2].
Alors (i 2) = −2 divise (x + i 2)(x√− i 2) = x2 + 2 dans Z[i 2]. On a donc
x2 + 2 = −2q pour un certain q ∈ Z[i 2].

110
Anneaux, corps et théorie des nombres

Comme −2 et x2 + 2 sont entiers, on peut aussi écrire une division euclidienne


dans Z : il existe q 0 , r0 ∈ Z tels que x2 + 2 = −2q 0 + r0 et 0 6 r0 < 2.

Cette relation est aussi une division euclidienne dans Z[i 2]. Par unicité du
quotient et du reste d’une division euclidienne dans cet anneau, on obtient que le
reste r0 est nul, de sorte que −2 divise x2 + 2 dans Z.
On obtient alors que y 3 est pair, d’où y est pair (car 2 est premier dans Z). En
considérant l’équation (1) modulo 4, on obtient alors x2 ≡ 2 mod 4. Or, les seuls
carrés dans Z/4Z sont 0 et 1, d’où la contradiction recherchée.
(iii) D’après la question
√ précédente,
√ on a k = 0, c’est-à-dire que d = ±1, donc
en particulier x + i 2 et x − i 2 sont premiers entre eux. Comme √ leur produit

est un cube, ce sont tous les deux des cubes. Écrivons donc x + i 2 = (a + i 2b)3 .
On développe : √ √
x + i 2 = a3 − 6ab2 + i 2(3a2 b − 2b3 ). (2)
√ √
Par unicité de la décomposition d’un élément de Z[i 2] sur la base (1, i 2),
on peut identifier les composantes, et on obtient alors x = a(a2 − 6b2 ) ainsi
que 1 = b(3a2 − 2b2 ). La deuxième équation fournit alors b = 1 et a = ±1. En
injectant ces données dans la première, on trouve x = ±5.
√ √
√ kd le pgcd de x + i 2 et x − i 2.
(iv) Si (x, y) est une solution de (1), on note
Par la question b), d est de la forme ±(i 2) pour 0 6 k 6 3. Par c) et d),
on obtient que x = ±5. On en déduit alors y = 3. Les seules solutions possibles
de (1) sont donc (±5, 3), dont on vérifie aisément qu’elles sont effectivement des
solutions.
Pour conclure, on remarque que ces deux solutions correspondent à l’entier 26, qui
est donc l’unique entier cerné (inférieurement) par un carré et (supérieurement)
par un cube.

Commentaires.
© Les équations diophantiennes forment un domaine vaste et difficile dans lequel
peu de choses sont connues. De manière générale, il n’y a pas de méthode systé-
matique de résolution d’une équation diophantienne. C’était l’objet du dixième
problème de Hilbert, résolu négativement par Matiyasevich.
On peut en revanche résoudre le cas des petits degrés. Par exemple, le cas du
degré 1 (c’est-à-dire des équations diophantiennes de la forme ax + by = c) est
classique, et peut être résolu algorithmiquement via l’algorithme d’Euclide.
Le degré 2 fournit déjà des exemples difficiles. On peut par exemple citer les
équations de Pell-Fermat x2 ± ny 2 = ±1 pour n ∈ N∗ fixé. Dans ce cas, on peut
quand même obtenir des informations grâce au principe de Hasse, qui prouve
l’existence d’une solution rationnelle si et seulement s’il n’y a pas d’obstruction
locale, c’est-à-dire s’il existe une solution réelle, ainsi que modulo tout nombre
premier. Ceci est détaillé dans le Développement 23.
Le degré 3 a donné naissance à la riche théorie des courbes elliptiques.
© On trouve des traces de l’équation

x2 + c = y 3

111
22. L’unique entier entre un carré et un cube

dans les travaux de Bachet en 1621 (d’où le nom « équation de Bachet » donné à
ce type de relation). Il montre que si (x, y) est une solution rationnelle, alors c’est
aussi le cas de !
y 4 − 6cy −y 6 − 20cy 3 + 8c2
, ,
4x2 8x3
ce qui permet d’obtenir une infinité de solutions dès qu’on part d’une solution
où x et y sont non nuls et que c ∈/ {−1, 432}.
Le cas des solutions entières apparaît (avec c = 2) dans un défi lancé par Fermat à
la Royal Society vers 1650. Fermat conjecturait qu’il n’y avait que deux solutions
entières, ce qu’on montre ici. Euler proposa une preuve de ce résultat en 1730,
malheureusement fausse. La résolution complète de l’équation date seulement
du XIXe siècle. En 1908, Thue montre un résultat plus fort : pour tout entier
c 6= 0, l’équation de Bachet n’admet qu’un nombre fini de solutions entières. On
connaît même une borne explicite due à Baker (1968) :

max(x, y) 6 exp(1010 c10000 ).

© Le titre du développement invite aussi à considérer l’équation diophantienne


analogue
x2 − 2 = y 3 .

Bien que Z[ √ 2] soit aussi euclidien, cet anneau comporte beaucoup plus d’inver-
sibles que Z[i 2]. Ceci complique la tâche, mais l’analyse précédente se transpose
avec succès à cette nouvelle équation.
© Les équations diophantiennes tirent leur complexité des liens qu’elles établissent
entre sommes (ici, x2 + 2) et produits (ici, y 3 ). La méthode présentée dans ce
développement repose sur une idée générale : factoriser la somme x2 + 2 en
un produit. Ici, même lorsque x2 + 2 est irréductible, on peut le factoriser en
considérant un
√ anneau plus grand. Celui qu’on a choisi dans l’énoncé, à savoir
l"anneau Z[i 2], est en fait le plus petit anneau permettant de factoriser tous
les entiers x2 + 2 pour x ∈ Z, à savoir l’anneau de rupture Z[X]/(X 2 + 2). En
contrepartie, on doit étudier des propriétés de divisibilité dans un anneau plus
compliqué que celui des entiers.
© L’application
√ z 7→ |z|2 (appelée norme) est très utile dans l’étude des an-
neaux Z[ d], ou plus généralement des anneaux de type fini en tant que Z-module
(ce qui inclut le cas des Z[x1 , . . . , xn ] où les xi sont des éléments algébriques sur Z).
Comme on l’a illustré ici grâce à sa multiplicativité, elle permet par exemple de
donner un critère simple d’irréductibilité et d’inversibilité. Cependant, elle ne
permet pas toujours d’obtenir un anneau euclidien pour tout entier d (elle n’est
pas toujours un stathme).

112
Anneaux, corps et théorie des nombres

Questions.

1. Dans la question a)(i), justifier que q est un élément de Z[i 2] le plus proche
de ab . Quand y a-t-il unicité ?
2. Lors de l’identification des composantes dans la question d), pourquoi la
deuxième équation fournit-elle b = 1 et pas seulement b = ±1 ?
3. Soit n un entier et A un anneau factoriel. Montrer que si a et b sont deux
éléments de A premiers entre eux, et que ab est une puissance n-ème, alors a et b
sont aussi des puissances n-ièmes.
4. Montrer que tout élément premier d’un anneau intègre est irréductible. La
réciproque est-elle vraie ? Et dans un anneau factoriel ?

5. Montrer que Z[ 3] est euclidien.
6. Soit p un nombre premier. Montrer l’isomorphisme Fp [X]/(X 2 + 1) ' Z[i]/(p)
et en déduire que p est somme de deux carrés si et seulement si p = 2 ou p − 1 est
multiple de 4.
7. Étant donnés deux entiers a, b non nuls, quelles sont les solutions de l’équation
diophantienne ax + by = 1 d’inconnues entières x et y ?
8. Résoudre l’équation x2 + 4 = y 3 d’inconnues x, y ∈ Z.
9. Résoudre l’équation x2 + 1 = y 3 d’inconnues x, y ∈ Z.
Indication : on pourra considérer l’équation dans Z[i].
10. Résoudre l’équation x2 − 2 = y 3 d’inconnues x, y ∈ Z.

Indication : cette fois, l’anneau Z[ 2] comporte une infinité d’inversibles (les-
quels ?). Néanmoins, on peut suivre la méthode de l’énoncé : au lieu de calculer
explicitement le pgcd d,
√ on peut distinguer
√ deux cas
√ selon qu’il existe ou non un
élément premier de Z[ 2] divisant x + 2 et x − 2.
11. Montrer que l’équation y 3 = x2 + 432 n’admet que deux solutions rationnelles.
Indication : on pourra montrer que cette équation admet une solution rationnelle
si et seulement si l’équation (36z + x)3 + (36z − x)3 = (6y)3 admet une solution
entière, puis utiliser le grand théorème de Fermat.
12. Sans utiliser le grand théorème de Fermat, montrer que l’équation diophan-
tienne y 3 = x2 + 432 n’admet que deux solutions (dans Z2 ).
h √ i
1+i 3
Indication : on pourra considérer l’équation dans Z 2 .

113
23. Valeurs absolues sur Q

Développement 23 (Valeurs absolues sur Q FF)

On appelle valeur absolue sur Q toute application | · | : Q → R+ vérifiant les


axiomes suivants.
• Séparation : pour tout x ∈ Q, |x| = 0 ⇔ x = 0.
• Multiplicativité : pour tout x, y ∈ Q, |xy| = |x||y|.
• Inégalité triangulaire : pour tout x, y ∈ Q, |x + y| 6 |x| + |y|.
L’application valant 0 en 0 et 1 sur Q∗ est appelée valeur absolue triviale. On
note | · |∞ la valeur absolue usuelle sur Q et, pour tout nombre premier p, on
définit |0|p = 0 et pour tout x ∈ Q∗ ,
pk a
|x|p = p−k , où x= avec a ∧ p = b ∧ p = 1.
b
Deux valeurs absolues | · | et k · k sont dites équivalentes s’il existe α ∈ R∗+ tel
que, pour tout x ∈ Q, on a |x| = kxkα . Le but de ce développement est de
montrer le théorème d’Ostrowski :
Toute valeur absolue non triviale sur Q est équivalente à | · |∞ ou
à | · |p pour un certain entier p premier.

a) Montrer que pour tout nombre premier p, | · |p est une valeur absolue.
b) Soit | · | une valeur absolue non triviale telle que Z soit borné, i.e. il existe
un entier N tel que |n| 6 N pour tout n ∈ Z.
(i) Montrer qu’il existe un nombre premier p tel que |p| < 1.
(ii) Montrer que pour tout entier n premier à p, on a |n| = 1. En déduire
que | · | est équivalente à | · |p .
c) Soit | · | une valeur absolue non triviale telle que Z soit non borné. Soit a
un entier supérieur à 2 tel que |a| =
6 1, et M = max{|1|, . . . , |a − 1|}.
(i) Montrer que pour tout entier n ∈ N∗ , il existe un entier rn 6 ln n
ln a tel que
rn
X
|n| 6 M |a|m .
m=0

(ii) Si |a| 6 1, montrer que pour tous les entiers n, k, on a

ln n
 
k
|n| 6 M k +1 ,
ln a
et en déduire une contradiction.
ln |n| ln |a|
(iii) Si |a| > 1, montrer que pour tout entier n on a ln n 6 ln a .
(iv) En déduire que | · | est équivalente à | · |∞ .

Leçons concernées : 121, 122, 223

114
Anneaux, corps et théorie des nombres

Ce développement trouve naturellement sa place dans la leçon 121 étant donné


que le résultat d’Ostrowski concerne les valeurs absolues p-adiques. L’utilisation
de l’identité de Bézout en question b), ainsi que l’utilisation massive de suites
convergentes peuvent justifier une intégration dans les leçons 122, et 223, à
condition de modifier le développement, par exemple en remplaçant la question c)
(resp. b)) par la question 5. (resp. 6.) ci-après.

Correction.
a) Soit p un nombre premier. Montrons que | · |p est une valeur absolue.
• Par définition, | · |p est bien à valeurs positives, et vérifie la condition de
séparation.
• Montrons maintenant que |·|p est multiplicative. Soient x et y deux rationnels,
k `
et a, b, c, d, k, ` des entiers relatifs vérifiant bd 6= 0, x = p b a et y = pdc avec
t ∧ p = 1 pour tout t ∈ {a, b, c, d}. Alors

pk+` ac
xy = avec ac ∧ p = bd ∧ p = 1,
bd
d’où |xy|p = p−(k+`) = p−k · p−` = |x|p |y|p . Ainsi | · |p est multiplicative.
• Il reste à montrer que | · |p satisfait l’inégalité triangulaire. Reprenons les
notations précédentes, en supposant de plus par symétrie que k 6 `. Alors
on peut écrire
!
k a p`−k c ad + p`−k b
x+y =p + = pk .
b d bd

Comme ad + p`−k b est entier, on peut décomposer ad + p`−k b = pr q avec q


k+r
et r des entiers tels que q ∧ p = 1. Ainsi, on a x + y = p bd q . Comme p est
premier à b et d, on obtient finalement

|x + y|p = p−(k+r) 6 p−k = max{|x|p , |y|p } 6 |x|p + |y|p .

Ainsi, | · |p vérifie l’inégalité triangulaire et est donc bien une valeur absolue.
b) (i) Commençons par montrer qu’il existe n ∈ N∗ tel que |n| < 1.
Tout d’abord, on utilise que | · | est non triviale pour construire un entier n non
nul tel que |n| =
6 1. Si un tel entier n’existe pas, alors tout entier non nul a pour
valeur absolue 1. En particulier, pour tout rationnel non nul x = ab , on a

|a|
|x| = = 1.
|b|

Ainsi, la valeur absolue | · | est triviale, ce qui est exclu.


Il existe donc un entier n non nul tel que |n| = 6 1. Quitte à remplacer n par −n,
on peut supposer que n est un entier positif. Si |n| > 1, alors la suite (|nk |)k∈N
tend vers +∞ quand k → +∞ par multiplicativité, ce qui contredit que Z est
borné pour | · |. Donc |n| < 1.

115
23. Valeurs absolues sur Q

Il reste à montrer qu’on peut supposer n premier. Décomposons n en produit


de facteurs premiers : n = pa11 · · · par r avec p1 , . . . , pr des nombres premiers et
a1 , . . . , ar des entiers positifs. Alors on a
|n| = |p1 |a1 · · · |pr |ar < 1.
Ainsi, au moins une des valeurs absolues |p1 |, . . . , |pr | est strictement inférieure
à 1, ce qui fournit le nombre premier p recherché.
(ii) Soit n un entier premier à p. Pour tout k ∈ N∗ , le théorème de Bézout
fournit alors deux entiers ak , bk tels que ak nk + bk pk = 1. D’après la question
précédente, on a |n| 6 1. De plus, si |n| < 1, alors on a
|1| = |ak nk + bk pk | 6 |ak nk | + |bk pk | 6 |ak | · |n|k + |bk | · |p|k −→ 0.
k→+∞

D’où |1| = 0, ce qui est impossible d’après la propriété de séparation pour | · |p .


On a donc bien |n| = 1.
pk a
Soit x un rationnel non nul ; écrivons x = b avec a, b des entiers premiers à p.
Alors, en notant α = −lnlnp|p| > 0, on a

|p|k |a| α
|x| = = |p|k = p−kα = pk = |x|αp .
|b| p

Ainsi, | · | est équivalente à | · |p .


c) (i) Soit n un entier non nul, et écrivons n en base a :
rn
X
n= αm am ,
m=0

où chaque αm est un entier compris entre 0 et a − 1, et rn est le nombre de chiffres


n
de l’écriture, qui vérifie arn 6 n et donc rn 6 ln
ln a car a > 1. En passant à la
valeur absolue, on obtient
rn
X rn
X
|n| 6 |αm | · |a|m 6 M |a|m .
m=0 m=0

(ii) Soient n, k deux entiers non nuls. Appliquons l’inégalité précédente à nk :


r
nk
X
k
|n| 6 M |a|m . (1)
m=0

Si |a| 6 1, on obtient
!
ln(nk ) ln n
 
k
|n| 6 M (rnk + 1) 6 M +1 =M k +1 .
ln a ln a
En passant à la racine k-ième, on obtient finalement
1
ln n

1 k
|n| 6 M k k +1 .
ln a
Le membre droit converge vers 1 quand k tend vers +∞, ce qui montre l’inéga-
lité |n| 6 1. Ainsi, Z est borné pour | · |, ce qui est contraire à l’hypothèse.

116
Anneaux, corps et théorie des nombres

(iii) On sait donc maintenant que |a| > 1. Soient n, k deux entiers non nuls. On
passe à nouveau à la racine k-ième dans l’équation (1), en majorant différemment :
 1 !1
r
nk k 1 
|a|rnk +1 − 1 k
M |a| 1

k
|a|rnk − |a|−1
X
m k
|n| 6 M |a| 6 M 6
m=0
|a| − 1 |a| − 1
1  1 1 1
M |a| M |a|
 
k n k ln n ln n
k ln

−1
|a| ln a 1 − |a|−k ln a −1
k k
6 |a| ln a − |a| = .
|a| − 1 |a| − 1 | {z }
−→ 1
| {z }
−→ 1 k→+∞
k→+∞

ln n ln |n| ln |a|
On a donc |n| 6 |a| ln a , d’où finalement ln n 6 ln a .
(iv) D’après la question c)(ii), on sait que tout entier n > 1 vérifie |n| > 1.
Si |n| > 1, on peut refaire les calculs des questions précédentes, cette fois en écrivant
a en base n. On obtient alors que lnln|n| ln |a| ln |x|
n = ln a . Autrement dit, le rapport ln x est
constant sur les entiers x de valeur absolue strictement plus grande que 1. Notons
α cette constante, qui est positive.
Comme | · | n’est pas triviale, il existe un entier a tel que |a| > 1. Soit n ∈ N∗ .
Pour tout entier k, on a |nak | = |n| · |a|k . Comme |a| > 1, on peut trouver un k
assez grand pour que |nak | > 1. Alors on a

|n|akα = |n| · |a|k = |nak | = (nak )α = nα akα ,

d’où |n| = nα .
Ainsi, on a |n| = nα = |n|α∞ pour tout entier n, ce qu’on peut étendre par
multiplicativité à Z puis à Q. On obtient finalement que | · | est équivalente à la
valeur absolue usuelle | · |∞ .

Commentaires.
© Chaque valeur absolue | · | permet de définir une topologie (métrique) sur Q :
celle engendrée par les boules ouvertes pour la distance associée (x, y) 7→ |x − y|.
La topologie usuelle est obtenue avec la valeur absolue | · |∞ , la topologie discrète
provient de la valeur absolue triviale et, enfin, la topologie p-adique est celle fournie
par la valeur absolue | · |p pour tout entier p premier. Bien que ce ne soit pas le
point de vue abordé dans le développement, l’équivalence de valeurs absolues est
traditionnellement définie comme l’équivalence des topologies associées. Comme
on le verra dans les questions, les deux points de vue sont équivalents : deux
valeurs absolues sont équivalentes (au sens du développement) si et seulement si
elles engendrent la même topologie.
© Le théorème d’Ostrowski assure qu’il n’existe que trois types de (topologies
associées à des) valeurs absolues sur Q : la valeur absolue triviale, la valeur absolue
usuelle, et les valeurs absolues p-adiques. Ces dernières sont qualifiées de non-
archimédiennes, à la différence de | · |∞ , dite archimédienne. La propriété « être
archimédien » peut s’énoncer de différentes manières : « il n’y a pas d’élément

117
23. Valeurs absolues sur Q

infiniment petit », « on peut vider l’océan avec une petite cuillère », ou plus
formellement :
∀M, ε ∈ Q∗ , ∃n ∈ N, |M | 6 |nε|.

© Les valeurs absolues p-adiques vérifient une inégalité plus forte que l’inégalité
triangulaire. Il s’agit de l’inégalité ultramétrique :

∀x, y ∈ Q, |x + y| 6 max{|x|, |y|}.

Le comportement ultramétrique est radicalement différent du monde archimédien.


Parmi les bizarreries classiques, on peut citer :
• Tout point d’une boule en est le centre.
• Si deux boules s’intersectent, alors l’une contient l’autre.
• Toute boule ouverte est fermée, et toute boule fermée de rayon non nul est
ouverte.
• Tout triangle est isocèle.
• Une série converge si et seulement si son terme général tend vers 0.
• Le complété Qp de Q pour | · |p est totalement discontinu, c’est-à-dire que
ses composantes connexes sont les singletons.
© Le théorème d’Ostrowski détermine l’ensemble des topologies sur Q construites
à partir d’une valeur absolue. Il est naturel de se demander si le système de
représentants choisi (c’est-à-dire | · |∞ et les | · |p ) est bien choisi, ou si on ne
gagnerait pas de meilleures propriétés en remplaçant | · |∞ par | · |2,03
∞ . La formule
du produit (établie en question 5.), ainsi que l’égalité n = |n|∞ valide pour tout
entier n ∈ N, sont des arguments en faveur du choix actuel.
© D’après le théorème d’Ostrowski, il y a deux types de complétions non-triviales
de Q, à savoir R (complété de Q pour |·|∞ ) et les corps p-adiques Qp (complété de Q
pour | · |p ). Ces corps ont une importance considérable dans différentes branches
des mathématiques, notamment en théorie des nombres. On peut par exemple citer
le théorème de Hasse-Minkowski, établissant qu’une forme quadratique s’annule
sur Qn si et seulement si elle s’annule sur Rn et tous les Qnp . Ceci permet de
classifier les formes quadratiques sur Q en utilisant des invariants des formes
quadratiques sur ses complétions (signature sur R, invariant de Hasse sur Qp ).
Malheureusement, ce résultat ne s’étend pas à des équations cubiques comme le
montre le (contre-)exemple de Selmer : l’équation 3x3 + 4y 3 + 5z 3 = 0 admet des
solutions non triviales sur R et sur chaque Qp , mais pas sur Q.
© Le théorème de Hasse-Minkowski est un exemple de principe local-global : il
permet de ramener l’étude d’une forme quadratique sur Q à des environnements
« locaux » où on dispose de plus d’outils. Par exemple, la complétude permet
l’utilisation d’outils analytiques, et la structure des corps p-adiques donne lieu à
des résultats de relèvement comme le lemme de Hensel (voir le Développement 13).
Cette démarche est une généralisation de l’idée naïve consistant à réduire modulo p
une équation diophantienne pour déterminer des conditions nécessaires vérifiées
par ses solutions, puis à montrer que ces conditions sont en fait suffisantes.

118
Anneaux, corps et théorie des nombres

© Le théorème d’Ostrowski se généralise dans le cas des fractions rationnelles :


si K est un corps, toute valeur absolue sur K(X) triviale sur K est équivalente
à | · |∞ ou à | · |P pour un certain polynôme P irréductible unitaire.
Ces valeurs absolues sont définies pour une fraction rationnelle F non nulle
q
par |F |∞ = 2deg(F ) , et |F |P = 2−q deg(P ) où q est l’unique entier tel que F = PBA
avec A, B deux polynômes premiers à P . À nouveau, la formule du produit est
vérifiée.
© La classification des valeurs absolues se généralise au cas d’un corps de nombres
(c’est-à-dire une extension algébrique finie K de Q). En effet, toute valeur absolue
archimédienne sur K est équivalente à la restriction du module sur C composé
avec une injection de K dans C. De plus, toute valeur absolue non-archimédienne
sur K est équivalente à une valeur absolue p-adique où p est un idéal premier non
nul de l’anneau des entiers de K (définie de manière similaire à | · |p ).

Questions.
1. Montrer que pour toute valeur absolue sur Q, on a |1| = 1, |−n| = |n| et
| ab | = |a|
|b| pour tout a, b, n ∈ N avec b 6= 0.
2. Justifier l’égalité |n| = | − n| utilisée en question b)(i).
3. Justifier les limites obtenues dans les questions c)(ii) et (iii).
4. Montrer que | · |∞ et les | · |p sont deux à deux non équivalentes.
5. Montrer la formule du produit :

∀x ∈ Q∗ ,
Y
|x|∞ · |x|2 · |x|3 · |x|5 · · · = |x|∞ · |x|p = 1.
p premier

6. Soient | · | et k · k deux valeurs absolues sur Q. Montrer que les assertions


suivantes sont équivalentes :
• | · | et k · k sont équivalentes.
• | · | et k · k définissent la même topologie.
• Pour toute suite (xn )n∈N de rationnels, |xn | −→ 0 ⇐⇒ kxn k −→ 0.
n→+∞ n→+∞

119
24. Théorème de Fermat et cyclotomie

Développement 24 (Théorème de Fermat et cyclotomie FFF)

Soit p > 3 un nombre premier. Soit ζ une racine p-ième primitive de


l’unité, Q(ζ) le corps cyclotomique de degré p et Z[ζ] son anneau des en-
tiers. On suppose la propriété suivante :
Si un idéal a ⊂ Z[ζ] est tel que ap est principal, alors a est principal. (?)
On s’intéresse à l’équation de Fermat

xp + y p = z p , (1)

où x, y et z sont des entiers premiers entre eux et p - xyz.


a) Montrer que l’équation de Fermat (1) n’admet pas de solution pour p = 3.
On suppose désormais p > 5.
b) Dans Z[ζ], montrer les propriétés suivantes :
(i) les 1 − ζ j , pour j ∈ J1, p − 1K, sont associés ;
(ii) 1 + ζ est une unité ;
(iii) p est associé à (1 − ζ)p−1 ;
(iv) (1 − ζ) est le seul idéal premier de Z[ζ] qui divise p.
c) Montrer que pour tout v ∈ Z[ζ]× , v/v̄ est une racine de l’unité dans C.
d) Considérons la factorisation
p−1
Y
p p
x +y = (x + ζ j y). (2)
j=0

(i) Montrer que les x + ζ j y, pour 0 6 j 6 p − 1, sont premiers entre eux.


(ii) En déduire que x + ζy est associé à une puissance p-ième, notée tp pour
un certain t ∈ Z[ζ].
(iii) En considérant t/t̄ et t̄/t, en tirer des relations linéaires non-triviales
entre les ζ j modulo pZ[ζ].
(iv) En déduire le théorème de Kummer :
Pour les nombres premiers p vérifiant la propriété (?), l’équation de
Fermat xp + y p = z p n’a pas de solution non triviale avec p - xyz.

Leçons concernées : 102, 120, 121, 122, 126, 142, 144


Le développement repose sur le calcul de congruences typiques de l’arithmétique
(120, 121, 126). Il s’agit d’une écriture calculatoire de raisonnements dans des
anneaux quotientés par des idéaux. Ici, c’est le fait que les anneaux sont princi-
paux (122) ou se comportent comme tels (c’est le sens de l’hypothèse faite sur p,
qui pourrait être remplacée par l’hypothèse très forte que Z[ζ] est principal, voir les
commentaires suivant le développement), qui est central et assure que l’arithmé-
tique se comporte de manière similaire à celle de Z. Les propriétés des racines de

120
Anneaux, corps et théorie des nombres

l’unité (102) sont omniprésentes, et peuvent être omises du corps du développement


et mentionnées dans le plan ou utilisées sans avertissement, à condition de bien
en connaître les justifications. Elles ont été introduites ici par complétude, ainsi
que le lemme de Kronecker établissant que les racines d’un polynôme de Z[X]
sont des racines de l’unité si elles sont toutes de module inférieur à 1, pouvant
justifier l’intégration de ce développement comme illustration de certaines leçons
sur les polynômes (142, 144). Certaines parties peuvent être présentées dans le
détail, en échange de ne traiter que l’un des quatre cas particuliers de la fin du
développement, les autres étant similaires.
Correction.
a) L’équation x3 + y 3 = z 3 n’admet pas de solution entière telle que 3 - xyz. En
effet, considérons l’équation modulo 9 : les cubes non nuls modulo neuf sont égaux
à ±1, de sorte que le membre de droite z 3 serait donc congru à ±1, alors que le
membre de gauche serait congru à −2, 0 ou 2, ce qui n’est pas possible. Ainsi, on
peut se limiter à traiter le cas p > 5.
b) (i) Rappelons la formule donnant la somme des termes consécutifs d’une
progression géométrique, pour 1 6 j 6 p − 1,
1 − ζj
uj = = 1 + ζ + · · · + ζ j−1 ∈ Z[ζ].
1−ζ

En notant j 0 le représentant d’un inverse de j modulo 1 pZ, autrement dit un


entier tel que jj 0 ≡ 1 (mod pZ), il vient de même
0
1−ζ 1 − (ζ j )j 0
u−1
j = = = 1 + ζ j + · · · + ζ j(j −1) ∈ Z[ζ].
1 − ζj 1 − ζj

Ainsi, l’inverse de uj ∈ Z[ζ] dans Q(ζ) est dans Z[ζ], donc uj ∈ Z[ζ]× , autrement
dit uj est une unité de Z[ζ]. Ainsi, tous les 1 − ζ j sont associés à l’élément 1 − ζ,
et par transitivité tous les 1 − ζ j associés entre eux.
(ii) On déduit en particulier de ce qui précède que 1 − ζ 2 = (1 − ζ)(1 + ζ) est
égal à 1 − ζ à une unité près, donc en simplifiant par 1 − ζ on déduit que 1 + ζ
est une unité.
(iii) Rappelons la décomposition du polynôme cyclotomique
p−1
Y
Φp = 1 + X + · · · + X p−1 = (X − ζ j ),
j=1

qui induit en particulier, en substituant X = 1,


 
p−1 p−1
Y 1 − ζj Y
p= (1 − ζ) =  uj  (1 − ζ)p−1 ,
j=1
1 − ζ j=1

1. Pour éviter les confusions, nous notons explicitement l’anneau sous-jacent aux idéaux dans
ce développement. En effet, « modulo p » signifie modulo l’idéal engendré par p, mais celui-ci
est pZ lorsque considéré comme idéal de Z, et pZ[ζ] lorsque considéré comme idéal de Z[ζ].

121
24. Théorème de Fermat et cyclotomie

où les uj , et donc leur produit, sont des unités par le résultat obtenu en (i).
Ainsi, p est associé à (1 − ζ)p−1 .
(iv) En considérant les normes 2 de la relation ci-avant, pp−1 = N (1 − ζ)p−1
où N dénote la norme dans Z[ζ]. Puisque N (1 − ζ) ∈ Z, on a N (1 − ζ) = ±p qui
est premier, donc que l’idéal (1 − ζ) est premier. Le point (iii) ci-avant implique
que pZ[ζ] = (1 − ζ)p−1 . Par unicité de la factorisation des idéaux en produit
d’idéaux premiers, on en déduit que (1 − ζ) est le seul idéal premier divisant pZ[ζ]
dans l’anneau Z[ζ].
c) La conjugaison complexe est un automorphisme de corps de Q(ζ)/Q, donc un
élément du groupe de Galois associé. Puisque ce groupe de Galois est abélien,
comme pour toute extension cyclotomique 3 , on en déduit que pour tout auto-
morphisme σ ∈ Gal(Q(ζ)/Q) et v ∈ Z[ζ]× , on a σ(v̄) = σ(v). Rappelons que la
norme d’un corps de nombres est le produit de tous les conjugués par le groupe de
Galois, ce qui implique que N v = N v̄. En particulier, v/v̄ et ses conjugués sont de
norme 1. Puisque son polynôme minimal est à coefficients entiers, cela implique
donc que ce sont des racines de l’unité dans C par le lemme de Kronecker (voir
les commentaires suivant le développement pour une preuve de ce fait).
d) L’équation de Fermat (1) se factorise en
p−1
Y
z p = xp + y p = (x + ζ j y). (3)
j=0

Soit d un facteur commun à deux des x + ζ j y, pour 0 6 j 6 p − 1. C’est également


0
un diviseur de la différence ζ j y(1 − ζ j −j ). Par la question b)(i), cette différence
s’écrit vy(1 − ζ) pour une certaine unité v. Ainsi, puisque y(1 − ζ) | yp par la
question b)(iv), on a d | yp. Par ailleurs, l’équation de Fermat sous la forme (3)
implique que d | z p . Or, z p et yp sont premiers entre eux par hypothèse, donc d
est une unité. Ainsi, les x + ζ j y, pour 0 6 j 6 p − 1 sont premiers entre eux.
e) Le produit des idéaux (x + yζ j ) étant égal à la puissance p-ième z p donc,
puisqu’ils sont premiers entre eux, chacun des facteurs est une puissance p-ième.
En particulier pour j = 1, on en tire que l’idéal principal (x + yζ) s’écrit sous
la forme ap pour un certain idéal a de Z[ζ]. On en déduit, par la propriété sur
les idéaux supposée dans l’énoncé, que a est principal : il existe donc t ∈ Z[ζ] tel
que a = (t). On peut donc écrire, pour une certaine unité u de Z[ζ],

x + ζy = utp .

f) Décomposons t dans la base canonique 4 du Z-module Z[ζ],

t = a0 + a1 ζ + · · · + ap−2 ζ p−2 ,
2. La norme d’un élément est égal au produit de tous ses conjugués, i.e. de toutes les racines
de son polynôme minimal. Elle est notamment multiplicative.
3. Voir Développement 19 pour une preuve élémentaire de ce fait.
4. Rappelons que le polynôme minimal de ζ est Φp = 1 + X + · · · + X p−1 le polynôme
cyclotomique d’indice p. En particulier, ζ p−1 est combinaison linéaire des ζ i pour i ∈ J0, p − 2K,
et ceux-ci forment une base du Z-module Z[ζ].

122
Anneaux, corps et théorie des nombres

où les aj sont des éléments de Z. En particulier, en développant explicitement par


la formule du binôme de Newton, il vient

tp ≡ a0 + a1 + · · · + ap−2 mod pZ[ζ],

et donc en particulier tp ≡ t̄p modulo pZ[ζ]. Par ailleurs, la question b) affirme


que u/ū est une racine de l’unité de Z[ζ], autrement dit de la forme ±ζ j . Il vient

x + ζy = utp = ±ζ j ūtp ≡ ±ζ j ūt̄p ≡ ±ζ j (x + ζ̄y) mod pZ[ζ].

On en tire que, dans le cas où u/ū = ζ j , en rappelant que pour les racines de
l’unité ζ̄ = ζ −1 ,
x + yζ − xζ j − yζ j−1 ≡ 0 mod pZ[ζ], (4)

et dans le cas où u/ū = −ζ j ,

x + yζ + xζ j + yζ j−1 ≡ 0 mod pZ[ζ]. (5)

g) Pour prouver le théorème de Kummer, autrement dit que le cas du grand


théorème de Fermat considéré n’admet pas de solutions, il suffit de prouver que
les deux congruences (4) et (5) trouvées ci-avant ne peuvent pas être vérifiées. Par
hypothèse, x et y sont non-nuls modulo p, donc les deux congruences (4) et (5) sont
des relations de dépendances linéaires dans Z[ζ]/pZ[ζ]. Or, la famille (1, ζ, . . . , ζ p−2 )
est libre dans Z[ζ]/pZ[ζ]. En effet, on a par les théorèmes d’isomorphismes,

Z[ζ]/pZ[ζ] ' Z[X]/(p, Φp ) ' (Z/pZ)[X]/Φp ' (Z/pZ)[X]/(X − 1)p−1 ,

et la dernière expression 5 de cet anneau quotient a pour base (1, X, . . . , X p−2 ).


En particulier, aucune relation linéaire non-triviale comme ci-avant n’est possible
si les indices 0, 1, j et j − 1 sont différents et inférieurs à p − 2. Cela laisse les
seules possibilités j = 0, j = 1, j = 2 et j = p − 1. Nous traitons chacun de ces
cas un par un, pour prouver qu’en aucun cas les congruences précédentes ne sont
possibles.
• Cas j = 0. L’équation (4) s’écrit y(ζ − ζ −1 ) ≡ 0 modulo pZ[ζ]. Puisque p - y,
en simplifiant par ζ −1 y il vient que 1 − ζ 2 ≡ 0 modulo pZ[ζ], contredisant
l’indépendance linéaire de (1, ζ, . . . , ζ p−2 ), car p > 5.
L’équation (5) donne 2xζ + yζ 2 + y ≡ 0 modulo pZ[ζ], impliquant également
une relation de dépendance linéaire non triviale dans (1, ζ, . . . , ζ p−2 ).
• Cas j = 1. L’équation (4) se réécrit x(1 − ζ) + y(ζ − 1) ≡ 0 modulo pZ[ζ].
Or p = u(1 − ζ)p−1 par la question b)(iii), donc on tire en particulier en
simplifiant par (1 − ζ) que x ≡ y modulo (1 − ζ)p−2 Z[ζ]. Or p > 3 et (1 − ζ)
est le seul facteur premier de p dans Z[ζ] donc, puisque x et y sont entiers, on
en déduit que x ≡ y modulo p. Ainsi, en invoquant l’équation de Fermat (1)
on en tire qu’en remplaçant y par −z mutatis mutandis dans tout l’argument
5. Il est possible de se passer de la dernière expression.

123
24. Théorème de Fermat et cyclotomie

depuis la question d), on déduit aussi que x ≡ −z modulo pZ. L’équation


de Fermat (1) donne alors
0 = xp + y p − z p ≡ 3xp mod pZ,

Or, p 6= 3, donc cela implique p | x contrairement à l’hypothèse.


L’équation (5) s’écrit (x + y)(1 + ζ) ≡ 0 modulo pZ[ζ] donc en particulier
x+y ≡ 0 modulo pZ[ζ]. Mais alors, on a z p ≡ (x+y)p ≡ 0 modulo pZ[ζ]. Cela
implique de même que z p ≡ (x + y)p ≡ 0 modulo pZ puisqu’il s’agit d’entiers
et que (1 − ζ) est le seul diviseur de p. Cela est contraire à l’hypothèse p - xyz.
• Cas j = 2. L’équation (4) donne x(1 − ζ 2 ) ≡ 0 modulo pZ[ζ], donc comme
pour le cas j = 0 on en tire que x(1 + ζ) ≡ 0 modulo (1 − ζ)p−2 Z[ζ]. Or 1 + ζ
est une unité par la question b)(ii), donc il vient que x ≡ 0 modulo pZ, ce
qui est contraire à l’hypothèse.
L’équation (5) donne x(1 + ζ 2 ) + 2yζ ≡ 0 mod pZ[ζ], et puisque x est inver-
sible modulo pZ on en tire une relation linéaire impossible dans Z[ζ]/pZ[ζ].
• Cas j = p − 1. L’équation (4) s’écrit alors
x(1 − ζ p−1 ) + y(ζ − ζ p−2 )
= 2x + (x + y)ζ + x(ζ 2 + · · · + ζ p−3 ) + (x − y)ζ p−2
≡0 mod pZ[ζ], (6)

et cela donne une relation linéaire non triviale, exprimant les ζ j , pour
2 6 j 6 p − 3, comme combinaison linéaire des autres ζ i .
L’équation (5) donne x(ζ + ζ 2 ) + y(1 + ζ 3 ) ≡ 0 modulo pZ[ζ], aboutissant
également à une relation de dépendance linéaire non triviale.
Ainsi, aucun des cas précédents n’est possible, et l’équation de Fermat xp +y p = z p
n’admet pas de solution entière avec p - xyz pour p > 3.
Commentaires.
© Ce développement repose sur l’arithmétique élémentaire dans différents anneaux.
Plus précisément, le cadre est parfois relatif à l’arithmétique dans Z, parfois relatif
à celle dans l’anneau des entiers cyclotomiques
Z[ζ] = {a0 + a1 ζ + · · · + ap−2 ζ p−2 : ai ∈ Z}.
Les arguments doivent donc soigneusement rappeler l’anneau dans lequel la
notion de divisibilité est considérée, ainsi que les idéaux par rapport auxquels
les congruences ont lieu : les idéaux pZ et pZ[ζ] sont différents et les deux
interviennent dans ce développement. On évitera donc d’utiliser la notation
habituelle (p) pour parler de l’idéal engendré par p, puisque cette notion dépend
de l’anneau de base. Seuls les idéaux faisant intervenir ζ seront notés de cette
manière, étant nécessairement relatifs à Z[ζ]. Cet incessant ballet entrelaçant
les deux arithmétiques illustre joliment la puissance de la théorie algébrique des
nombres, introduite par Kummer à qui est dû ce résultat important sur l’équation
de Fermat, et qui est à la base de tous les développements récents aboutissant à
la preuve par Wiles du grand théorème de Fermat.

124
Anneaux, corps et théorie des nombres

© L’épopée du grand théorème de Fermat traverse quatre siècles et mérite l’intérêt


qu’on y porte, tant il a été l’un des problèmes les plus recherchés des mathématiques
que pour les nombreuses idées novatrices qu’il a suscitées. Il postule que pour tout
n > 3, l’équation
xn + y n = z n ,

n’a pas de solution avec x, y et z entiers non nuls. Dès 1630 on retrouve cette
assertion dans les travaux de Fermat, en marge de laquelle une fameuse annotation
manuscrite indique qu’il en connait une preuve que la marge en question est trop
petite pour contenir. Il donne toutefois une preuve explicite et élémentaire du cas
n = 4.
En 1753, Euler donne une preuve de cette assertion pour n = 3. Encore près d’un
siècle plus tard, un pas de plus est fait par Dirichlet et Legendre qui résolvent le
cas n = 5 à travers une preuve de haute voltige technique. Il faut attendre Sophie
Germain pour avoir le premier résultat général. Elle prouve en effet que pour p
premier tel que 2p + 1 est également premier, alors l’équation xp + y p = z p n’a
pas de solution avec x, y et z entiers premiers à p.
Kummer apporte une véritable première révolution dans l’approche de ce problème
diophantien en introduisant les idées de la théorie algébrique des nombres, et
notamment en utilisant l’arithmétique dans des corps plus généraux : les corps
cyclotomiques Q(ζ). Ce développement illustre la puissance de cette étape, qui
ouvre la porte aux développements futurs menant jusqu’à la preuve de Wiles du
grand théorème de Fermat en 1994. Pour plus de détails sur cette épopée, voir
par exemple [Hel01].
© L’hypothèse (?) sous laquelle Kummer prouve le résultat est que p est régulier,
autrement dit que p ne divise pas le nombre de classes d’idéaux de l’anneau des
entiers cyclotomiques Z[ζ]. Cela est équivalent à dire que si un idéal a est tel
que ap est principal, alors a est principal. Cette hypothèse peut être remplacée,
pour ne pas avoir à parler d’idéaux, par la version explicite suivante : pour tous
éléments premiers entre eux x1 , . . . , xn dans Z[ζ], si leur produit x1 · · · xn est une
puissance p-ième, alors chacun d’eux est associé à une puissance p-ième. Elle peut
aussi être remplacée par l’hypothèse, toutefois beaucoup plus forte, que Z[ζ] est
un anneau factoriel ou principal. Donnons une idée de la force de ces hypothèses :
• on estime avec quelques heuristiques et des résultats numériques que 61%
des nombres premiers sont réguliers (toutefois, la question de savoir s’il y en
a une infinité est encore ouverte) ;
• à l’inverse, l’hypothèse que l’anneau Z[ζ] des corps cyclotomiques est factoriel
est beaucoup plus restrictive : c’est le cas si, et seulement si, p 6 23.
© La disjonction en deux cas p - xyz et p | xyz introduite dans ce développement
est omniprésente dans les différentes étapes et résultats intermédiaires nécessaires
au théorème de Fermat. Le cas p - xyz est appelé le premier cas du théorème,
le second étant celui où l’une des valeurs est divisible par p. Le second cas est
plus difficile, et il nécessite essentiellement un ingrédient supplémentaire — le
lemme de Kummer — pour pouvoir être abordé. Cela permettrait de compléter

125
24. Théorème de Fermat et cyclotomie

la preuve du grand théorème de Fermat dans les cas de premiers réguliers avec
des arguments similaires à ceux ci-avant.
© Fondamentalement, ce développement est une application élémentaire de l’arith-
métique modulaire dans des anneaux d’entiers de corps de nombres. Le point
central faisant que cette arithmétique vérifie les propriétés usuelles des congruences
est le théorème fondamental de l’arithmétique associé : malgré le fait que certains
anneaux d’entiers tels Z[ζ] ne sont pas factoriels, il y a toutefois unique factorisa-
tion des idéaux en produit d’idéaux premiers, voir [Sam67]. Il faut simplement
garder ce fait à l’esprit, et que la relation d’équivalence naturelle dans ce cadre
est celle d’éléments associés, i.e. égaux à une unité multiplicative près.
© Pour prouver que l’équation de Fermat n’a pas de solution, il suffit de le prouver
pour des puissances premières. En effet, toute solution de xn + y n = z n induit
également une solution pour xk +y k = z k pour tout k divisant n. Plus précisément,
si n = qk et xn + y n = z n , alors (xq )k + (y q )k = (z q )k . L’hypothèse des puissances
premières considérées dans ce développement n’est donc pas restrictive.
© Dans la question c), on se sert d’un résultat qu’il est bon de savoir redémontrer,
et qui est un résultat bienvenu dans les plans de leçons sur les racines de l’unité
ou sur les racines de polynômes. Il s’agit du lemme de Kronecker :
Soit P un polynôme unitaire à coefficients entiers. Si les racines de P
sont de valeurs absolues inférieures à 1, alors ce sont des racines de
l’unité.
Donnons une preuve de ce fait, qui peut être ou non intégrée au développement
selon, les goûts et les besoins. Introduisons les notations, pour n > 1,
d
Y d
Y
P = (X − αi ) et Pn = (X − αin ),
i=1 i=1

où les αi dénotent les racines complexes de P . Supposons |αi | 6 1. Les coefficients


des Pn sont rationnels, comme fonctions symétriques des racines de P , donc
comme fonctions polynomiales à coefficients rationnels des fonctions symétriques
élémentaires de P , donc comme fonctions polynomiales à coefficients rationnels
des coefficients de P . Ce sont également des entiers algébriques, comme fonctions
polynomiales à coefficients entiers en les αi qui sont des entiers algébriques par
définition. Ainsi, les Pn sont des polynômes à coefficients entiers. De plus, le
coefficient de Pn devant X k est au plus kd , indépendant de n. Ainsi, la suite


(Pn )n∈N ne contient qu’un nombre fini de polynômes, il existe donc k > 1 et
k
` > 1 tels que P2k = P2k+` . Ainsi, élever à la puissance 2` permute les αi2 . En
particulier, un nombre fini m > 1 d’itérations de cette procédure agit comme
k k+`m
l’identité, autrement dit αi2 = αi2 pour tout i, ce qui fait que les αi sont des
`m
racines (2 -ièmes) de l’unité.

126
Anneaux, corps et théorie des nombres

Questions.
1. Que se passe-t-il si x, y et z ne sont pas premiers entre eux ?
2. Justifier que si la norme d’un idéal est un entier premier, alors l’idéal est
premier.
3. Justifier la décomposition (2).
4. Montrer que l’anneau des unités Z[ζ]× est {±ζ j : j ∈ J0, p − 2K}.
5. Montrer que Z[ζ] est l’anneau des entiers du corps cyclotomique Q[ζ].
6. Montrer que le polynôme cyclotomique Φp est irréductible.
7. Démontrer que Z[ζ]/(1 − ζ)2 ' (Z/pZ)[X]/(1 − X)2 pour p > 3 mais pas pour
p = 2.
8. Démontrer que (Z/pZ)[X]/Φp ' (Z/pZ)[X]/(X − 1)p−1 .
Indication : montrer que, pour k ∈ J0, p − 1K, on a p−1 ≡ (−1)k modulo p.

k
9. Que dire du cas p = 2 ? Connait-on des solutions de l’équation de Fermat dans
ce cas ? Quelle est la forme de toutes les solutions ?
Indication : factoriser l’équation en x2 = (z − y)(z + y), et justifier que l’on peut
se limiter au cas où z − y et z + y sont premiers entre eux. Ce sont donc tous les
deux des carrés.

127
25. Problème de Waring modulo q

Développement 25 (Problème de Waring modulo q FFF)

Soit k > 1 et p un nombre premier impair.


a) Soit γ > 1. Montrer que le nombre de puissances k-ièmes de (Z/pγ Z)× est

φ(pγ )
.
(k, φ(pγ ))

Notons dorénavant τ > 0 l’entier tel que pτ ||k et posons γ = τ + 1.


b) Montrer que si y ∈ Z∗ est premier à p et est une puissance k-ième modulo pγ ,
alors y est une puissance k-ième modulo pt pour tout t > γ.
Soit s > 1. Pour q, n > 1, introduisons Mn (q) le nombre de solutions de

mk1 + · · · + mks = n mod q, où m1 , . . . , ms ∈ J1, qK .

Introduisons Mn∗ (q) le nombre de solutions de l’équation

mk1 + · · · + mks = n mod q, où m1 , . . . , ms ∈ J1, qK , (m1 , q) = 1.

c) Supposons Mn∗ (pγ ) > 0. Montrer que pour tout t > γ,

Mn (pt ) > p(t−γ)(s−1) .

d) Soient q > 1 et A, B ⊆ Z/qZ des parties de cardinaux respectifs a et b.


Supposons que 0 ∈ B et, pour tout b ∈ B\{0}, que (b, q) = 1. Montrer que

|A + B| > min(q, a + b − 1).

e) Supposons que
p
s> (k, φ(pγ )).
p−1
Montrer que pour tout n > 1, on a Mn∗ (pγ ) > 0.

Leçons concernées : 104, 108, 120, 121, 126, 190

Le calcul modulaire est fondamental en arithmétique : les équations diophantiennes


sur Z sont souvent des problèmes difficiles à résoudre, et leur étude modulo q est
une première étape naturelle et puissante. Cela fait de ce développement une illus-
tration des leçons sur le calcul modulaire (120) et sur les équations en arithmétique
(126). Les propriétés des nombres premiers (121) sont centrales. Cela réduit des
preuves de propriétés arithmétiques au premier abord à des petits exercices sur
les groupes finis, et notamment sur les groupes cycliques, permettant d’illustrer
les leçons associées (104 et 108). L’argument combinatoire très ensembliste des
questions d) et e) en fait un développement pertinent pour la leçon 190 sur les
méthodes de dénombrement.

128
Anneaux, corps et théorie des nombres

Correction.
a) Puisque p est impair, le groupe multiplicatif des unités de Z/pγ Z est cyclique
d’ordre n = φ(pγ ). Soit x un générateur de ce groupe, de sorte qu’on peut
écrire (Z/pγ Z)× = hxi. Pour k > 1, l’ordre de xk dans ce groupe est donc n/(k, n).
Considérons l’ensemble des puissances k-ièmes dans (Z/pγ Z)× . Il s’agit d’un sous-
groupe de (Z/pγ Z)× , il est donc lui-même cyclique. Vérifions qu’il est engendré
par xk . Tout d’abord, les puissances de xk sont bien sûr des puissances k-ièmes,
donc hxk i est constitué de puissances k-ièmes dans (Z/pγ Z)× . Réciproquement
toute puissance k-ième de (Z/pγ Z)× s’écrit comme y k avec y ∈ (Z/pγ Z)× = hxi.
Or y est de la forme xa pour un certain a > 0, et en particulier
 a D E
y k = (xa )k = xk ∈ xk .

Ainsi, le sous-groupe de (Z/pγ Z)× formé de ses puissances k-ièmes est hxk i. En
particulier, il y a exactement n/(k, n) puissances k-ièmes dans (Z/pγ Z)× .
b) Soit t > γ. Soit y ∈ Z∗ une puissance k-ième modulo pt . Nous allons prouver
que y est alors une puissance k-ième modulo pt+1 , ce qui permettra de conclure
la preuve de la propriété voulue par récurrence.
Puisque y est une puissance k-ième modulo pt , il existe x ∈ Z tel que xk − y ≡ 0
modulo pt . Nous voulons trouver un a ∈ Z tel que (x+apt−τ )k −y ≡ 0 (mod pt+1 ).
En développant par la formule du binôme et en divisant par pt , cela se réécrit
k
!
xk − y −τ k−1
X k k−j j j(t−τ )−t
t
+ kp x a + x a p ≡ 0 mod p.
p j=2
j

Le coefficient de a dans le second terme est inversible modulo p, car pτ ||k par
définition de τ et puisque x est premier à p (car y est premier à p). Il reste à
prouver que tous les termes de la somme pour k > 2 sont divisibles par p, ce qui
permettra d’obtenir la valeur explicite

xk − y
a=− · (kp−τ xk−1 )−1 mod p .
pt
En écrivant le terme de la somme ci-avant pour un j ∈ J2, kK, on obtient
! !
k k − 1 k−j j j(t−τ )−t kp−τ k − 1 k−j j (j−1)(t−τ )
x a p = x a p .
j j−1 j j−1

Le facteur kp−τ est un entier, pour les mêmes raisons que précédemment. Il
reste à prouver que le dénominateur j ne compense pas de facteur de p(j−1)(t−τ ) ,
autrement dit que vp (j) < (j − 1)(t − τ ). Puisque t > τ , il suffit que vp (j) < j − 1.
Puisqu’on a j < pj−1 pour tout j > 2 (car p > 2), on en déduit que j ne peut pas
être divisible par pj−1 , ce qui permet de conclure.
Ainsi, y est une puissance k-ième modulo pt+1 . Puisque c’est une puissance k-ième
modulo pγ , par récurrence immédiate c’est aussi une puissance k-ième modulo pt
pour tout t > γ.

129
25. Problème de Waring modulo q

c) Soit (x1 , . . . , xs ) ∈ Zs une solution de


xk1 ≡ n − xk2 − · · · − xks mod pγ ,

où (p, x1 ) = 1. Alors on peut construire autant de solutions de


y1k ≡ n − y2k − · · · − ysk mod pt

que de classes yj modulo pt telles que yj ≡ xj mod pγ , pour tous t > γ et j > 2.
En effet, si on prend de tels y2 , . . . , ys , alors la quantité n − y2k − · · · ysk est congrue
à n − xk2 − · · · xks = xk1 modulo pγ . C’est donc une puissance k-ième modulo pγ
qui est relativement première à p, donc aussi modulo pt par la question b).
Comptons désormais le nombre de tels (s − 1)-uplets : chaque yj a autant de
choix que de solutions de l’équation yj ≡ xj mod pγ dans Z/pt Z. Ces solutions
correspondent aux m ∈ Z tels que 0 6 yj = xj + mpγ < pt , c’est-à-dire aux m tels
que 0 6 m < pt−γ . Il y a pt−γ telles solutions.
s−1
On obtient donc pt−γ solutions correspondant aux choix des yj . Ainsi,

Mn (pt ) > p(t−γ)(s−1) .

d) Si a + b − 1 > q, on peut retirer b − (q − a + 1) éléments à B, ce qui ne change


pas la borne inférieure souhaitée. On peut donc supposer a + b − 1 6 q. Par
ailleurs, si a = q le résultat est immédiat, on peut donc supposer que a < q.
Raisonnons par récurrence sur b. Le cas b = 1 est immédiat puisque alors B = {0}.
Supposons b > 1 et la propriété vraie pour les ensembles B de cardinaux |B| < b.
Soit B de cardinal b. Il existe α ∈ A et β ∈ B tels que α + β ∈ / A. Autrement, la
translation par β serait une bijection de A et alors on aurait
X X
(α + β) ≡ α mod q,
α∈A α∈A

mais alors cela donnerait aβ ≡ 0 mod q, ce qui n’est pas possible car a < q et β
est premier à q. Introduisons alors les ensembles
C = {β ∈ B : α + β ∈
/ A},
A0 = A ∪ (α + C),
B 0 = B\C.

Il vient alors que 1 6 |B 0 | < b, |A0 |+|B 0 | = a+b et A0 +B 0 ⊆ A+B. En particulier


par hypothèse de récurrence,
|A + B| > |A0 + B 0 | > min(q, |A0 | + |B 0 | − 1) = min(q, a + b − 1).

L’hypothèse de récurrence est donc vérifiée au rang b, ce qui achève la preuve par
récurrence.
e) Prouvons-le par récurrence. Soit Ar = {xk1 + · · · + xkr − n : xi ∈ Z/pγ Z}
et B l’ensemble des puissances k-ièmes dans (Z/pγ Z)× , ainsi que l’élément nul.
Introduisons ω = φ(pγ )/(k, φ(pγ )). Pour r > 0, soit P(r) la propriété :
P(r) : « |Ar + B| > min(pγ , (r + 1)ω) ».

130
Anneaux, corps et théorie des nombres

• Pour l’initialisation, on a A0 = {−n}. Il y a ω + 1 éléments dans B par la


question a). De plus, on a |A0 + B| = ω + 1 > min(pγ , ω), prouvant P(0).
• Supposons alors P(r) vraie pour un r > 0 et prouvons que P(r + 1) est vraie.
Notons que Ar+1 = Ar + B. On a toujours |B| = ω + 1 par la question a).
L’hypothèse de récurrence donne |Ar | > min(pγ , (r + 1)ω). Les ensembles Ar
et B satisfont toujours les hypothèses de la question d) de sorte que

|Ar+1 | = |Ar + B| > min(pγ , |Ar | + |B| − 1)


> min(pγ , (r + 1)ω + ω) = min (pγ , (r + 2)ω) .

La propriété P(r + 1) est donc vraie.


Ainsi la propriété P(r) est vraie pour tout r > 1. On en déduit que |As | est
supérieur à pγ , autrement dit tous les éléments de Z/pγ Z sont dans As , dès que
p
(s + 1)ω > pγ i.e. s> (k, φ(pγ )).
p−1

On obtient ainsi le résultat souhaité.

Commentaires.
© Ce développement, très technique, peut être modulé en fonction de la leçon
dans laquelle il est présenté. Ainsi, les questions a) et b) peuvent être seulement
citées de sorte à donner de l’importance aux arguments combinatoires ; ou alors
la question d) peut être utilisée comme un outil de sorte à gagner du temps pour
les arguments arithmétiques.
© Le résultat de la question a) est intéressant en soi et illustre les arguments de
comptage typiques de l’arithmétique classique. Le résultat de la question b) est
surprenant : généralement une puissance k-ième modulo pγ est une puissance k-
ième modulo pt pour t 6 γ, mais on ne peut pas dire mieux. Ici, la propriété
est vraie pour tout t grâce au choix particulier de γ. Les arguments utilisés dans
ces deux questions sont très particuliers aux groupes cycliques, et c’est là tout
l’intérêt de connaître précisément la structure des groupes des unités de Z/pγ Z.
Ces deux questions peuvent constituer à elles seules des développements.
© Le développement se concentre sur le cas p > 2. Le cas p = 2 se traite suivant
la même démarche avec quelques spécificités dues au fait que (Z/2γ Z)× n’est plus
cyclique pour γ > 1. On obtiendrait le même résultat pour la dernière question,
avec s > 2τ +2 si τ > 0 et k > 2, et s > 5 si p = k = 2.
© Ce problème est la version modulaire du problème de Waring, qui consiste à
déterminer si tout nombre entier suffisamment grand peut être écrit sous la forme

n = xk1 + · · · + xks , x1 , . . . , xs ∈ Z,

pour un certain s. Ce problème de la fin du XIXe siècle a été l’occasion pour Hardy
et Littlewood d’introduire la méthode du cercle, permettant d’aborder ce problème
avec des outils analytiques et des résultats sur les comportements de sommes

131
25. Problème de Waring modulo q

d’exponentielles. Ils montrent en particulier que pour tout k > 2, un tel s existe.
Peu de choses sont connues concernant le plus petit s possible, on sait par exemple
que tout entier suffisamment grand est somme de 4 carrés, 9 cubes ou encore 19
puissances quatrièmes et que ces valeurs sont optimales. Le résultat prouvé ici,
combinant les questions c) et e), est qu’il existe un s suffisamment grand tel que
ce problème ait une solution modulo pγ . Ce fait est une étape importante dans
la solution du problème de Waring (voir [Vau97] une introduction complète à la
méthode du cercle et les relations avec le problème global).
© L’arithmétique modulaire et les réductions d’équations modulo q sont un
outil puissant en arithmétique. Depuis que Gauss a développé formellement
et fonctionnellement cette arithmétique modulaire, elle n’a cessé de porter ses
fruits. Par exemple, le principe de Hasse est un principe local-global qui énonce
l’équivalence entre l’existence de solutions d’une équation diophantienne de degré 2
sur Z, et l’existence de telles solutions modulo pk , pour tout p premier et k > 1,
ainsi que dans R. Mais ce principe est en défaut à partir du degré 3. Dans certains
cas, soit l’approximation modulo pk suffit (voir Développement 13), soit des
arguments ad hoc permettent quand même de conclure à des solutions globales.
© La réponse à la question b) revient à dire que, dans ce cas, si un élément est
une puissance k-ième modulo pγ alors il est aussi une puissance k-ième modulo
tout puissance plus élevée de p. C’est une conclusion typique du lemme de Hensel
cité précédemment, dont nous donnons une version plus fine ici, utilisant la valeur
absolue p-adique et les nombres p-adiques :
Soit P ∈ Z[X]. S’il existe x ∈ Zp tel que

P (x) ≡ 0 mod p et |P (x)|p < |P 0 (x)|2p ,

alors il existe y ∈ Zp tel que

P (y) = 0 et |x − y|p < |P 0 (x)|p .

Ce résultat ne donne toutefois pas immédiatement la solution attendue dans le


développement. En effet, nous souhaiterions l’appliquer dans le cas de P (x) =
xk − y. Toutefois, on aurait alors |P (x)|p = p−γ et |P 0 (x)|p = |k|p = p−τ et la
condition pour appliquer le lemme de Hensel ci-avant serait donc d’avoir γ > 2τ ,
ce qui est plus faible que ce qui est prouvé ici. Nous devons donc essentiellement
en refaire la preuve pour exploiter les hypothèses supplémentaires.

Questions.
1. Montrer que tout sous-groupe d’un groupe cyclique est cyclique. Rappeler quels
sont ses sous-groupes d’un ordre donné.
2. Montrer que φ(pt ) = pt−1 (p − 1).
3. Montrer que l’ordre de xk dans le groupe cyclique d’ordre n engendré par x
est n/(k, n).
4. Soit t > γ. Supposons que (Z/pt Z)× soit engendré par un élément x. Montrer
t−γ
alors que (Z/pγ Z)× = hxp i.

132
Algèbre linéaire

L’algèbre linéaire naît avec l’étude des systèmes linéaires, de leurs transformations
et de leurs ensembles de solutions. Cette théorie trouve de nombreuses applications
en mathématiques fondamentales comme appliquées : description des isométries
de l’espace (Développement 43), approximation des moindres carrés, résolution
d’équations différentielles couplées, détermination de trajectoires physiques avec
contraintes, recherche d’équilibres de Nash en stratégies mixtes, etc.
Le cadre de la dimension finie donne à l’algèbre linéaire de nombreux outils
pratiques et puissants : représentation matricielle, trace, déterminant, récurrences
sur la dimension, théorème spectral, etc. Le problème originel de l’algèbre linéaire
demeure la résolution de systèmes de la forme Ax = b, ce qui confère une grande
importance aux aspects algorithmiques du calcul matriciel, largement illustrés
dans cet ouvrage à travers différentes méthodes itératives (Dév. 74, 75, 76, 77).
Une idée maîtresse de l’algèbre linéaire est la réduction des endomorphismes,
qui consiste à décomposer l’espace en somme directe de sous-espaces stables sur
lesquels l’endomorphisme agit plus simplement. Idéalement, ces actions seraient
des homothéties (c’est le cas diagonalisable). Dans le cas général, on ne peut pas
garantir l’existence d’une si bonne réduction, mais des résultats existent dans
de nombreux cas particuliers. Une vision plus spectrale ou géométrique est ainsi
donnée par la détermination d’invariants par changements de base, indépendants
de la forme particulière d’une matrice ou d’un système linéaire, tels que les valeurs
propres, polynômes minimal et caractéristique, relations algébriques, rang, noyau,
décomposition de Jordan (Dév. 80), forme normale de Smith (Dév. 37), etc. Cette
idée demeure en dimension infinie, où la théorie spectrale pose la question de la
décomposition spectrale adaptée à un opérateur.
De nombreuses propriétés particulières permettent d’assurer des résultats de
réduction : nilpotence, semi-simplicité, symétrie, orthogonalité, etc. Certaines des
classes d’endomorphismes associées sont étudiées dans ce livre (Dév. 34, 35, 37).
Certains développements traitent d’un sujet accessible au niveau de l’agrégation
mais moins habituel : celui des groupes et algèbres de Lie (Dév. 39). Il s’agit
d’un pont entre groupes et algèbre linéaire : en effet, tout groupe de Lie (défini
comme un groupe ayant une structure de variété différentielle — c’est le cas de
tout sous-groupe fermé de GLn ) est localement isomorphe à son algèbre de Lie
(qui est son espace tangent en l’élément neutre) par l’application exponentielle
(Dév. 55). Cette correspondance permet de ramener des problèmes de théorie des
groupes au cadre beaucoup plus agréable des espaces vectoriels.
Algèbre linéaire

Développement 26 (Perturbation par des matrices de rang un F)

Soit n > 1. Soit K un corps topologique non discret (par exemple R ou C).
a) Soient x et y des vecteurs non nuls de K n ' Mn,1 (K).
(i) Déterminer les valeurs propres de M = xt y en fonction de tr(M ).
(ii) Calculer le déterminant det(In + xt y).
b) Soit M ∈ Mn (K). Soient x, y ∈ K n ' Mn,1 (K).
(i) Montrer que, pour M inversible, on a
 
det(M + xt y) = det(M ) + t y · t
com(M )x . (1)

(ii) Montrer que la formule (1) demeure pour toute matrice M ∈ Mn (K).

Leçons concernées : 152, 153, 162

Ce développement est élémentaire et a pour objectif d’illustrer les propriétés du


déterminant (152). Il utilise le rapport du déterminant avec le spectre d’une matrice
ainsi que son caractère polynomial, justifiant sa présence dans la leçon 153. La
formule donnée dans les commentaires, conséquence du développement, débouche
sur un algorithme de résolution des systèmes linéaires et rend ce résultat ainsi que
ses conséquences algorithmiques pertinents pour illustrer la leçon 162.

Correction.
a) (i) Puisque la matrice M est de rang 1, le théorème du rang garantit que
son noyau est de dimension n − 1, en particulier M admet la valeur propre 0 avec
multiplicité géométrique n − 1. Il reste une valeur propre λ ∈ K à déterminer.
Puisque la trace de M est la somme des valeurs propres dans une clôture algébrique,
elle est égale à λ. En écrivant explicitement les coordonnées, il vient
n
X
λ = tr(M ) = xi yi = hx, yi = t yx,
i=1

où h·, ·i est le produit scalaire usuel dans K n .


(ii) Par la question précédente, le spectre de In + xt y est celui de xt y translaté
de 1 : il s’agit donc de {1, 1, . . . , 1, 1+hx, yi}. Puisque le déterminant est le produit
des valeurs propres, on en déduit que

det(In + xt y) = 1 + hx, yi.

b) (i) Puisque M est inversible, on peut factoriser par M et écrire

M + xt y = M (In + M −1 xt y).

En prenant les déterminants et en utilisant la question précédente, il vient


 
det(M + xt y) = det(M ) det(In + M −1 x t
y) = det(M )(1 + t y · (M −1 x)).

135
26. Perturbation par des matrices de rang un

On conclut alors en utilisant la formule de la comatrice :

det(M )M −1 = t com(M ).

(ii) Notons que la fonction

P (M, x, y) = det(M + xt y) − t y · t com(M )x

est polynomiale en les coefficients de M , x et y, comme le déterminant et la


comatrice. Par la question précédente, P s’annule sur l’ensemble des (M, x, y) avec
x, y quelconques non nuls et M inversible. En particulier, puisque K est dense
dans son complété K, cet ensemble est dense dans Mn (K) × M1,n (K) × M1,n (K).
Par continuité, cela implique que la fonction polynomiale P est nulle sur tout
l’ensemble Mn (K) × M1,n (K) × M1,n (K). Ainsi, le polynôme P est nul. En
particulier, l’identité prouvée ci-avant demeure pour toute matrice.

Commentaires.
© Une matrice de rang un a par définition ses colonnes toutes colinéaires à un
même vecteur x ∈ Mn,1 (K), de sorte qu’elle s’écrit sous la forme xt y pour un
certain y ∈ Mn,1 (K). Cela décrit toutes les matrices de rang 1 avec x et y non nuls.
Le développement propose donc de comprendre les déformations du déterminant
par les matrices de rang 1 sans plus de restriction.
© Le déterminant est une fonction multiplicative au comportement additif peu
maîtrisé. Il est donc intéressant d’avoir des résultats sur le comportement du
déterminant lorsqu’il y a une déformation additive, et c’est ce qui est proposé dans
ce développement dans le cas des matrices de rang 1. Il est important de rapprocher
cette idée de celle de différentielle d’une fonction, et on pourra mentionner la
différentielle du déterminant en rapport avec ces résultats.
© Le développement peut être présenté en choisissant le corps K = R ou C si
cela rend l’exposé et le cadre plus confortable, mais ces hypothèses ne sont pas
nécessaires. La seule nécessité est que GLn (K) soit dense dans Mn (K). Il suffit
par exemple d’avoir un corps topologique K non discret. Il existe alors une suite
(tn )n de K × tendant vers zéro, de sorte que l’argument classique fonctionne :
(A + tk In )k∈N est une suite de matrices inversibles à partir d’un certain rang qui
converge vers A. De plus, K est dense dans K par construction de la complétion
et continuité des opérations. Voir les questions ci-après.
© Il faut faire attention à l’argumentaire de la dernière question : il ne suffit pas
de conclure que P est nul puisque c’est un polynôme qui s’annule sur un ensemble
infini. Cet argument ne tient que pour les polynômes à une variable : par exemple
le polynôme P (X, Y ) = XY ∈ C[X, Y ] n’est manifestement pas le polynôme nul,
pourtant il s’annule sur deux les droites D1 : x = 0 et D2 : y = 0. Il est nécessaire
d’avoir des conditions plus fortes : ici, la densité suffit pour étendre la nullité
prouvée à la question b)(ii) à tout l’ensemble, et pour cela il est nécessaire de
passer par une complétion de K de sorte à garantir la densité de l’ensemble des
matrices inversibles.

136
Algèbre linéaire

© Lorsque M et M + xt y sont inversibles, on a la formule de Sherman-Morrison :


1
(M + xt y)−1 = M −1 − M −1 xt y · M −1 . (2)
1 + t y · (M −1 x)
Cela peut être une petite extension du développement si on estime qu’il est un peu
court, ou si certains veulent se limiter au cas des matrices inversibles et proposer
cette variation. Il suffit de multiplier le membre de droite de (2) par la matrice
M + xt y et vérifier que l’on obtient bien l’identité.
© La formule de Sherman-Morrison admet une généralisation pour les perturba-
tions de rang k, due à Woodbury. L’un des intérêts pratiques de cette formule est
en particulier algorithmique. En effet, lorsque A est une matrice plus simple M
perturbée par une matrice de rang un (ou de rang k connu, avec la formule de
Sherman-Morrison-Woodbury), la formule (2) donne une expression pour son
inverse, donc en particulier pour la solution du système Az = b. Cela donne
l’algorithme suivant :
• résoudre le système M z = x ;
• calculer µ = 1 + t y · (M −1 x) = 1 + t yz :
— si µ = 0, alors M n’est pas inversible et M −1 n’existe pas ;
— si µ 6= 0, alors le système est résoluble et on peut poursuivre ;
• résoudre le système M w = b ;
t yw
• calculer λ = − µ ;
• la solution du système Az = b est donnée par z = w + λz.
La complexité naïve d’un algorithme de résolution d’un système linéaire donné
par une matrice carrée de taille n en utilisant le pivot de Gauss est O(n3 ) asymp-
totiquement. La complexité de l’algorithme proposé ci-avant est essentiellement
concentrée dans la résolution des deux systèmes faisant intervenir M . Ainsi, dans
le cas où M a une forme simple, par exemple triangulaire ou tridiagonale, la
complexité peut être fortement réduite, jusqu’à O(n2 ) voire O(n).

Questions.
1. Justifier que la dernière valeur propre de M , dans la question a), est dans K.
Indication : penser à son rapport avec la trace de la matrice.
2. Est-ce que 0 peut avoir une multiplicité algébrique égale à n ?
3. Justifier que le spectre de In + M est le spectre de M translaté de 1.
4. Déduire de la question b)(ii) la différentielle du déterminant.
5. Montrer que le déterminant est polynomial en les coefficients de la matrice.
6. Rappeler pourquoi, si K est non-discret et dense dans K, alors GLn (K) est
dense dans Mn (K).
7. Montrer qu’une matrice M de Mn,1 (K) est de rang 1 si, et seulement si, il
existe deux vecteurs non nuls de Mn,1 (K) tels que M = xt y. Dans une telle
écriture, x et y sont-ils uniques ?

137
27. Quaternions et isomorphismes

Développement 27 (Quaternions et isomorphismes F)

Soit H l’algèbre des quaternions, c’est-à-dire la R-algèbre de base (1, i, j, k)


dont la multiplication vérifie

i2 = j 2 = k 2 = ijk = −1.

On admet que H est un corps gauche. Les corps R et C s’identifient respecti-


vement aux sous-espaces Vect (1) et Vect (1, i) de H.
Pour q = a + bi + cj + dk ∈ H, avec a, b, c, d ∈ R, on note q = a − bi − cj − dk
le conjugué de q et N (q) = qq = a2 + b2 + c2 + d2 sa
p norme. On remarque que
modulo l’identification de H à R4 , la norme q 7→ N (q) sur H correspond à
la norme euclidienne usuelle de R4 .
On définit aussi G = {q ∈ H : N (q) = 1} la sphère unité de H.
On admet que pour tous quaternions q, q 0 on a N (qq 0 ) = N (q)N (q 0 ), ce qui
permet de montrer que la multiplication des quaternions munit G d’une
structure de groupe.
Enfin, on note P = Vect (i, j, k) l’ensemble des quaternions purs.
a) Montrer que le centre de H est R.
b) Un premier isomorphisme : G ' SU 2 (C).
(i) Montrer que l’action de multiplication externe de C sur H définie
par λ · q = qλ munit H d’une structure de C-espace vectoriel dont (1, j)
est une base.
(ii) Pour tout q ∈ G, on définit Tq : H → H par Tq (x) = qx. Montrer que Tq
est une application C-linéaire et inversible.
(iii) Montrer que ϕ : q 7→ Tq définit un isomorphisme de groupes de G
sur SU 2 (C), et conclure quant à l’isomorphisme recherché.
c) Un second isomorphisme : G/{±1} ' SO3 (R).
(i) Pour tout q ∈ G, on définit Sq : H → H par Sq (x) = qxq. Montrer que √ Sq
est R-linéaire et inversible, puis qu’il s’agit d’une isométrie (pour N ).
(ii) Montrer que pour tout q ∈ G et x ∈ R, on a Sq (x) = x. En déduire
que Sq stabilise P = R⊥ . On note alors sq l’endomorphisme induit par Sq
sur P .
(iii) Montrer que ϕ : q 7→ sq est un morphisme continu de groupes de G
dans O(P ) et que Ker (ϕ) = {±1}.
(iv) Soit p ∈ P ∩ G. Montrer que sp est une réflexion d’axe Rp. En déduire
que Im(ϕ) = SO3 (R) et conclure quant à l’isomorphisme recherché.

138
Algèbre linéaire

d) Le théorème de Frobenius.
Soit K 6= R un corps gauche tel que K/R soit algébrique. Soit x ∈ K \ R.
(i) Montrer que R[x] est isomorphe à C.
Soit i une racine carrée de −1 dans R[x], et ϕ l’endomorphisme de K défini
par y 7→ −iyi.
(ii) Montrer que ϕ est diagonalisable sur R et que Sp(ϕ) ⊂ {±1}.
(iii) Soient E−1 et E1 les espaces propres de ϕ. Montrer que E1 est isomorphe
à C et en déduire que si E−1 = {0} alors K est isomorphe à C.
(iv) Supposons que E−1 6= {0}, et prenons y ∈ E−1 \{0}. Montrer que z 7→ zy
est un isomorphisme de E1 sur E−1 , et en déduire que K ' H.
On a ainsi montré le théorème de Frobenius :
Les seuls corps gauches K contenant R comme sous-corps et tels
que K/R est algébrique sont R, C et H.

Leçons concernées : 101, 102, 106, 125, 155, 160, 161, 191
Cet exercice donne naturellement lieu à deux types de développements (voir premier
commentaire). Le premier présente les résultats des questions b) ou c) et inclut
ou admet la question a) (présente uniquement par souci de complétude). Ce
développement n’utilise que des notions élémentaires sur les isométries. Il trouve
donc sa place dans les leçons 106, 160, 161 et 191. Dans le vocabulaire des actions
de groupes, il utilise ici les actions de G sur H par conjugaison et par multiplication.
Ainsi, quitte à reformuler, ce développement illustre naturellement la leçon 101.
L’utilisation des réflexions comme générateurs de SO3 (R) ainsi que les arguments
de dualité et de connexité permettent d’intégrer les résultats des questions b) et c)
dans les leçons 108, 154 et 204. Enfin, le groupe G étant une extension du groupe
des nombres complexes de module 1, ce développement peut aussi être le bienvenu
dans la leçon 102. La question d) présente quant à elle un résultat un peu plus
avancé et peut donc constituer un développement à elle seule. Elle fait cette fois
intervenir l’étude d’extensions de corps et la diagonalisation, et peut donc illustrer
les leçons 125 et 151. Dans tous les cas, il ne faut pas oublier d’incorporer au plan
les résultats introductifs sur les quaternions décrits en préambule.

Correction.
a) Par construction, tout réel commute avec tout quaternion. Réciproquement,
soit q = a + bi + cj + dk ∈ H un quaternion commutant avec tous les autres. La
relation qi = iq fournit

ai − b − ck + dj = ai − b + ck − dj,

d’où c = d = 0. De même, qj = jq fournit b = 0, donc q ∈ R.


Ainsi, le centre de H est bien R.

139
27. Quaternions et isomorphismes

b) (i) Tout d’abord, H est un groupe pour l’addition (isomorphe à (R4 , +)).
Soient λ, µ ∈ C et q, q 0 ∈ H. Il reste à montrer

λ · (q + q 0 ) = λ · q + λ · q 0 ,
(λ + µ) · q = λ · q + µ · q,
1 · q = q,
λ · (µ · q) = (λµ) · q.

Les deux premières égalités découlent des propriétés de distributivité et d’associa-


tivité de la multiplication interne de H.
Les deux dernières utilisent le fait que la restriction à C de la multiplication
interne de H coïncide avec la multiplication traditionnelle sur C. Cette restriction
est donc commutative, et on a bien

λ · (µ · q) = (qµ)λ = q(µλ) = q(λµ) = (λµ) · q.

Ainsi, H a bien une structure de C-espace vectoriel.


Comme j ∈ / C, la famille (1, j) est libre sur C. C’est de plus une partie génératrice
de H en tant que C-espace vectoriel puisque tout quaternion a + bi + cj + dk peut
s’écrire (a + bi) · 1 + (c + di) · j. Ainsi, c’est une base de H en tant que C-espace
vectoriel.
(ii) Soient λ ∈ C et x, y ∈ H. Alors

Tq (λ · x + y) = q(xλ + y) = qxλ + qy = λ · (qx) + qy = λ · Tq (x) + Tq (y).

On a de plus
Tq (Tq (x)) = qqx = N (q)x = x.
Ainsi, Tq est C-linéaire et inversible d’inverse Tq .
(iii) Soient q, q 0 ∈ G et x ∈ H. Alors

Tqq0 (x) = qq 0 x = Tq (q 0 x) = Tq (Tq0 (x)),

donc ϕ est un morphisme de groupes. De plus, si Tq = Id, alors q = Tq (1) = 1. Le


morphisme ϕ est donc injectif.
Écrivons la matrice de Tq dans la base (1, j). On pose q = λ + jµ avec λ = a + ib,
µ = c + id et a, b, c, d ∈ R. Comme ij = −ji et j 2 = −1, on a

Tq (1) = q = λ + jµ,
Tq (j) = qj = (a + ib)j + j(c + id)j = j(a − ib) − (c − id).

La matrice de Tq dans la base (1, j) est donc


!
λ −µ
.
µ λ

Le déterminant de cette matrice est

λλ + µµ = a2 + b2 + c2 + d2 = N (q) = 1.

140
Algèbre linéaire

Ainsi, Tq ∈ SU 2 (C), d’où ϕ est à valeurs dans SU 2 (C). Réciproquement, pour


toute matrice M ∈ SU 2 (C), il existe λ, µ ∈ C tels que λλ + µµ = 1 et
!
λ −µ
M= ∈ SU 2 (C).
µ λ

La matrice M est alors la matrice de Tλ+jµ , ce qui assure que ϕ est surjectif.
On obtient finalement que ϕ est un isomorphisme de G dans SU 2 (C).
c) (i) Examinons les différentes propriétés recherchées.
• Linéarité. Soient x, y ∈ H et λ ∈ R. Par distributivité de la multiplication ×
par rapport à l’addition +, on a

Sq (λx + y) = q(λx + y)q = qλxq + qyq.

De plus, tout réel commute avec tout quaternion, d’où

qλxq = λqxq = λSq (x).

Finalement, Sq (λx + y) = λSq (x) + Sq (y), donc Sq est linéaire.


• Inverse. Par définition de G, on a N (q) = 1. Alors, pour tout x ∈ H, on a
 
Sq (Sq (x)) = q qxq q = qqxqq = N (q)xN (q) = x.

Ainsi Sq est inversible d’inverse Sq .


• Isométrie. Soit x ∈ H. Comme q ∈ G, on a N (q) = N (q) = 1, d’où, par
multiplicativité de N ,

N (Sq (x)) = N (qxq) = N (q)N (x)N (q) = N (x).

Ainsi, Sq est une isométrie.


(ii) Si x ∈ R, x commute avec q, d’où Sq (x) = xqq = xN (q) = x. Ainsi, R est
fixé par tous les Sq pour q ∈ G.

Comme Sq est une isométrie (pour N , i.e. la norme euclidienne sur H vue
comme R4 ), son adjoint (pour le produit scalaire associé) est aussi son inverse, et
il s’agit de Sq . Comme Sq stabilise R, on sait donc que Sq stabilise R⊥ = P .
(iii) Montrons séparément les propriétés recherchées.
• Morphisme. Pour tout q ∈ G, comme Sq est une isométrie, sa restriction sq
reste une isométrie. De plus, la restriction de N à P coïncide avec (le carré de)
la norme euclidienne. Ainsi, pour tout q ∈ G, l’endomorphisme sq préserve la
norme euclidienne, i.e. sq ∈ O(P ).
De plus, pour tout q, q 0 ∈ G et x ∈ H, on a

Sq (Sq0 (x)) = qq 0 xq 0 q = qq 0 xqq 0 = Sqq0 (x).

Comme P est stable par Sq et Sq0 , on obtient que sq ◦sq0 = sqq0 . L’application ϕ
est donc un morphisme de groupes de G dans O(P ).

141
27. Quaternions et isomorphismes

• Continuité. Si q = a + bi + cj + dk ∈ H, les coefficients de la matrice de sq


dans la base (i, j, k) s’expriment comme des polynômes en a, b, c, d. Ainsi,
l’application ϕ est continue.
• Noyau. Soit q ∈ G tel que sq = Id. Alors q commute avec i, j et k. Comme q
commute avec tout réel, q appartient au centre de H, c’est-à-dire R par la
question a). Or les seuls réels dans G sont 1 et −1. Réciproquement, on a
bien s1 = s−1 = Id, d’où Ker (ϕ) = {±1}.
(iv) On a d’abord
sp (p) = ppp = pN (p) = p.
Ainsi, l’isométrie sp fixe la droite vectorielle Rp ; c’est donc une rotation autour
de cet axe. Par propriété de morphisme, on a de plus

s2p = sp2 = s−pp = s−1 = Id.

On obtient donc que sp est une réflexion d’axe Rp. Ainsi, l’image de ϕ contient
toutes les réflexions. Comme ces réflexions engendrent SO(P ), on en déduit
l’inclusion SO(P ) ⊂ Im(ϕ).
Pour établir l’inclusion réciproque, on observe que det ◦ ϕ est une application
continue de G dans {±1}. G étant connexe (car homéomorphe à S3 ) et {±1}
discret, det ◦ ϕ est constante. Ainsi, pour tout q ∈ G, on a

det(ϕ(q)) = det(ϕ(1)) = det(Id) = 1,

ce qui assure que Im(ϕ) ⊂ SO(P ).


Par le théorème d’isomorphisme, on obtient un isomorphisme de groupes entre
le quotient G/{±1} et SO(P ). Or P est un R-espace vectoriel de dimension 3.
Ainsi, l’application qui à q associe la matrice de sq dans la base (i, j, k) fournit un
isomorphisme de groupes entre G/{±1} et SO3 (R).
d) (i) L’extension K/R est algébrique, donc en particulier x est algébrique sur R.
Soit α une racine dans C du polynôme minimal Q de x sur R. Alors on a α ∈ /R
sinon, par irréductibilité de Q, on aurait Q = X − α, d’où x = α ∈ R, ce qui est
exclu. Ainsi, α ∈ C \ R, d’où R[α] = C.
Comme R[x] et R[α] sont tous deux isomorphes à R[X]/(Q), le corps de rupture
de Q, on obtient bien que R[x] est isomorphe à C.
(ii) Soit i une racine de −1 dans R[x], et ϕ : y 7→ −iyi. Soient y, y 0 ∈ K. On a

ϕ(y + y 0 ) = −i(y + y 0 )i = −iyi − iy 0 i = ϕ(y) + ϕ(y 0 ),


ϕ(yy 0 ) = −iyy 0 i = (−iyi)(−iy 0 i) = ϕ(y)ϕ(y 0 ),
ϕ(1) = −i2 = 1,
ϕ(0) = 0.

Ainsi, ϕ est bien un automorphisme de K. C’est de plus une involution car pour
tout y ∈ K, on a ϕ(ϕ(y)) = i2 yi2 = y. Le polynôme X 2 − 1, scindé à racines
simples sur R, annule donc ϕ, ce qui implique que ϕ est diagonalisable sur R et
que ses seules valeurs propres possibles sont 1 et −1.

142
Algèbre linéaire

(iii) On montre aisément que y ∈ E1 si et seulement si y commute avec i. En


particulier, E1 est stable par addition et multiplication puisque si y, y 0 ∈ E1 , alors

i(y + y 0 ) = iy + iy 0 = yi + y 0 i = (y + y 0 )i,
iyy 0 = yiy 0 = yy 0 i.

De plus, si y ∈ E1 \ {0} alors y est inversible dans K et iy = yi. En multipliant à


gauche et à droite par y −1 , on a y −1 i = iy −1 donc ϕ(y −1 ) = −iy −1 i = y −1 d’où
l’on tire y −1 ∈ E1 . Ainsi, E1 est bien un corps.
L’extension K/R est algébrique, donc c’est aussi le cas de E1 /R[x] puisqu’on a les
inclusions R ⊂ R[x] ⊂ E1 ⊂ K. Or R[x] est isomorphe à C d’après la question d)(i)
donc est algébriquement clos, si bien que E1 = R[x] ' C.
Comme ϕ est diagonalisable, on a K = E1 ⊕ E−1 . Ainsi, dans le cas où E−1 = {0}
on a K = E1 ' C.
(iv) Montrons d’abord que pour tout y ∈ E1 et z ∈ E−1 , zy ∈ E−1 . En effet,

ϕ(zy) = −izyi = (−izi) · (−iyi) = −z · y,

d’où zy ∈ E−1 . L’application z 7→ zy est donc une application de E1 dans E−1 ,


qui est de plus linéaire car la multiplication est associative et distributive par
rapport à l’addition.
Si z ∈ E−1 alors zy −1 ∈ E1 et z = zy −1 y. Ainsi, l’application z 7→ zy est bijective
de E1 sur E−1 , d’inverse z 7→ zy −1 .
Comme ϕ est diagonalisable, on a

K = E1 ⊕ E−1 = E1 ⊕ E1 y ' C ⊕ Cy.

Pour montrer que K ' H, il suffit (grâce à la question b)(i) de montrer que y est
R-colinéaire à une racine de −1 dans K.
L’argument de d)(i) permet de montrer que R[y] est isomorphe à C. Ainsi,
l’extension R[y]/R est de degré [C : R] = 2, d’où R[y] = R + Ry. On peut donc
écrire une expression y 2 = a + by avec a, b ∈ R. De plus, y ∈ E−1 donc y 2 ∈ E1 .
Finalement,

(a + by)i = y 2 i = iy 2 = ia + iby = ai + biy = ai − byi = (a − by)i,

où l’on a utilisé que R ⊂ E1 pour montrer que a et b commutent avec i. On obtient


donc b = 0, d’où y 2 ∈ R mais y ∈ / R. En particulier y 2 < 0, et √ y 2 est une
−y
racine carrée de −1 dans K, qu’on notera j. On a donc finalement K ' C ⊕ Cj,
et on vérifie facilement que i, j et k := ij vérifient les mêmes relations que les
générateurs de H. Ainsi K ' H.

Commentaires.
© Il est recommandé de ne pas présenter tous les résultats de cet exercice en un
seul développement. Parmi les regroupements possibles, on peut envisager un
développement F basé sur les questions a) et b), et des développements FF
basés sur les ensembles de questions {a), c)}, {a), b), c)} et {a), d)}.

143
27. Quaternions et isomorphismes

© En combinant les questions b) et c), on obtient un isomorphisme de groupes


entre SU 2 (C)/{±1} et SO3 (R).
© Bien que Gauss ait étudié les quaternions dès 1819, ses travaux ne furent publiés
qu’en 1900. La découverte des quaternions est donc habituellement attribuée à
Hamilton en 1843. Il aurait gravé la formule

i2 = j 2 = k 2 = ijk = −1

sur le pont de Brougham à Dublin lors d’une promenade avec son épouse. Ce pont
porte maintenant une plaque à son hommage.
© Le résultat de Frobenius date de 1877 et porte le coup fatal à la recherche menée
par Hamilton d’une structure de l’espace à 3 dimensions permettant d’effectuer
des calculs géométriques de manière similaire aux calculs complexes. En effet,
il est nécessaire de considérer la dimension 4 et l’espace des quaternions pour
obtenir une structure convenable. Le théorème de Hurwitz généralise le résultat
de Frobenius en considérant des structures plus faibles (en particulier vérifiant
une version faible de l’associativité). Il stipule alors que les seules R-algèbres de ce
type sont R, C, H, et l’algèbre des octonions O, de dimension 8 sur R. Chacune de
ces algèbres permet de munir les espaces Rn associés d’une structure particulière.
En revanche, cette structure s’affaiblit à mesure que la dimension croît : C n’est
pas ordonné, H n’est pas commutatif, O n’est pas associatif.
© La question d)(ii) peut être simplifiée en remarquant que dans ce cas l’endo-
morphisme ϕ correspond à Si défini en question c)(i). L’idée sous-jacente à la
démonstration de la question d) consiste à séparer le cas commutatif (i ∈ Z(K),
i.e. ϕ = Id) du cas non commutatif (ϕ 6= Id, donc E−1 6= {0}). Grâce à l’action par
translation à gauche z 7→ yz, on peut alors montrer que les sous-espaces propres
de ϕ ont la même structure algébrique, ce qui permet de conclure en utilisant la
diagonalisabilité de ϕ.
© Une application classique des quaternions est fournie par le théorème de La-
grange, qui énonce que tout entier positif peut s’écrire comme somme de quatre
carrés. Sa démonstration repose sur la propriété de multiplicativité de la norme N
(voir questions).
© D’après la question c), on peut représenter une rotation de SO3 (R) par un
quaternion de norme 1. Cette vision est intéressante d’un point de vue informatique
(ou plutôt infographique). En effet, au lieu de stocker 9 réels correspondants aux
coefficients d’une matrice 3 × 3, stocker un quaternion ne nécessite que de stocker
quatre réels. Cette représentation est aussi plus stable numériquement : des erreurs
sur les coefficients d’un quaternion de norme 1 ne changent pas sa nature de
quaternion et il suffit de renormaliser pour obtenir un quaternion de norme 1,
tandis qu’il est plus difficile de récupérer une matrice orthogonale à partir d’une
matrice orthogonale perturbée. Du point de vue des opérations possibles sur
les rotations, il est plus facile de calculer la composition de deux rotations en
faisant le produit de deux quaternions qu’en faisant le produit de deux matrices
orthogonales. En revanche, pour appliquer une rotation à un vecteur, il est moins
coûteux d’utiliser la représentation matricielle.

144
Algèbre linéaire

© La représentation par quaternions permet aussi de trouver facilement un chemin


dans G entre deux quaternions q, q 0 de norme 1. Par exemple, on peut considérer
les quaternions qt = tq + (1 − t)q 0 , renormalisés pour rester de norme 1. Cette
technique permet d’obtenir des effets graphiques plus fluides qu’en interpolant
des matrices orthogonales.
© Les quaternions sont aussi utilisés en mécanique du solide et en sciences de
l’ingénieur. En effet, la position d’un solide dans l’espace est représentée d’une
part par les coordonnées spatiales de son centre de gravité, et d’autre part par son
orientation. Cette orientation correspond à la rotation subie par le solide depuis
sa position de repos. Cette rotation peut être représentée à l’aide de quaternions.
Une autre méthode repose sur les angles d’Euler, trois angles appelés précession,
nutation et rotation propre. Agir sur un de ces angles revient à effectuer une
rotation autour d’un axe déterminé par les deux autres. L’inconvénient principal
de ces angles provient du blocage de cardan, qui peut arriver lorsque deux de
ces axes coïncident : on perd alors un degré de liberté, puisque agir sur les
deux angles correspondants revient au même, et on ne peut donc plus effectuer
certains mouvements. Cela s’explique par le fait que l’application qui à un triplet
d’angles associe la matrice de rotation associée est certes différentiable, mais que
sa différentielle n’est pas surjective en tout point. Ce problème ne se pose en
revanche pas avec une représentation par quaternions.
© La représentation par quaternions intervient aussi dans d’autres domaines
de la physique : les équations de Maxwell peuvent s’écrire comme une équa-
tion d’onde quaternionique, et l’équation de Klein-Gordon (décrivant l’état de
certaines particules sub-atomiques) peut se voir comme l’équation d’un oscilla-
teur harmonique quaternionique. Pour plus d’informations, on pourra consul-
ter [Jac03, SKV04, Chr06].

Questions.
1. Justifier que G est homéomorphe à S3 , et en déduire que l’isomorphisme de la
question c) induit un homéomorphisme entre S3 /{±1} et SO3 (R).
2. Expliquer pourquoi on a considéré l’action de C par multiplication à droite
dans la question b). Que se serait-il passé si on avait considéré la multiplication à
gauche à la place ?
3. Pour q = a + bi + cj + dk ∈ H avec a, b, c, d ∈ R, écrire les matrices de Sq , sq
et Tq dans la base (1, i, j, k).
4. Justifier que l’inversibilité de Tq (resp. Sq ) à droite dans la question b)(ii)
(resp. c)(i) suffit pour montrer que Tq (resp. Sq ) est inversible.
5. Montrer que les réflexions engendrent SO3 (R).
6. Montrer que si α ∈ C \ R, alors R[α] = C.
7. Montrer que si y ∈ C \ R vérifie y 2 ∈ R, alors y 2 < 0.
8. Montrer que la norme N est multiplicative. En déduire que l’ensemble des
sommes de quatre carrés d’entiers est stable par produit.
9. Montrer que si q1 , q2 ∈ H, alors q1 = q1 et q1 q2 = q2 · q1 .

145
27. Quaternions et isomorphismes

10. Justifier que N (qq 0 ) = N (q)N (q 0 ) pour tous quaternions q, q 0 ∈ H.


11. Combien d’opérations sont nécessaires pour composer des rotations représen-
tées par des matrices orthogonales (resp. des quaternions) ? Quid de l’application
d’une rotation à un vecteur ?
12. Si r est la rotation de SO3 (R) d’angle αr ∈ R autour de Rur où le vecteur
unitaire ur est donné sous la forme (ux , uy , uz ) ∈ R3 , on pose

α α
   
qr = cos + sin (ux i + uy j + uz k) ∈ H.
2 2

Exprimer les coordonnées de qr qs en fonction de αr , αs , ur , us et en déduire que le


calcul de qr qs permet de retrouver les produits scalaires et vectoriels de ur par us .
13. Si qr est un quaternion représentant une rotation r ∈ SO3 (R) via l’isomor-
phisme de la question c) et si z ∈ R3 , comment obtenir les coordonnées de r(z)
en utilisant qr ?
14. Dans la question d), montrer que tout élément de K commute avec tout
élément de R. Dans le cas général, si K est un corps, le centre de toute K-algèbre
contient-il K ?
15. En considérant l’action par équivalence de G2 sur H, c’est-à-dire l’application
définie par (q1 , q2 ) 7→ (x 7→ q1 xq2 ), montrer que G2 /{±(1, 1)} ' SO4 (R). En
déduire l’isomorphisme SO4 (R)/{±1} ' SO3 (R) × SO3 (R).

146
Algèbre linéaire

Développement 28 (Lemmes de Schwartz-Zippel et de Kakeya FF)

Soit K un corps. Tout d’abord, on montre le lemme de Schwartz-Zippel,


c’est-à-dire que pour tout entier n > 1 la propriété Hn suivante est vraie :
Soient P un polynôme non nul de K[X1 , . . . , Xn ] de degré d ∈ N, S
un sous-ensemble fini et non vide de K, et s1 , . . . , sn des variables
aléatoires indépendantes et uniformément distribuées sur S. Alors
d
P(P (s1 , . . . , sn ) = 0) 6 . (1)
|S|

a) (i) Montrer que H1 est vraie.


(ii) Soit n > 2 tel que Hp soit vraie pour tout 1 6 p < n. Soit P un polynôme
non nul de K[X1 , . . . , Xn ] de degré d ∈ N. On écrit
d
X
P = Pi (X1 , . . . , Xn−1 )Xni ,
i=0

où Pi (X1 , . . . , Xn−1 ) est le coefficient de Xni dans P vu comme élément


de K[X1 , . . . , Xn−1 ][Xn ]. Soit m ∈ J0, dK le plus grand nombre entier tel
que Pm 6= 0. Montrer les deux inégalités suivantes :
 d−m
P Pm (s1 , . . . , sn−1 ) = 0 6 ,
|S|
 m
P P (s1 , . . . , sn ) = 0 | Pm (s1 , . . . , sn−1 ) 6= 0 6 .
|S|

(iii) Conclure au lemme de Schwartz-Zippel.


b) Soit q une puissance d’un nombre premier et n ∈ N∗ . Un ensemble de
Kakeya est un sous-ensemble E de Fnq contenant une droite dans toutes les
directions, i.e. vérifiant que, pour tout vecteur v ∈ Fnq \ {0}, il existe x ∈ Fnq
tel que {x + tv, t ∈ Fq } ⊂ E.
(i) Montrer qu’un polynôme P ∈ Fq [X1 , . . . , Xn ] \ {0} de degré d > 0 admet
au plus q n−1 d racines dans Fnq .
(ii) Déterminer la dimension f (d, n) de l’espace vectoriel formé par les poly-
nômes de degré au plus d à n variables à coefficients dans Fq .
(iii) Soit d un entier tel que d < q. Si E ⊂ Fnq est de cardinal strictement
inférieur à f (d, n), montrer qu’il existe P ∈ Fq [X1 , . . . , Xn ] \ {0} de degré
d tel que tout élément de E est racine de P .
(iv) Soient E un ensemble de Kakeya et P un polynôme de degré d < q
s’annulant sur E. Montrer que P |Fnq = 0 et en déduire que P = 0.
(v) Déterminer un minorant de la taille d’un ensemble de Kakeya dans Fnq .

Leçons concernées : 121, 144, 151, 190, 264

147
28. Lemmes de Schwartz-Zippel et de Kakeya

Ce développement mobilise un vaste ensemble de notions : probabilités, espaces


vectoriels et polynômes. Le lemme de Schwartz-Zippel est un résultat probabiliste
à propos de la localisation des racines d’un polynôme, ce qui rend son placement
intéressant dans la leçon 264. De plus, on définit un polynôme dont les racines
ont de bonnes propriétés (d’une manière similaire à l’approche détaillée dans le
Développement 14), ce qui justifie une intégration dans la leçon 144. La ques-
tion b)(ii) est un résultat classique de calcul de dimension, et l’argument utilisé
en question b)(iii) utilise cette notion. Ainsi, ce développement trouve sa place
dans la leçon 151. L’utilisation d’un argument combinatoire en question b)(ii)
ainsi que l’énoncé du problème de Kakeya (à savoir, déterminer la taille minimale
d’un ensemble de Kakeya de Fnq en fonction de q et n) le rendent aussi acceptable
dans la leçon 190. Enfin, on pourra adapter ce développement grâce aux problèmes
présentés en commentaire pour l’inclure aussi dans la leçon 121.

Correction.
a) (i) Soit P ∈ K[X]\{0} de degré d. Comme P 6= 0, il a au plus d racines dans K,
donc en particulier dans S. Ainsi, en tirant uniformément (et indépendamment)
des éléments de S, la probabilité de choisir une racine de P est au plus égale au
1
produit d × |S| . Ceci montre que H1 est vraie.
(ii) On a deg(Xnm Pm (X1 , . . . , Xn−1 )) 6 d, donc Pm est de degré au plus d − m.
Comme Pm est un polynôme en au plus n − 1 variables, on peut appliquer
l’hypothèse de récurrence à Pm . On a alors
 d−m
P Pm (s1 , . . . , sn−1 ) = 0 6 .
|S|

Si Pm (s1 , . . . , sn−1 ) 6= 0, le polynôme (en une variable) P (s1 , . . . , sn−1 , Xn ) est de


degré m par définition de m. Ainsi, la question précédente assure que
 m
P P (s1 , . . . , sn ) = 0 | Pm (s1 , . . . , sn−1 ) 6= 0 6 .
|S|

(iii) Soient A, B les évènements (P (s1 , . . . , sn ) = 0) et (Pm (s1 , . . . , sn−1 ) = 0).


Par la formule des probabilités totales et la question précédente, on a

P(A) = P(A | B)P(B) + P(A | B)P(B)


d−m m
61× + ×1
|S| |S|
d
= .
|S|
Ceci montre que la propriété Hn est vraie, ce qui conclut la récurrence initialisée
à la question a)(i) et achève la démonstration du lemme de Schwartz-Zippel.
b) (i) On applique le lemme de Schwartz-Zippel avec S = Fq . On a alors
 d
P P (s1 , . . . , sn ) = 0 6 .
q

148
Algèbre linéaire

Or on a aussi par définition

 |{x ∈ Fnq | P (x) = 0}|


P P (s1 , . . . , sn ) = 0 = .
|Fnq |

En combinant ces deux équations, on obtient

d
|{x ∈ Fnq , P (x) = 0}| 6 |Fnq | × P P (s1 , . . . , sn ) = 0 6 q n × = q n−1 d.

q

(ii) La base canonique de l’espace des polynômes en n variables de degré au


plus d est formée par les monômes X1d1 · · · Xndn avec d1 , . . . , dn des entiers positifs
tels que d1 + · · · + dn 6 d. Il s’agit donc de compter le nombre de n-uplets de la
forme (d1 , . . . , dn ) vérifiant cette condition.
Pour ce faire, on va compter pour tous n, k ∈ N le nombre de n-uplets (d1 , . . . , dn )
d’entiers positifs dont la somme vaut exactement k.
L’ensemble En,k de ces n-uplets est en bijection avec l’ensemble Pn−1 (J1, k + n − 1K)
des parties à n − 1 éléments de J1, k + n − 1K. En effet, on définit

ϕ: En,k −→ Pn−1 (J1, k + n − 1K)


(d1 , . . . , dn ) 7−→ {d1 + 1, d1 + d2 + 2, . . . , d1 + · · · + dn−1 + n − 1}

et
ψ : Pn−1 (J1, k + n − 1K) −→ En,k
{i1 , . . . , in−1 } 7−→ (ip − ip−1 − 1)p∈J1,nK

où les entiers i1 , . . . , in−1 sont choisis en ordre croissant et, par convention, i0 = 0
et in = k + n.
Si d1 + · · · + dn = k, alors ϕ(d1 , . . . , dn ) est bien un sous-ensemble de J1, k + n − 1K
de taille n. Réciproquement, soit {i1 , . . . , in−1 } ∈ Pn−1 (J1, k + n − 1K) où on a
choisi i1 < · · · < in−1 . Alors

n−1
X
i1 − 1 + (ij − ij−1 − 1) + (k + n − 1 − in−1 ) = k + n − 1 − (n − 1) = k.
j=2

De plus, ϕ ◦ ψ = IdPn−1 (J1,k+n−1K) et ψ ◦ ϕ = IdEn,k par un calcul direct.


L’application ϕ est donc une bijection entre n-uplets d’entiers positifs de somme k
et sous-ensembles de J1, k + n − 1K de taille n. Ainsi, le nombre de n-uplets dont
la somme est k est k+n−1
n−1 . On a donc
! ! !
n−1 n n+d−1
f (d, n) = + + ··· + .
n−1 n−1 n−1

Cette somme peut se simplifier à l’aide de la formule de Pascal, via une récurrence

149
28. Lemmes de Schwartz-Zippel et de Kakeya

immédiate :
! ! ! !
n−1 n n+1 n+d−1
f (d, n) = + + + ··· +
n−1 n−1 n−1 n−1
! ! ! !
n n n+1 n+d−1
= + + + ··· +
n n−1 n−1 n−1
! ! !
n+1 n+1 n+d−1
= + + ··· +
n n−1 n−1
..
.
!
n+d
= .
n

(iii) Définissons la fonction

g : Fq [X1 , . . . , Xn ] −→ FE
q
P 7−→ (x 7−→ P (x)).

L’application g est linéaire sur l’espace des polynômes de Fq [X1 , . . . , Xn ] de degré


au plus d (qui est de dimension f (d, n)), et à valeurs dans l’espace FEq des fonctions
de E dans Fq (qui est de dimension |E|).
Comme |E| < f (d, n), g n’est pas injective. Il existe donc un polynôme P non nul,
de degré au plus d, et tel que g(P ) = 0, c’est-à-dire qui s’annule sur tout E.
(iv) On décompose P comme P = di=0 Pi où, pour i ∈ J0, dK, chaque Pi est
P

la somme des monômes de P ayant degré i. En particulier, Pi est un polynôme


homogène, nul ou de degré i.
Supposons qu’il existe i > 0 tel qu’il existe v ∈ Fnq avec Pi (v) 6= 0, et prenons i
maximal.
Soit v tel que Pi (v) 6= 0. Comme i > 0, Pi est un polynôme homogène nul ou non
constant, donc Pi (0) = 0. On a donc v 6= 0. Comme E est un ensemble de Kakeya,
il existe x ∈ Fnq tel que {x + tv, t ∈ Fq } ⊂ E. Alors on a

d
X i
X
0 = P (x + tv) = Pj (x + tv) = Pj (x + tv).
j=0 j=0

Ainsi P (x + tv) est un polynôme en t, à coefficients dans Fq , de degré au plus i et


ayant q racines. Comme i 6 d < q, ce polynôme est nul. A fortiori, le coefficient
de ti dans Pi (x + tv) (à savoir Pi (v)) est nul. Ceci contredit le choix de l’entier i.
Par conséquent, pour tout i > 0, le polynôme Pi est nul sur Fnq .
On peut finalement écrire que, pour tout v ∈ Fnq , P (v) = P0 (v) = P0 car P0 est
constant. Comme P s’annule sur E et que E est non vide, on a P0 = 0.
On obtient donc que P s’annule sur tout Fnq . Si P 6= 0, la question b)(i) assure
que q n 6 q n−1 d < q n , ce qui est impossible. Ainsi, P est nul.

150
Algèbre linéaire

(v) Si |E| < f (q − 1, n), la question b)(iii) fournit un polynôme non nul de degré
au plus q − 1 qui s’annule sur E, ce qui est contradictoire avec la question b)(iv).
Ainsi, le cardinal d’un ensemble de Kakeya est au moins
!
n+q−1
f (q − 1, n) = .
n

Commentaires.
© Dans ce développement, il est important de bien faire la différence entre
polynôme de K[X1 , . . . , Xn ] nul en tant que polynôme, ou nul en tant que fonction
polynomiale définie sur Kn . Évidemment, si P est nul, la fonction polynomiale
associée est identiquement nulle. La réciproque n’est pas toujours vraie, comme le
montre l’exemple du polynôme X q − X dans Fq [X]. Dans la question b)(iv), on
utilise le lemme de Schwartz-Zippel pour obtenir l’implication réciproque dans un
cas particulier.
© Bien que technique, l’application ϕ définie en question b)(ii) peut se représenter
graphiquement. Il s’agit de noircir n − 1 cases sur une ligne de k + n − 1 cases (di
est obtenu en comptant le nombre de cases entre la (i − 1)-ème et la i-ème case
noircie, voir Figure 1.5).

1 2 0 3

1 2 3 4 5 6 7 8 9

Figure 1.5 – Pour n = 4 et k = 7, l’application ϕ : E4,7 → P3 (J1, 10K) associe


l’ensemble {2, 5, 6} au 4-uplet (1, 2, 0, 3).

© Le lemme de Schwartz-Zippel permet de donner un algorithme probabiliste pour


tester si un polynôme est nul (ou si deux polynômes sont égaux, en testant si la
différence est nulle). Considérons un algorithme visant à tester si un polynôme P
de degré d en n variables est identiquement nul, en effectuant uniquement des
évaluations. On peut facilement produire un algorithme déterministe nécessitant
(d + 1)n évaluations dans le pire cas en choisissant d’évaluer en des points d’un
produit cartésien. En effet, on montre facilement par récurrence sur n que si S
est un ensemble de d + 1 points, tout polynôme de degré au plus d en n variables
qui s’annule en tout point de S n est nul (voir Développement 14).
En revanche, on peut effectuer beaucoup moins d’évaluation en recourant à une
méthode probabiliste : on évalue P en des points choisis aléatoirement. Si la valeur
obtenue n’est pas 0, alors P n’est pas identiquement nul. Sinon, la probabilité que P
soit non nul mais qu’il s’annule sur les valeurs choisies est bornée par le lemme de
Schwartz-Zippel. En itérant l’expérience suffisamment de fois, on peut tester si P
est nul avec probabilité aussi forte que l’on souhaite. On peut alors conclure à la
nullité de P avec une probabilité d’erreur très raisonnable en effectuant beaucoup
moins d’évaluations que dans le cas déterministe : on n’obtient jamais de faux

151
28. Lemmes de Schwartz-Zippel et de Kakeya

négatif, et la probabilité d’obtenir un faux positif décroît exponentiellement en le


nombre d’essais. À ce jour, obtenir un algorithme déterministe aussi efficace que
la version probabiliste est toujours une question ouverte.
© Il existe de nombreuses autres applications du lemme de Schwartz-Zippel en
algorithmique. En théorie de la complexité, il permet par exemple de prouver
l’égalité entre PSpace (la classe des problèmes résolubles en espace polynomial)
et IP (une classe de problèmes résolubles par un certain type d’algorithmes
probabilistes). Bien que ce résultat dépasse largement le cadre de l’agrégation, on
pourra se référer à l’article « IP = PSpace » de Adi Shamir en 1992 (voir [Sha92]).
© Une autre application provient de la théorie des graphes. Un couplage parfait
dans un graphe G est un ensemble A d’arêtes tel que tout sommet de G soit
l’extrémité d’exactement une arête de A. Déterminer si un graphe admet un
couplage parfait peut se faire en temps polynomial via l’algorithme d’Edmonds,
mais cet algorithme est pénible à implémenter. En revanche, un théorème de Tutte
(1947) établit que G admet un couplage parfait si et seulement si le déterminant
d’une matrice à coefficients polynomiaux bien choisie (appelée matrice de Tutte)
est non nul. Tester ce nouveau critère est coûteux si on calcule effectivement le
déterminant dans l’anneau des polynômes. En particulier, on ne peut pas tester si
les coefficients du polynôme sont nuls. Par contre, on peut facilement l’évaluer, et
l’algorithme probabiliste décrit précédemment permet de tester l’existence d’un
couplage parfait (avec un risque d’erreur aussi faible qu’on le souhaite).
© Le problème de Kakeya originel consiste à déterminer un ensemble S de R2 ,
d’aire minimale dans laquelle on peut faire « tourner » une aiguille de longueur 1.
D’un point de vue plus formel, cette condition peut se traduire par le fait que S
est un ensemble de Kakeya, c’est-à-dire que S contient un segment de longueur 1
dans toutes les directions. De manière surprenante, un résultat de Besicovitch (en
1919) établit qu’il existe de tels ensembles d’aire arbitrairement petite. On peut en
fait construire une suite décroissante d’ensembles de Kakeya, dont la mesure tend
vers 0. En particulier, leur intersection fournit un ensemble de Kakeya non trivial
de mesure nulle. Si on se restreint aux ensembles de Kakeya simplement connexes
(ce qui est nécessaire pour pouvoir effectivement faire tourner une aiguille), la
construction de Besicovitch fournit des ensembles simplement connexes et d’aire
arbitrairement petite, ce qui est optimal (puisqu’on ne peut pas faire tourner une
aiguille dans un ensemble de mesure nulle).
La conjecture de Kakeya énonce que la dimension de Hausdorff 6 d’un ensemble de
Kakeya dans Rn est n, et est encore ouverte à ce jour pour n > 3. En particulier,
cette conjecture affirme que même si les ensembles de Kakeya peuvent avoir une
mesure nulle, leur dimension de Hausdorff doit être assez grande (n étant aussi la
dimension de Hausdorff de Rn ou de sa boule unité).
© Dans le cas discret considéré ici (c’est-à-dire le cas d’un corps fini), on ne mesure
plus l’aire mais le cardinal. La borne donnée par la dernière question sur la taille
n
minimale d’un ensemble de Kakeya dans Fnq est alors équivalente à qn! quand n

6. Une généralisation de la notion de dimension d’un espace vectoriel à des espaces métriques,
qui déborde du programme de l’agrégation.

152
Algèbre linéaire

est fixé et q → +∞, ce qui est donc optimal en termes d’ordre de grandeur : la
taille minimale d’un ensemble de Kakeya dans Fnq doit être asymptotiquement
proportionnelle à q n = |Fnq |. Ainsi, un ensemble de Kakeya est nécessairement
grand, ce qui conduit à une situation bien différente du cas de R2 .

Questions.
1. Dans la question a)(ii), justifier que m est bien défini.
2. Dans la même question, démontrer la majoration de la probabilité conditionnelle
sans recourir à l’interprétation des évènements considérés.
3. Que devient la formule des probabilités totales par rapport à un système
complet (B, B̄) quand la probabilité de B est nulle ?
4. Donner un argument combinatoire permettant de retrouver la formule suivante,
démontrée dans la question b)(ii) :

d
! !
n+d X n+k−1
= .
n k=0
n−1

5. Soit K un corps. Montrer que tout P ∈ K[X] \ {0} admet au plus deg(P )
racines. Est-ce toujours vrai sur A[X] où A est un anneau ?
6. Soit P ∈ K[X1 , . . . , Xn ] un polynôme homogène de degré d. Soit x, v ∈ Kn .
Montrer que le coefficient de T d du polynôme P (x + T v) ∈ K[T ] est égal à P (v).
7. Montrer qu’un entier n est premier si et seulement si (1 + x)n = 1 + xn pour
tout élément x ∈ Z/nZ. En déduire un algorithme probabiliste pour tester si n
est premier. À l’aide du lemme de Schwartz-Zippel, déterminer la probabilité
d’obtenir un faux positif et celle d’obtenir un faux négatif.
8. Soit P ∈ K[X1 , . . . , Xn ] de degré d. Si K est un corps infini, montrer que P est
homogène de degré d si et seulement si P (tx1 , . . . , txn ) = td P (x1 , . . . , xn ) pour
tous t, x1 , . . . , xn ∈ K. Est-ce toujours vrai sur un corps fini ?
9. Soit P ∈ K[X1 , . . . , Xn ] où K est un corps de caractéristique nulle. Montrer
que P est homogène de degré p si et seulement si
n
X dP
pP = Xi ,
i=1
dXi

dP
où dX i
est le polynôme dérivé de P vu comme polynôme en Xi . Ceci reste-t-il
valide en caractéristique non nulle ?
10. Montrer que si QR est homogène avec Q, R ∈ K[X1 , . . . , Xn ], alors Q et R
sont homogènes. En déduire que X12 + · · · + Xn2 est irréductible sur R (resp. C) si
et seulement si n > 2 (resp. n > 3).
11. Montrer que les polynômes homogènes irréductibles de C[X, Y ] sont exacte-
ment ceux de degré 1.

153
28. Lemmes de Schwartz-Zippel et de Kakeya

12. Soit I un idéal de K[X1 , . . . , Xn ]. Montrer que I est engendré par des po-
lynômes homogènes si et seulement si I est engendré par un nombre fini de
polynômes homogènes.
Indication : on pourra montrer que, dans ce cas, pour tout polynôme P , on a
P ∈ I si et seulement si toute composante homogène Pi de P appartient à I.

154
Algèbre linéaire

Développement 29 (Calculs de polynômes caractéristiques F)

Soient n ∈ N∗ , K un corps, et A ∈ Mn (K). Le but de cet exercice est de


présenter deux algorithmes permettant de calculer les coefficients du polynôme
caractéristique χA = det(XIn − A) = ni=0 ai X i de A, où an = 1.
P

a) Algorithme de Le Verrier.
Soient λ1 , . . . , λn ∈ C les valeurs propres de A comptées avec multiplicité.
Pour k ∈ N, on note Sk = ni=1 λki , avec par convention S0 = n.
P

(i) Montrer que pour tout entier k, on a Sk = tr(Ak ).


Pn
(ii) Soit P = X n χA ( X1 ) = i=0 an−i X
i le polynôme réciproque de χA .
Montrer que
n +∞
− XP 0 = P
Y X
P = (1 − λi X) et Sk X k .
i=1 k=0

(iii) En déduire que, pour tout i ∈ J0, nK,


n
X
−(n − i)ai = aj Sj−i .
j=i+1

En déduire un algorithme pour calculer χA . Quelle est sa complexité ?


b) Algorithme de Samuelson-Berkowitz.
On écrit !
M C
A= ,
L an,n
où L (resp. C) est un vecteur ligne (resp. colonne) de taille n − 1 et M est
une matrice (n − 1) × (n − 1).
(i) Montrer que

χA = (X − an,n )χM − Lt com(XIn−1 − M )C.


Pn−1
(ii) Montrer que, si χM = i=0 bi X i , on a
n X
X n
t
com(XIn−1 − M ) = bj−1 M j−k X k−2 .
k=2 j=k

(iii) En déduire que les coefficients de χA peuvent s’obtenir comme combinai-


sons linéaires des coefficients de χM .
(iv) Donner un algorithme qui détermine χA . Estimer sa complexité.

Leçons concernées : 144, 152, 153, 162

155
29. Calculs de polynômes caractéristiques

Ce développement présente deux algorithmes de calcul du polynôme caractéristique


d’une matrice carrée, et donc de son déterminant. Il est donc un candidat idéal
pour les leçons 152 et 162. La correction de l’algorithme de Le Verrier repose
sur l’établissement d’une relation liant coefficients et sommes de Newton des
racines d’un polynôme, ce qui justifie son utilisation dans la leçon 144. Enfin,
le développement s’inscrit aussi dans la leçon 153 grâce aux manipulations de
polynômes d’endomorphismes qui y sont présentées.

Correction.
a) (i) La matrice A est trigonalisable sur C, il existe donc une matrice inver-
sible P et une matrice triangulaire T dont la diagonale est λ1 , . . . , λn telles que
A = P T P −1 . Soit k ∈ N. On a Ak = P T k P −1 , et T k est une matrice triangulaire
dont les coefficients diagonaux sont λk1 , . . . , λkn . La trace étant un invariant de
similitude, on a tr(Ak ) = tr(T k ) = Sk .
(ii) On a χA = ni=1 (X − λi ). Alors, en calculant dans K(X), on a
Q

n  n
1
Y  Y
n
P =X − λi = (1 − λi X).
i=1
X i=1
1 P+∞ k,
En utilisant le développement en série formelle 1−X = k=0 X on peut alors
écrire (dans K(X))
n n
P0 X −λi 1 X −λi X
= =
P i=1
1 − λi X X i=1 1 − λi X
n  n +∞
!
1 X 1 1 X
 X
= 1− = − λki X k
X i=1 1 − λi X X i=1 k=1
n
1 +∞
XX 1 +∞
X
=− λki X k = − Sk X k ,
X k=1 i=1 X k=1
ce qui assure que
+∞
−XP 0 = P
X
Sk X k .
k=1
Pn
(iii) Comme P = i=0 an−i X i, on a par la question précédente
n +∞
ian−i X i = −XP 0 = P
X X
− Sk X k
i=0 k=1
n
! +∞ !
X X
= an−i X i Sk X k
i=0 k=1

X min(k−1,n)
+∞ X
= an−i Sk−i X k
k=1 i=0
+∞ min(i−1,n)
X X
= an−j Si−j X i
i=1 j=0

156
Algèbre linéaire

où la dernière égalité se résume à un renommage des indices des sommes. L’iden-


tification des coefficients de X i pour i ∈ J0, nK fournit alors
i−1
X
−ian−i = an−j Si−j .
j=0

En remplaçant i par n − i et en réindiçant, on obtient, pour tout i ∈ J0, nK,


n
X
− (n − i)ai = aj Sj−i . (1)
j=i+1

Les équations (1) fournissent un système triangulaire supérieur, dont le coefficient


diagonal de la ligne i est n − i. Sachant que an = 1 puisque c’est le coefficient
dominant de χA , on peut alors calculer an−1 , . . . , a0 en utilisant (1).
L’algorithme de Le Verrier est donc le suivant : on commence par calculer la
somme de Newton Sk = tr(Ak ) pour k ∈ J0, nK, puis on détermine an−1 , . . . , a0 en
utilisant (1). Pour calculer les Sk , on effectue en tout n multiplications de matrices
de taille n × n en O(n3 ), et n calculs de traces en O(n), pour une complexité
totale en O(n4 ).
Pour déterminer an−k , on utilise O(k) opérations. Le calcul des ak se fait donc en
temps O(n2 ), pour une complexité finale en O(n4 ).
b) (i) Si N est une matrice k × k et S, T ⊂ J1, kK, on note [N ]TS la matrice
obtenue à partir de N en supprimant les lignes indicées par S et les colonnes
indicées par T . En particulier, on a [A]nn = M . On définit enfin L = (`i )i∈J1,nK
et t C = (ci )i∈J1,nK .
On commence par développer det(XIn − A) selon la dernière ligne :
n−1
X
det(XIn − A) = (X − an,n ) det(XIn−1 − M ) + (−1)n+i `i det([XIn − A]in ).
i=1

On développe ensuite chacun des déterminants du membre droit selon sa dernière


colonne :
n−1
(−1)n−1+j cj det([XIn − A]i,n
X
det([XIn − A]in ) = j,n )
j=1
n−1
X
= (−1)n−1+j cj det([XIn−1 − M ]ij ).
j=1

En combinant ces deux égalités, on obtient


n−1
X n−1
X
χA = (X − an,n )χM − (−1)i+j `i cj det([XIn−1 − M ]ij ).
i=1 j=1

En particulier, (−1)i+j det([XIn−1 − M ]ij ) est un cofacteur de XIn−1 − M , c’est


le coefficient en position (i, j) dans t com(XIn−1 − M ). En reconnaissant dans la
somme un produit de matrices, on obtient alors
χA = (X − an,n )χM − L t com(XIn−1 − M )C.

157
29. Calculs de polynômes caractéristiques

(ii) Posons
n X
X n
N= bj−1 M j−k X k−2 .
k=2 j=k
On a
n X
X n n X
X n
N (XIn−1 − M ) = bj−1 M j−k X k−1 − bj−1 M j−k+1 X k−2
k=2 j=k k=2 j=k
 
n
X n−1
X n
X n
X
= bn−1 In−1 X n−1 − bj−1 M j−1 +  bj−1 M j−k − bj−1 M j−k X k−1
j=2 k=2 j=k j=k+1
n
X n−1
X
= bn−1 In−1 X n−1 − bj−1 M j−1 + bk−1 In−1 X k−1
j=2 k=2
n
X Xn
=− bj−1 M j−1 + bk−1 In−1 X k−1
j=2 k=2
Xn Xn
=− bj−1 M j−1 + bk−1 In−1 X k−1
j=1 k=1
= −χM (M ) + χM In−1 .
Par le théorème de Cayley-Hamilton, on a donc N (XIn−1 − M ) = χM In−1 .
Comme χM n’est pas le polynôme nul, χ1M N est donc bien l’inverse de XIn−1 − M
dans Mn (K(X)), d’où N = χM (XIn−1 − M )−1 = t com(XIn−1 − M ).
(iii) En combinant les résultats des deux questions précédentes, on obtient
n X
X n
χA = (X − an,n )χM + bj−1 LM j−k CX k−2 . (2)
k=2 j=k

Soient cA = t (an , . . . , a0 ) et cM = t (bn−1 , . . . , b0 ) les vecteurs colonnes des coeffi-


cients de χA et χM . En identifiant les coefficients des deux membres de (2), on
obtient que cA = P cM où P est une matrice (n + 1) × n de la forme
 
1 0 ··· ··· 0

 −a .. 
 n,n 1 0 . 

 .. .. .. .. 
 LC . . . . 
P = .
 
.. .. .. ..

 . . . . 0


.. ..
 

LM n−3 C . . 1


LM n−2 C LM n−3 C · · · LC −an,n
(iv) En appliquant la question précédente, on peut construire un algorithme
récursif pour calculer le vecteur cA .
• Si n = 1, on retourne t (1, −a1,1 ) (en effet, le polynôme caractéristique de A
est X − a1,1 ), sinon on décompose A sous la forme de l’énoncé, on calcule
récursivement le vecteur cM . On calcule ensuite la matrice P , et on obtient
finalement cA comme le produit P cM .

158
Algèbre linéaire

• À chaque appel récursif, on doit calculer la matrice P . Pour ce faire, on pourrait


calculer tous les M i pour i ∈ J0, n − 2K pour un coût O(n4 ), puis effectuer
les produits scalaires LM i C pour un coût de O(n3 ). On peut améliorer ce
temps de calcul, en calculant non pas M, M 2 , . . . mais M C, M 2 C, . . . En effet,
on n’effectue alors que des multiplications d’une matrice par un vecteur, ce
qui prend donc O(n2 ) au lieu de O(n3 ). Ainsi, le calcul de P s’effectuera en
complexité O(n3 ). Enfin, le produit P cM se calcule aussi en O(n3 ).
Chaque appel récursif prend donc un temps O(n3 ). À chaque appel, la taille
de la matrice considérée diminue de 1, assurant qu’il n’y a que n appels. La
complexité totale est donc O(n4 ).

Commentaires.
© Le problème du calcul du polynôme caractéristique d’une matrice sur un an-
neau donné est fondamental. En effet, il permet d’obtenir l’inverse, un polynôme
annulateur (par le théorème de Cayley-Hamilton), le polynôme minimal (en
prenant le pgcd avec sa dérivée), des informations sur les valeurs propres (locali-
sation/approximation), en plus de fournir la trace et le déterminant grâce aux
coefficients an−1 et a0 . L’algorithme de Le Verrier fonctionne sur tout anneau où
n! n’est pas un diviseur de zéro, puisqu’il faut pouvoir inverser 1, . . . , n. Dans le
cas d’un anneau commutatif arbitraire, la variante du pivot de Gauss dite « avec
élimination des divisions » a une complexité de O(n5 ). On peut en revanche s’en
sortir avec une complexité en O(n4 ), grâce à l’algorithme de Kaltofen-Wiedemann.
Avec un peu plus d’hypothèses, on peut obtenir une complexité de O(n3 ) sur un
corps (algorithme de Hessenberg) ou sur un anneau intégralement clos où il existe
un algorithme de division (algorithme de Frobenius). Enfin, il existe aussi un
algorithme probabiliste en O(n3 ) fonctionnant sur un corps (celui de Wiedemann).
© La partie coûteuse de l’algorithme de Le Verrier est le calcul des traces des
puissances de la matrice √initiale. Grâce à une méthode astucieuse (précalculer
b
les puissances de B = A nc , et remplacer le calcul de tr(Ai ) par tr(B q Ar ) où
√ √
i = qb nc + r est la division euclidienne de i par b nc), on peut diminuer la
complexité en O(n7/2 ) au lieu de O(n4 ). Cet algorithme est connu sous le nom
d’algorithme de Preparata et Sarwate.
© À l’ère actuelle, il est aussi intéressant d’obtenir des algorithmes se comportant
bien vis-à-vis de la parallélisation. En effet, si les matrices sont grandes, on pourrait
être tenté de confier des sous-matrices à des unités de calcul distinctes, et de recom-
biner des résultats ensuite. Dans le cadre du calcul de polynôme caractéristique,
de telles variantes existent. Par exemple, l’algorithme de Samuelson-Berkowitz se
parallélise très bien : il suffit de déléguer le calcul des n matrices P à des unités
différentes. Ensuite, on effectue le produit de ces matrices, ce qui se parallélise
aussi très bien : pour multiplier n matrices P1 , . . . , Pn , on assigne à n2 unités le
calcul des produits P1 P2 , P3 P4 , . . ., puis on réitère en réutilisant n4 unités de calcul,
etc. On arrive alors à calculer le produit total en ln2 (n) multiplications au plus par
unité de calcul. De même, bien que l’algorithme de Le Verrier ne se parallélise pas
très bien, ce n’est pas le cas de sa variante décrite au point précédent. L’algorithme

159
29. Calculs de polynômes caractéristiques

de Preparata et Sarwate nécessite au plus O(ln2 (n)) opérations par unité de calcul
lorsqu’on a un nombre polynomial en n d’unités. Avec l’algorithme de Csanky,
c’est un des meilleurs algorithmes parallèles connus pour ce problème.
© La complexité de la multiplication de deux matrices carrées n × n est une
question épineuse. Elle est souvent notée de manière théorique O(nβ ), avec β le
« meilleur » exposant possible. On sait naturellement que β 6 3 car l’algorithme
naïf a une complexité cubique. Grâce à l’approche diviser pour régner, l’algorithme
de Strassen permet de montrer β 6 ln2 (7) ≈ 2.807. L’algorithme de Coppersmith-
Winograd améliore cette constante en 2.376, et une analyse plus fine de sa
complexité par Stothers fournit même β 6 2.3737. On ne sait en revanche pas si
cette constante est optimale. Bien qu’asymptotiquement meilleur, cet algorithme
n’est que peu utilisé en pratique. En effet, la constante cachée dans le O(n2.37 ) est
si grande que l’algorithme de Strassen reste meilleur pour toute taille de matrice
utilisable.
© Pour le calcul simple du déterminant, effectuer un pivot de Gauss est un
algorithme de complexité O(n3 ) lorsqu’on se place sur un corps. Cependant, dans
le cas d’un anneau plus général, la version du pivot avec élimination des divisions
ne fonctionne qu’en O(n5 ). Dans un anneau intègre où la division est explicitement
calculable, l’algorithme de Jordan-Bareiss fonctionne en O(n3 ). Ainsi, parfois il
pourrait être plus intéressant de calculer le polynôme caractéristique en entier
en O(n4 ) avec l’algorithme de Le Verrier (valide dès que 1, . . . , n ont un inverse,
même si l’inversion n’est pas forcément calculable sur les autres éléments de
l’anneau considéré) pour extraire le déterminant.
© Lorsqu’on travaille avec des matrices à coefficients entiers, il est tentant d’ef-
fectuer les calculs dans Q pour pouvoir diviser librement. Du point de vue de
l’implémentation, cela implique de stocker des rationnels, souvent représentés
en mémoire comme des couples d’entiers premiers entre eux. Maintenir cette
condition de primalité oblige alors à prendre en compte un coût additionnel lors
des calculs. C’est pourquoi on préfère parfois un algorithme de moins bonne com-
plexité, mais restant dans les entiers. Se pose alors le problème de la complexité de
multiplier des grands entiers entre eux. En effet, on compte souvent la complexité
en « nombre d’opérations élémentaires », en incluant dans cette définition les
sommes et produits d’entiers « machine », c’est-à-dire inférieurs à 264 . Lorsque les
entiers deviennent plus grands, il faut alors prendre en compte à nouveaux des
« coûts cachés » (par exemple, le meilleur algorithme connu actuellement pour
multiplier deux entiers à n chiffres a une complexité de O(n ln(n))). Pour plus d’in-
formations sur la multiplication d’entiers, voir Développement 106. Une manière
d’éviter ce problème est de travailler modulo des nombres premiers p1 , . . . , pk .
L’anneau Z/pZ étant un corps, on peut effectuer toutes les opérations modulo p
relativement facilement (quitte à précalculer tous les inverses modulo p), puisque
tous les entiers mis en jeu resteront inférieurs à p. La question est alors : comment
utiliser les résultats modulo p1 , . . . , pk pour obtenir un résultat dans Z ?
Dans le cas du déterminant, imaginons une matrice A à coefficients entiers dont on
connaît le déterminant modulo p1 , . . . , pk . D’après le théorème des restes chinois,
on connaît donc la classe det(A) modulo le produit N = p1 · · · pk . Si on sait de

160
Algèbre linéaire

plus que − N2 < det(A) < N2 , alors on peut déduire det(A) de det(A), puisqu’il n’y
a qu’un seul entier compris entre − N2 et N2 qui soit congru à det(A) modulo N .
Cette technique repose donc sur l’établissement d’une borne a priori sur det(A),
ce qu’on peut par exemple obtenir grâce à l’inégalité de Hadamard.
Pour calculer le déterminant d’une matrice, on commence par calculer une borne
a priori N via cette inégalité, puis on calcule le déterminant modulo p1 , . . . , pk ,
jusqu’à ce que le produit p1 · · · pk dépasse N . On reconstruit alors la classe π du
déterminant modulo p1 · · · pk par le théorème chinois (et l’algorithme d’Euclide
étendu). Le déterminant recherché est alors l’entier relatif de plus petite valeur
absolue congru à π modulo p1 , . . . , pk .
Cette méthode possède l’inconvénient de répéter le calcul pour chaque nombre
premier. Par contre, comme le produit 2 × 3 × · · · pk (où pk est le k-ème nombre
premier) croît vite, on n’a en général pas besoin de considérer beaucoup de nombres
premiers. De plus, comme on l’a vu, cette méthode ne nécessite pas de calculer
avec des grands entiers en mémoire. Elle est aussi adaptée au calcul parallèle
puisqu’on peut confier le calcul dans chaque Z/pi Z à une unité de calcul séparée.
© La matrice P définie en question b)(iii) est une matrice de Toeplitz, c’est-à-
dire qu’elle est triangulaire inférieure, et si deux coefficients sont sur la même
diagonale, alors ils sont égaux. Pour ce type de matrices, des algorithmes de
multiplication plus efficaces existent, ce qui permet d’accélérer l’algorithme de
Samuelson-Berkowitz.
© Une conséquence de la question a) est que dans tout anneau où les entiers sont
inversibles, les sommes de Newton (Sk )k∈N forment un système fondamental de
polynômes symétriques.

Questions.

1. Justifier les manipulations effectuées en question a(ii).


2. Dans quel(s) espace(s) s’effectuent les calculs de b)(ii) ?
3. Soit A une matrice inversible. À l’aide du théorème de Cayley-Hamilton, exhiber
un polynôme P tel que A−1 = P (A). Étant donné P , quel est le coût du calcul de
A−1 ?
4. Soient A, B, C, D quatre matrices carrées de même taille. Montrer que si D est
inversible, alors
!
A B
det = det(AD − BD−1 CD).
C D

Si on ne suppose plus que D est inversible, mais que CD = DC, montrer que le
déterminant précédent est égal à det(AD − BC).

161
29. Calculs de polynômes caractéristiques

5. Montrer l’inégalité de Hadamard :

Pour tout n ∈ N∗ et tout n-uplet (C1 , . . . , Cn ) de vecteurs colonne de


taille n,
n
Y
| det(C1 , . . . , Cn )| 6 kCi k2 .
i=1

6. Avec les notations de la question a), considérons la suite de matrices définies


par B0 = In et, pour tout k ∈ N∗ ,

tr(Bk−1 A)
Bk = Bk−1 A − In .
k
tr(Bk−1 A)
On note aussi dk = − k . Montrer que

k k−1
!
k
X
k−i 1 X
Bk = A + di A et dk = − Sk + di Sk−i .
i=1
k i=1

En déduire un nouvel algorithme de calcul de χA et déterminer sa complexité.


C’est l’algorithme de Faddeev-Souriau.
7. Que vaut Bn ? Comment obtenir A−1 (si A est inversible) avec cet algorithme ?
Remarque : l’algorithme de Faddeev-Souriau, bien qu’ayant une complexité si-
milaire à celui de Le Verrier, permet d’obtenir facilement l’inverse de la matrice
initiale (moyennant O(n2 ) divisions par le déterminant). On peut aussi montrer
qu’avec O(n2 ) opérations supplémentaires, on peut déterminer un vecteur propre
non nul associé à une valeur propre de multiplicité géométrique 1 fournie.
8. Soit M une matrice carrée n × n. Montrer le théorème de Desnanot-Jacobi :

det(M ) det([M ]1,n 1 n n 1


1,n ) = det([M ]1 ) det([M ]n ) − det([M ]1 ) det([M ]n ).

Indication : on pourra considérer le cas où M est la matrice universelle, c’est-à-dire


dont chaque coefficient est une indéterminée, puis calculer M M ∗ où la matrice
M ∗ est obtenue en remplaçant la première (resp. dernière) colonne de M par la
transposée de la première (resp. dernière) ligne de sa comatrice.
Remarque : cette formule est à la base de l’algorithme de condensation de Dodgson
(aussi connu sous le nom de Lewis-Carroll), dont une des particularités est de ne
pas nécessiter de rationnels lors des calculs sur une matrice à coefficients entiers.

162
Algèbre linéaire

Développement 30 (Endomorphismes conservant le déterminant F)

Soit K un corps et n > 2. Soit u : Mn (K) → Mn (K) un endomorphisme


préservant le déterminant, c’est-à-dire

∀A ∈ Mn (K), det(u(A)) = det(A).

a) Soit A ∈ Mn (K) et k ∈ J0, nK tel que K contienne au moins k éléments non


nuls. Montrer que rg(A) > k si et seulement s’il existe une matrice inversible
B ∈ GLn (K) telle que xA + B soit non inversible pour au moins k valeurs
de x distinctes.
b) En déduire que u est un isomorphisme.
c) Le cas des corps assez grands. On suppose que |K| > n + 1.
(i) Montrer que pour tout A ∈ Mn (K), on a rg(u(A)) 6 rg(A).
(ii) Conclure au résultat suivant :
Tout endomorphisme de Mn (K) conservant le déterminant conserve
aussi le rang.
d) Le cas K 6= F2 .
(i) Montrer que toute matrice de rang r peut s’écrire comme une somme
de r matrices de rang 1.
(ii) En déduire que le résultat de la question c)(ii) reste valide si K 6= F2 .

Leçons concernées : 106, 150, 151, 152

Cet énoncé fournit plusieurs possibilités de développements (voir commentaires


ci-après). Dans tous les cas, on manipule intensivement l’équivalence, le rang et le
déterminant de matrices, ce qui illustre naturellement les leçons 150, 151 et 152,
ainsi que la leçon 106 si ces notions y sont développées.

Correction.
a) Raisonnons par double implication.
• Supposons que rg(A) > k. En utilisant une réduction de Gauss, la matrice A
peut s’écrire sous la forme P diag(α1 , . . . , αr , 0, . . . , 0)Q avec r = rg(A) > k,
P, Q ∈ GLn (K) et α1 , . . . , αr des éléments de K ∗ tels que α1 , . . . , αk soient
deux à deux distincts.
En posant B = P Q = P In Q ∈ GLn (K), la matrice

xA + B = P diag(xα1 + 1, . . . , xαr + 1, 1, . . . , 1)Q

est alors non inversible pour les k valeurs distinctes − α1i pour i ∈ J1, kK.
• Réciproquement, raisonnons par contraposée et supposons que rg(A) < k.
Soit alors B ∈ GLn (K) et x ∈ K. Montrons que xA + B est inversible sauf
pour au plus k − 1 valeurs de x.

163
30. Endomorphismes conservant le déterminant

Écrivons A sous la forme P Jn,rg(A) Q, où P et Q sont inversibles et la matrice


centrale contient rg(A) < k coefficients égaux à 1. Alors
  
det(xA + B) = det P xJn,rg(A) + P −1 BQ−1 Q
= det(P ) det(Q) det(Cx ),
où Cx est la matrice obtenue à partir de P −1 BQ−1 en ajoutant x aux
coefficients en position (1, 1), . . . , (rg(A), rg(A)). Par multi-linéarité du déter-
minant, on obtient que det(Cx ) est un polynôme de degré au plus rg(A) < k
en x et qui est non nul car son coefficient constant est
det(C0 ) = det(P −1 BQ−1 ) 6= 0.

En particulier, l’égalité det(Cx ) = 0 n’est valide que pour au plus k − 1


valeurs de x. Comme det(P ) et det(Q) sont non nuls, on obtient que le
déterminant det(xA + B) est nul que pour au plus k − 1 valeurs de x.
b) Supposons que u ne soit pas injectif, c’est-à-dire qu’il existe une matrice non
nulle A ∈ Mn (K) telle que u(A) = 0. En particulier, rg(A) > 1, et la question
précédente assure qu’il existe une matrice B ∈ GLn (K) et une valeur x ∈ K telle
que xA + B ne soit pas inversible. On a alors, puisque u est un endomorphisme
qui conserve le déterminant,
0 = det(xA + B) = det(u(xA + B)) = det(xu(A) + u(B))
= det(u(B)) = det(B),

ce qui est en contradiction avec le fait que B est inversible. Ainsi, u est injectif.
Puisque Mn (K) est de dimension finie, on en déduit que u est un isomorphisme.
c) (i) Soit r = rg(u(A)). Par la question a) il existe une matrice B 0 inversible
telle que xu(A) + B 0 ne soit pas inversible pour r scalaires de K deux à deux
distincts. Puisque u est un isomorphisme, il existe B telle que u(B) = B 0 et B est
inversible puisque u préserve le déterminant. On a alors
det(xu(A) + B 0 ) = det(xu(A) + u(B)) = det(u(xA + B)) = det(xA + B) = 0.

On en déduit qu’il existe une matrice inversible B et r scalaires distincts et non


nuls de K tels que xA + B soit non-inversible. On a ainsi rg(A) > r = rg(u(A))
par la question a).
(ii) Il est immédiat de vérifier que, puisque u conserve le déterminant et est un
isomorphisme, son inverse u−1 conserve également le déterminant. Ainsi, par la
question précédente, toute matrice A vérifie
rg(A) = rg(u−1 (u(A))) 6 rg(u(A)) 6 rg(A).
Ainsi, l’endomorphisme u préserve le rang.
d) (i) Soit A une matrice de rang r. À équivalence près, A s’écrit comme la
matrice Jn,r qui se décompose comme la somme A1 + · · · + Ar , où pour i ∈ J1, rK,
tous les coefficients de Ai sont nuls sauf celui en position (i, i), qui vaut 1. Il est
alors clair que rg(Ai ) = 1.

164
Algèbre linéaire

6 F2 , on peut appliquer la question a) lorsque k 6 2. En particulier,


(ii) Si K =
le raisonnement de la question c)(i) reste valide pour k = 2, et on obtient que
si A est une matrice telle que rg(u(A)) > 2, alors rg(A) > 2. Par contraposée, on
en déduit que rg(u(A)) 6 rg(A) pour toute matrice A de rang au plus 1.
Soit A une matrice de rang r. Par la question précédente, A peut s’écrire comme
une somme A1 + · · · + Ar de matrices de rang 1. On a alors

rg(u(A)) = rg(u(A1 ) + · · · + u(Ar ))


6 rg(u(A1 )) + · · · + rg(u(Ar ))
6 rg(A1 ) + · · · + rg(Ar ) = r = rg(A).

Comme u est un isomorphisme, le raisonnement de la question c)(ii) montre à


nouveau que u préserve le rang.

Commentaires.
© Les résultats présentés ici peuvent donner lieu à plusieurs développements.
Par exemple, les questions a) à c) fournissent un développement F, qui peut
être agrémenté du résultat de la question d) en fonction du temps. La preuve
alternative dans le cas d’un corps infini proposée en question ci-après peut aussi
constituer un développement F, en remplacement de la question c).
© L’idée générale de ce développement consiste à caractériser l’ensemble des
matrices de rang k à l’aide de critères compatibles avec la notion d’endomorphisme
préservant le déterminant. C’est le but de la question a), qui traduit une condition
sur le rang en l’existence d’un certain nombre de matrices non-inversibles.
© Ce développement repose essentiellement sur le caractère polynomial du déter-
minant et la réduction de Gauss : toute matrice est équivalente à une matrice
diagonale, et les coefficients diagonaux non nuls peuvent être choisis comme on le
souhaite. Il est important de comprendre que prendre ce type de représentants
privilégiés de la matrice est possible car l’équivalence préserve le rang. Plus préci-
sément, la relation d’équivalence de matrices définit le rang : deux matrices ont
même rang si et seulement si elles sont équivalentes.
© On peut obtenir des caractérisations plus fines des endomorphismes préservant
le déterminant. Par exemple, un résultat de Frobenius montre que lorsque K = C,
il s’agit de ϕM,N : A 7→ M AN ou ψM,N : A 7→ M tAN où M et N sont des
matrices inversibles fixées vérifiant det(M N ) = 1. Ce résultat est d’ailleurs valide
même si on ne suppose plus que u est linéaire, mais seulement surjectif et vérifie
det(A + λB) = det(u(A) + λu(B)) pour toutes matrices A, B ∈ Mn (C) et λ ∈ C.
© On peut ainsi caractériser différents types d’endomorphismes u ∈ Mn (C) sous
cette forme :
• u préserve les matrices inversibles si et seulement si u = ϕM,N ou u = ψM,N
avec M, N inversibles.
• u préserve le rang si et seulement si u = ϕM,N ou u = ψM,N avec M, N
inversibles.

165
30. Endomorphismes conservant le déterminant

• si k ∈ J1, nK est fixé, u préserve les matrices de rang k si et seulement si


u = ϕM,N ou u = ψM,N avec M, N inversibles.
• u préserve le déterminant si et seulement si u = ϕM,N ou u = ψM,N avec
M, N inversibles et det(M N ) = 1.
• u préserve le spectre si et seulement si u = ϕM,N ou u = ψM,N avec M N = In .
• u préserve les matrices unitaires si et seulement si u = ϕM,N ou u = ψM,N
avec M, N unitaires.
• si r, s, t ∈ J0, nK sont fixés avec r + s + t = n, rs 6= 0 et r 6= s, u préserve les
matrices hermitiennes à r valeurs propres positives, s négatives et t nulles si
et seulement si u = ϕM,N ou u = ψM,N avec M = N ∗ .
• u préserve les matrices semblables si et seulement si u = A 7→ aM −1 AM +
b tr(A)In ou u = A 7→ aM −1 tAM + b tr(A)In ou u = A 7→ tr(A)N avec M
inversible, N ∈ Mn (C) et a, b ∈ C.
La plupart de ces résultats suivants restent vrais sur des corps algébriquement
clos, infinis ou de caractéristique fixée.

Questions.
1. Montrer que, pour tous A, B ∈ Mn (K), on a rg(A + B) 6 rg(A) + rg(B).
2. Vérifier que si u ∈ GL(Mn (K)) conserve le déterminant, alors u−1 aussi.
3. Justifier que si N est nilpotente d’indice r + 1, alors In − N est inversible
d’inverse In + N + · · · + N r .
4. Un endomorphisme de Mn (K) conservant le rang conserve-t-il toujours le
déterminant ?
5. Dans le cas où K est un corps infini, donner une preuve alternative du résultat
du développement.
Indication : si M est de rang r, écrire M = P Jn,r Q et introduire N = P (In − Jr )Q.
Conclure en considérant deux écritures différentes de det(xM + N ) et en utilisant
le fait que K est infini.
6. Soit u un endomorphisme de Mn (K) tel que u(GLn (K)) ⊂ GLn (K). Pour
quels corps K les preuves précédentes se généralisent-elles ?

166
Algèbre linéaire

Développement 31 (Endomorphismes conservant le rang FF)

Soit n > 2 et K un corps commutatif. Notons C (resp. L) l’espace des matrices


colonnes à n lignes (resp. des matrices lignes à n colonnes). Notons R1 le
sous-ensemble de Mn (K) formé des matrices de rang 1.
a) Montrer que R1 = C ∗ L∗ , où C ∗ = C \ {0} et L∗ = L \ {0}.
b) Soient CL et C 0 L0 deux éléments de R1 . Montrer que CL + C 0 L0 est de
rang 2 si et seulement si les deux couples (L, L0 ) et (C, C 0 ) sont libres.
On appelle Σ l’ensemble des sous-espaces vectoriels de Mn (K) de dimension n
inclus dans R1 .
c) Montrer que Σ est constitué d’espaces de la forme
• soit XL pour un certain X ∈ C ∗ ;
• soit CY pour un certain Y ∈ L∗ .
Soit u : Mn (K) → Mn (K) un endomorphisme qui conserve le rang.
d) Montrer que u est un isomorphisme.
e) Montrer que l’on est dans exactement un des cas suivants :
(i) Pour tout C ∈ C ∗ , il existe C 0 ∈ C ∗ tel que u(CL) = C 0 L.
(ii) Pour tout C ∈ C ∗ , il existe L0 ∈ C ∗ tel que u(CL) = CL0 .
f) On suppose que u vérifie l’assertion e)(i).
(i) Montrer que pour tout L ∈ L∗ , il existe L0 ∈ L∗ tel que u(CL) = CL0 .
(ii) Montrer qu’il existe A, B ∈ GLn (K) tel que u(M ) = AM B pour toute
matrice M ∈ Mn (K).
g) En déduire le résultat suivant :

Un endomorphisme u de Mn (K) conserve le rang si et seulement


s’il existe A, B ∈ GLn (K) tel que
• soit ∀M ∈ Mn (K), u(M ) = AM B ;
• soit ∀M ∈ Mn (K), u(M ) = A tM B.

Leçons concernées : 151

Ce développement utilise essentiellement des raisonnements d’algèbre linéaire


élémentaire mettant en jeu la notion de rang, ce qui permet d’illustrer la leçon 151.

Correction.
a) Soit M une matrice de rang 1. Comme M est non nulle, elle contient une
colonne Cj non nulle. Ainsi, comme M est de rang 1, les autres colonnes sont
proportionnelles à Cj , c’est-à-dire que pour tout i ∈ J1, nK il existe λi ∈ K tel que
Ci = λ i Cj .

167
31. Endomorphismes conservant le rang

Puisque λj = 1, on a en particulier L = (λ1 , . . . , λn ) ∈ L∗ . On peut alors écrire M


sous la forme Cj L, ce qui montre que M ∈ C ∗ L∗ .
Réciproquement, une matrice CL ∈ C ∗ L∗ est de rang 1 puisque toutes ses colonnes
sont proportionnelles à C 6= 0.
b) Raisonnons par double implication.
• Traitons le sens direct par contraposée, et supposons (par symétrie) que la
famille (C, C 0 ) est liée. Quitte à permuter C et C 0 , on peut écrire C 0 = αC
pour un certain α ∈ K.
On a alors CL + C 0 L0 = C(L + αL0 ) ∈ CL, qui est donc de rang 0 ou 1
d’après la question précédente.
• Réciproquement, supposons que (C, C 0 ) et (L, L0 ) sont des systèmes libres.
Par le théorème de la base incomplète, on peut choisir des vecteurs Ci et Li
tels que les matrices P = (C, C 0 , C3 , . . . , Cn ) et Q = t (L, L0 , L3 , . . . , Ln )
soient inversibles. On a alors CL + C 0 L0 = P J2 Q. Le rang de M est donc 2.
c) Soit F ∈ Σ, et considérons (C1 L1 , . . . , Cn Ln ) une base de F . Considérons les
deux cas suivants :
• Supposons que les vecteurs C1 , . . . , Cn sont colinéaires deux à deux. Notons
que C1 6= 0 puisque sinon C1 L1 serait un vecteur nul dans une base de F .
On peut alors écrire, pour tout i ∈ J1, nK, Ci = αi C1 pour αi ∈ K. Dans
ce cas, pour tout M ∈ F , on a alors M = i λi Ci Li = C1 ( i λi αi Li ) de
P P

sorte que F est inclus dans C1 L. Un argument de dimension permet alors


d’obtenir l’égalité.
• Un argument similaire permet d’obtenir que si L1 , . . . , Ln sont colinéaires
deux à deux, alors F = CL1 avec L1 6= 0.
Montrons par l’absurde que l’une des deux conditions précédentes doit être vérifiée.
Supposons que ce n’est pas le cas, et que (à symétrie près) C1 , C2 et L1 , L2 ne
soient pas colinéaires. En particulier, ils forment des familles libres, et C1 L1 +C2 L2
est de rang 2 par la question précédente. Ceci est impossible car

C1 L1 + C2 L2 ∈ F ⊂ R1 .

Ainsi, l’un des deux cas précédents est valide et F a bien la forme recherchée.
d) Soit M ∈ Mn (K) telle que u(M ) = 0. Alors, puisque u est un endomorphisme
qui conserve le rang,

rg(M ) = rg(u(M )) = rg(0) = 0,

donc M = 0. Ainsi, u est injectif. Comme c’est un endomorphisme, il est aussi


bijectif.
e) Soit C ∈ C ∗ . Alors CL ∈ Σ, donc u(CL) ∈ Σ puisque u préserve le rang et la
dimension par la question précédente. Alors u(CL) est de la forme C 0 L ou CL0
par la question c). Dans ce cas, au moins une des formes données par (i) et (ii)
est vérifiée pour u(CL).

168
Algèbre linéaire

Supposons maintenant que ces deux formes puissent survenir. Autrement dit, il
existe une famille libre (C1 , C2 ) de C telle qu’il existe C 0 ∈ C ∗ et L0 ∈ L∗ vérifiant
u(C1 L) = C 0 L et u(C2 L) = CL0 .
Puisque C 0 L0 ∈ C 0 L ∩ CL0 , il existe alors L1 , L2 ∈ L tels que u(C1 L1 ) = C 0 L0 et
u(C2 L2 ) = C 0 L0 . Comme u est un isomorphisme, on en déduit que C2 L2 −C1 L1 = 0.
D’après la question b), comme (C1 , C2 ) est libre, (L1 , L2 ) est liée, c’est-à-dire
(par symétrie) L2 = αL1 pour un certain α ∈ K. Alors

0 = C2 L2 − C1 L1 = (αC2 − C1 )L1 .

Si L1 6= 0, on obtient αC2 − C1 = 0, ce qui est impossible car (C1 , C2 ) est libre.


Ainsi, L1 = 0, donc C 0 L0 = u(C1 L1 ) = 0, ce qui est aussi impossible. On obtient
finalement qu’exactement une des assertions (i) ou (ii) est vérifiée.
f) (i) Soit C ∈ C ∗ et L ∈ L∗ . Supposons que u(CL) ∈ Σ s’écrit C 0 L pour un
certain C 0 ∈ C ∗ . De plus, par e)(i), on a u(CL) = C 00 L pour un certain C 00 ∈ C ∗ .
Ainsi,
u(CL) ∩ u(CL) = C 0 L ∩ C 00 L
est de dimension n ou 0 selon que C 0 et C 00 sont ou non colinéaires. Cependant, il
s’agit aussi de

u(CL ∩ CL) = u(Vect (CL)) = Vect (u(CL))

qui est de dimension 1, puisque CL 6= 0 donc u(CL) 6= 0.


On aboutit donc à une contradiction. Cela implique donc que u(CL) s’écrit CL0
pour un certain L0 ∈ L∗ .
Ainsi, tout endomorphisme u conservant le rang est tel que u(CL) s’écrit CL0 pour
un certain L0 ∈ L∗ .
(ii) Soient C, C 0 ∈ C ∗ tels que u(CL) = C 0 L, ce qui est possible par ce qui
précède. Déterminons l’action précise de u sur un élément CL ∈ CL.
• Introduisons la base canonique (L1 , . . . , Ln ) de L. Puisque u(CL) = C 0 L,
pour tout i ∈ J1, nK, il existe L0i tel que u(CLi ) = C 0 L0i . Notons BC la matrice
dont la i-ème ligne est L0i , qui vérifie donc

u(CL) = C 0 LBC

pour tout L ∈ L. Notons que BC est inversible, puisque si LBC = 0 alors


u(CL) = 0 donc CL = 0 et L = 0 puisque C 6= 0.
• Déterminons plus précisément comment la matrice BC dépend de C. Par
l’hypothèse e)(i), pour tout L ∈ L∗ il existe L0 ∈ L∗ tel que u(CL) = CL0 .
On a alors C 0 LBC = u(CL) ∈ u(CL) = CL0 , donc LBC est colinéaire à L0 .
Ceci étant valide pour tout L, on obtient que pour tous les C1 , C2 ∈ C ∗ ,
−1
la matrice BC1 BC 2
stabilise toute droite, c’est donc une homothétie. En
particulier, en notant B = B(1,...,1) , pour tout C ∈ C ∗ , il existe λC ∈ K tel
que BC = λC B. Pour tout L ∈ L, on a alors

u(CL) = C 0 LBC = λC C 0 LB.

169
31. Endomorphismes conservant le rang

• Notons f : C → C l’application qui à C associe λC C 0 . Alors f est linéaire


puisque u l’est, et f est inversible pour les mêmes raisons que B. En notant A
la matrice de f dans la base canonique de C, on obtient finalement que pour
tout C ∈ C et L ∈ L,
u(CL) = A(CL)B.

L’action de u est désormais suffisamment explicite pour déterminer entièrement


u sur Mn (K). En effet, u et M 7→ AM B coïncident sur R1 . Par linéarité, on a
bien l’égalité u(M ) = AM B pour tout M ∈ Mn (K) puisque toute matrice peut
s’exprimer comme somme de matrices de rang 1.
g) Lorsque e)(i) est vérifiée, la question précédente fournit le premier cas du
résultat.
Si ce n’est pas le cas, alors e)(ii) est vérifiée, et on constate que M 7→ u(t M )
vérifie e)(i). Il existe donc A, B ∈ GLn (K) telles que pour tout M ∈ Mn (K), on
a l’égalité u(t M ) = AM B, d’où u(M ) = A tM B, ce qui constitue le deuxième cas
du résultat.
La réciproque est immédiate : les endomorphismes de cette forme conservent le
rang, car ils consistent en des produits par des matrices inversibles et une possible
transposition.

Commentaires.
© Notons que la conservation des matrices de rang k ∈ J1, nK fixé est aussi
suffisante pour qu’un endomorphisme de Mn (K) conserve le rang. Le cas k = n
sur C est détaillé ci-après, et peut faire l’objet d’un développement FF.
© Le Développement 30 montre que la préservation du déterminant implique la
préservation du rang lorsque K est assez grand. Ainsi, l’analyse précédente montre
que tout endomorphisme de Mn (K) préservant le déterminant est nécessairement
de la forme M 7→ AM B ou M 7→ A tM B. Réciproquement, ces endomorphismes
préservent le déterminant que si det(AB) = 1. On obtient donc une caractérisation
de ces endomorphismes.

Questions.
1. Montrer que si CL = C 0 L0 avec C, C 0 ∈ C ∗ et L, L0 ∈ L∗ , alors (C, C 0 ) est liée
et (L, L0 ) est liée.
2. Calculer CL ∩ C 0 L pour C, C 0 ∈ C.
3. Justifier que CL ∩ CL = Vect (CL).
4. Montrer que toute matrice s’écrit comme somme de matrices de rang 1. Quel
est le nombre minimal de termes dans la somme ?
5. Nous allons prouver le résultat mentionné en commentaires. Soit u un endomor-
phisme de Mn (C) tel que l’image par u d’une matrice de rang n est une matrice
de rang n.

170
Algèbre linéaire

(i) Si M ∈
/ GLn (C), montrer qu’il existe P ∈ GLn (C) telle que

∀λ ∈ C, P − λM ∈ GLn (C).

Indication : écrire M comme une matrice nilpotente (à équivalence près).


(ii) En déduire que si une matrice n’est pas inversible, alors son image par u
n’est pas inversible.
Indication : si M 6= 0 n’est pas inversible, considérer P (λ) = det(P − λM )
et faire tendre |λ| vers l’infini.
(iii) Montrer que si M ∈ Mn (C) est une matrice de rang r < n, alors il existe
Q ∈ GLn (C) telle que Q − λM ∈ / GLn (C) pour r valeurs de λ.
Indication : utiliser à nouveau l’action par équivalence.
(iv) En déduire que u est un isomorphisme.
(v) Prouver que u conserve le rang.
Indication : s’inspirer du Développement 30.

171
32. Théorème de Chebotarev

Développement 32 (Théorème de Chebotarev FFF)

Soit p un nombre premier et u une racine primitive p-ième de l’unité. Consi-


dérons la matrice de Vandermonde définie par

···
 
1 1 1

 1 u · · · up−1 

1 u2 · · · u2(p−1)
 
A=  ∈ Mp (C).
 .. .. .. .. 
. . . .
 
 
2
1 up−1 ··· u (p−1)

Supposons que l’un des mineurs de A est nul, notons ik et jk les indices des
lignes et des colonnes apparaissant dans ledit mineur, pour k ∈ J1, rK et un
certain r ∈ J1, p − 1K. L’hypothèse d’annulation du mineur s’écrit donc

ui1 j1 · · · ui1 jr
ui2 j1 · · · ui2 jr
.. .. .. = 0. (1)
. . .
uir j1 · · · uir jr

a) Expliciter l’hypothèse (1) sous la forme d’un P ∈ C[X] annulant les uik .
r
Y
b) Notons µ0 , . . . , µr ∈ C les coefficients de (X − ui` ), où µr = 1.
`=1
(i) Montrer qu’il existe une matrice M ∈ / GLp (C) non triviale dont chaque
coefficient est l’un des µk ou zero.
(ii) Montrer que M = Q(u) pour un certain Q ∈ Z[X].
(iii) Montrer que Q(1) est divisible par p.
c) En déduire une contradiction et conclure au théorème de Chebotarev :

Soit p un nombre premier et u une racine primitive p-ième de


l’unité. Aucun mineur de la matrice de Vandermonde A n’est nul.

Leçons concernées : 102, 121, 144, 152

Ce développement est très élémentaire mais technique. L’une des propriétés fonda-
mentales du déterminant est son caractère polynomial, et la preuve utilise pleine-
ment les relations entre coefficients et racines ainsi que l’arithmétique dans Z[X],
en faisant une illustration de la leçon sur les racines de polynômes (144). La
primalité de p dans l’énoncé est primordiale et des raisonnements utilisant la
factorisation par des irréductibles sont présents, autant pour les polynômes que
pour les entiers, rendant possible l’utilisation de ce développement pour la leçon
sur la primalité (121), notamment si elle intègre une extension vers les polynômes
irréductibles. Enfin, le développement est particulièrement bienvenu dans les leçons
sur les racines de l’unité (102) ainsi que sur le déterminant (152).

172
Algèbre linéaire

Correction.
a) L’annulation du mineur (1) signifie qu’il existe une relation linéaire non triviale
entre les colonnes de la matrice sous-jacente, autrement dit qu’il existe des scalaires
λ1 , . . . , λr ∈ C non tous nuls tels que, pour tout 1 6 ` 6 r,
r
X r
X   jk
i` jk
λk u = λk ui` = 0.
k=1 k=1
r
X
Ainsi, pour tout 1 6 ` 6 r, les ui` sont des racines du polynôme P = λk X jk ,
k=1
en particulier on en déduit que
r 
Y 
X − ui` P. (2)
l=1

b) (i) La relation de divisibilité (2) se traduit plus précisément par l’existence


d’un polynôme R ∈ C[X] tel que P = r`=1 X − ui` R, de sorte qu’il existe s > 0
Q 

et α0 , . . . , αs ∈ C, tels que
r r s
! !
X X X
jk k k
λk X = µk X αk X . (3)
k=1 k=0 k=0

La forme du membre de droite montre que le degré du polynôme ci-avant est


r + s, de sorte qu’il admet r + s + 1 coefficients a priori non triviaux. La forme
du membre de gauche justifie que ces coefficients sont tous nuls sauf pour les
coefficients de degrés j1 , . . . , jr , qui sont au nombre de r. On en déduit que s + 1
des coefficients apparaissant dans le développement du membre de droite sont
nuls : disons plus explicitement les coefficients de degrés t0 , . . . , ts . Cela s’écrit 7


 α0 µt0 + α1 µt0 −1 + · · · + αs µt0 −s = 0,

 α0 µt1 + α1 µt1 −1 + · · · + αs µt1 −s

= 0,
.. .. (4)


 . .

1 ts −1 + · · · + αs µts −s
 α µ +α µ = 0.
0 ts

Puisque le polynôme P n’est pas nul, les αk ne sont pas tous nuls et constituent
donc une solution non triviale au système linéaire ci-avant. Ainsi, la matrice
associée au système (4) n’est pas inversible, comme souhaité. Nous pouvons
reformuler ce résultat en

µt0 µt0 −1 · · · µt0 −s


µt1 µt1 −1 · · · µt1 −s
.. .. .. .. = 0. (5)
. . . .
µts µts −1 · · · µts −s
7. Il est entendu que µi = 0 dans le cas où i < 0. Nous conservons toutefois cette notation
pour des raisons d’uniformité et de symétrie.

173
32. Théorème de Chebotarev

(ii) Par définition, les coefficients µk peuvent s’écrire comme polynômes à


coefficients entiers en u. Rappelons que, pour tout k ∈ J1, rK, le k-ième polynôme
symétrique élémentaire est
X Y
σk = Xi ∈ Z[X1 , . . . , Xr ],
I⊂J1,rK i∈I
|I|=k

Alors, pour tout k ∈ J0, rK, on en déduit que µk s’écrit sous la forme

µk = Qk (u) = σk (ui1 , . . . , uir ), (6)

pour un certain polynôme Qk ∈ Z[X]. Le mineur (5) vaut donc

|Qtk −` (u)|06k,`6s , (7)

et est en particulier un polynôme Q ∈ Z[X] en u.


(iii) Le polynôme cyclotomique Φp = X p−1 + · · · + X + 1 est irréductible
dans Z[X] et admet u comme racine, c’est donc son polynôme minimal. Puisque u
annule Q par la question précédente, Q est donc divisible par Φp : il existe un
polynôme R ∈ Z[X] tel que Q = Φp R. En évaluant en 1, il vient en particulier
que Q(1) = pR(1), de sorte que Q(1) est divisible par p.
c) Nous allons déduire une contradiction avec le résultat de la question précédente
en écrivant Q(1) comme produit d’entiers premiers avec p.
Notons que Qk (1) = kr par l’expression (6). Pour tout k ∈ J0, rK, puisque l’entrée


à la place (k, `) du mineur (5) est µtk −` , on en tire d’après (7) la relation
!
r
Q(1) = .
tk − ` 06k,`6s

Par la formule du triangle de Pascal, l’opération C` ← C` +C`−1 dans le mineur (5)


a pour effet de remplacer, pour ` ∈ J0, sK, le coefficient
! ! ! !
r r r r+1
par + = .
tk − ` tk − ` tk − (` − 1) tk − (` − 1)

Une récurrence immédiate permet alors d’obtenir l’égalité


! !
r r+`
= . (8)
tk − ` 06k,`6s
tk 06k,`6s

On a de plus, pour tout t ∈ Z, par la formule explicite des coefficients binomiaux,


! ! !
r+` t t r+s r+s
   
= 1− ··· 1 − = φs−` (t) , (9)
t r+`+1 r+s t t

174
Algèbre linéaire

où on note φs−` le polynôme en t apparaissant ci-avant. On obtient ainsi, en


factorisant chaque ligne par r+s
tk , la nouvelle expression

φs (t0 ) φs−1 (t0 ) · · · 1


s φs (t1 ) φs−1 (t1 ) · · · 1
! !
r+` Y r+s
tk
=
tk
.. .. . . .. .
06k,`6s k=0 . . . .
φs (ts ) φs−1 (ts ) · · · 1
| {z }
A(t0 ,...,ts )

Le polynôme défini par

φs (X) φs−1 (X) · · · 1


φs (t1 ) φs−1 (t1 ) · · · 1
A(X, t1 , . . . , ts ) = .. .. . . ..
. . . .
φs (ts ) φs−1 (ts ) · · · 1

est de degré s, puisque φk est de degré k pour tout k ∈ J0, sK. De plus, il admet les
éléments t1 , . . . , ts comme racines, donc se factorise en sk=1 (X − tk )B(t1 , . . . , ts ).
Q

On en déduit en particulier que


Y
A(t0 , . . . , ts ) = (t0 − tb )B(t1 , . . . , ts ).
b>0

Une récurrence immédiate, itérant le même argument pour B(X, t2 , . . . , ts ), etc.


permet alors de conclure à la factorisation
s
! !
r+` Y r+s Y
=C (ta − tb ), (10)
tk 06k,`6s k=0
tk 06a<b6s

pour une certaine constante C. Cette constante est le produit des coefficients
dominants des polynômes φk , et est en particulier non nulle. De plus, en rappelant
la définition de ces polynômes en (9), la constante C est un produit de coefficients
binomiaux aux arguments inférieurs à r + s < p : elle est donc en particulier
première à p.
Ainsi, le produit obtenu en (10) n’est pas divisible par p. En effet, d’une part
le degré de P est r + s = jr < p par l’équation (3), donc aucun des r+s t ne
contient p dans son numérateur (r + s)! et ne peut donc être divisible par p. De
plus, les tk sont distincts, inférieurs à p − 1 et positifs, pour tout k ∈ J0, sK, de
sorte que les |ta − tb | sont tous inférieurs à p − 1 et non nuls, et en particulier
ne sont également pas divisibles par p. Cela contredit le résultat de la question
précédente : on conclut qu’aucun mineur de la matrice initiale A n’est nul.

175
32. Théorème de Chebotarev

Commentaires.
© Ce résultat étonnant est dû à Chebotarev en 1926. Malgré son aspect anodin,
il a suscité plus de commentaires et de travaux qu’il ne pourrait y paraître, et
pas moins d’une dizaine de preuves utilisant d’autres méthodes ont été proposées,
notamment celle présentée ici qui est due à Resetnyak en 1955. Tao a montré que
ce théorème est équivalent à un principe d’incertitude pour les fonctions complexes
définies sur les corps finis Fq . Les preuves élégantes de Frenkel ou Tao pourraient
également constituer de bons développements, adaptés à d’autres leçons.
© Le développement est élémentaire en de nombreux aspects, ne faisant appel qu’à
des manipulations de déterminants et des relations de divisibilités de polynômes
écrites explicitement. Toutefois, la marche des arguments est technique et le
développement peut être long à présenter au tableau dans son intégralité, justifiant
le niveau de difficulté. Ainsi, une présentation « en mots » de la question b)(ii) est
possible pour des candidats pouvant aisément donner des explications si nécessaire.
Enfin, toutes les expressions mentionnées ici ne sont pas nécessaires lors d’une
présentation orale : il en est ainsi pour le mineur (5) qui se lit sur le système (4),
ou encore pour le polynôme A(X, t1 , . . . , tn ), qui apparaît déjà dans l’expression
juste au-dessus.
© Nous esquissons ici la preuve de Frenkel. Elle se déroule en trois étapes.
• On a Z[u]/(1 − u) ' Fp . En effet, considérons les deux morphismes

ϕ : Z[X] −→ Z[X]/(Φp (X)) ' Z[u]


X 7−→ u,

ψ : Z[X] −→ Z[X]/(1 − X, p) ∼
= Fp
X 7−→ 1.

Le noyau de ψ est donc l’idéal (1 − X, p). Puisque Φp (X) ≡ Φp (1) ≡ p


modulo l’idéal (1 − X), on a Φp (X) ∈ (1 − X, p) et donc Ker(ϕ) ⊆ Ker(ψ).
Ainsi, ψ se factorise par ϕ, par un morphisme surjectif θ : Z[u] → Fp dont
le noyau est le quotient (1 − X, p)/(Φp (X)) = (1 − u, p). De plus, puisqu’on
a p ≡ Φp (1) ≡ Φp (u) = 0 modulo 1 − u, on en déduit que p ∈ (1 − u) et donc
le noyau de θ est (1 − u, p) = (1 − u).
Ainsi, par le premier théorème d’isomorphisme on a

Fp = Im(θ) ' Z[u]/Ker(θ) = Z[u]/(1 − u).

• Énonçons un lemme sur les polynômes de Fp [X] :


Soit P ∈ Fp [X] un polynôme non nul de degré strictement inférieur
à p. Alors la multiplicité d’une racine a ∈ F∗p de P est strictement
inférieure au nombre de coefficients non nuls dans P .
Prouvons ce fait par récurrence sur le degré. L’initialisation est immédiate.
Supposons la propriété vraie pour les polynômes de degré inférieur à n − 1,
et considérons un polynôme P de degré n. Si P (0) = 0, alors on peut diviser

176
Algèbre linéaire

par X sans changer le nombre de coefficients non nuls et en diminuant le


degré, de sorte que l’hypothèse de récurrence conclut. Sinon, P 0 contient
exactement un coefficient non nul de moins que P , de sorte que la multiplicité
d’une racine de P 0 est strictement inférieure au nombre de ses coefficients
non nuls par l’hypothèse. Cela suffit car les racines de P ont une multiplicité
supérieure d’au plus un par rapport à leur multiplicité dans P 0 .
• Le théorème revient à prouver qu’il n’y a pas de combinaison linéaire non
triviale j∈J ai uij dans Q(u) pour i dans une sous-partie I de J1, nK telle que
P

|I| = |J| (rappelons qu’un mineur est le déterminant d’une matrice carrée).
Raisonnons par l’absurde et supposons que ce soit le cas. Quitte à multiplier
par une puissance suffisamment élevée de u (à savoir un dénominateur
commun), on peut supposer les ai dans Z[u]. On obtient ainsi un polynôme P
annulateur des ui dans Z[u][X], donc divisible par i∈I (X − ui ). En prenant
Q

l’image de ce polynôme P par le morphisme θ : Z[u] → Fp du premier point


ci-avant, on en déduit que θ(P ) ∈ Fp [X] est divisible par (X − 1)|I| .
Par ailleurs θ(P ) ∈ Fp [X] est de degré |I| < p et admet au plus |I| coefficients
non nuls, comme P , on déduit que θ(P ) est nul par le second point ci-avant.
Ainsi, chaque ai est dans le noyau de θ, autrement dit est divisible par
1 − u. Il est alors possible de remplacer ai par ai /(1 − u) et de recommencer
l’argument, obtenant que les ai sont divisibles par (1−u)k pour tout k > 0, ce
qui est impossible sauf si les ai sont tous nuls. Cela achève la démonstration.

Questions.
1. Que se passe-t-il dans le cas r = p ?
2. Montrer que A ∈ GLp (Z) si, et seulement si, det(A) = ±1.
3. Détailler la récurrence permettant d’obtenir la relation (8).
4. Montrer que Φp est irréductible dans Z[X].
5. Faire le détail de la récurrence concernant A(t0 , . . . , ts ).
6. Rappeler pourquoi le déterminant est polynomial en ses arguments.
Expliquer pourquoi p | ab si, et seulement si, p | b et a ∈ J1, p − 1K.

7.
8. Montrer que le déterminant de Vandermonde est donné par la formule
1 x1 x21 · · · xn−1
1
1 x2 x22 · · · xn−1
2 Y
.. .. .. . . .. = (xj − xi ).
. . . . . 16i<j6n
1 xn x2n · · · xn−1
n

9. Démontrer la formule de Binet-Cauchy : pour toutes matrices A ∈ Mm,n (C)


et B ∈ Mn,m (C), on a
X
det(AB) = det(AI ) det(BI ),
I⊂J1,nK
|I|=m

où AI (resp. BI ) désigne la matrice de taille m obtenue à partir des lignes de A


(resp. colonnes de B) et en conservant que les éléments aux places de I.

177
33. Images par l’exponentielle

Développement 33 (Images par l’exponentielle FF)

Soit A ∈ Mn (C). On veut prouver que

exp(C[A]) = C[A]× ,

où C[A]× désigne l’ensemble des inversibles de l’anneau C[A].


a) Préliminaires.
(i) Montrer que C[A]× = C[A] ∩ GLn (C).
(ii) Montrer que exp(C[A]) ⊂ C[A]× .
b) Preuve du résultat souhaité.
(i) Montrer que C[A]× est connexe.
(ii) Montrer que exp(C[A]) est ouvert dans C[A]× .
(iii) Montrer que exp(C[A]) est fermé dans C[A]× .
(iv) Conclure.
c) Application : surjectivité de l’exponentielle matricielle.
(i) Montrer que exp(Mn (C)) = GLn (C).
(ii) Montrer que exp(Mn (R)) = {M 2 : M ∈ GLn (R)}.

Leçons concernées : 153, 156, 204, 214

Ce développement est un résultat sur l’exponentielle matricielle, qui se place


donc naturellement dans la leçon 156. L’essentiel du développement repose sur
l’étude de l’image des polynômes de matrices par l’application exponentielle, ce
qui justifie le placement de ce développement dans la leçon 153 par l’utilisation des
propriétés topologiques liées à C[A]. Le principal outil de la preuve est la connexité
de l’ensemble C[A]× , qui permet de déduire l’égalité exp(C[A]) = C[A]× . Cette
preuve constitue donc une belle illustration de la leçon 204. Enfin, du fait de
l’utilisation du théorème d’inversion locale pour montrer que exp(C[A]) est ouvert
dans C[A]× , ce développement trouve tout à fait sa place dans la leçon 214.

Correction.
a) (i) On raisonne par double inclusion.
⊂ On a C[A]× ⊂ C[A]. De plus, pour tout M ∈ C[A]× , il existe N ∈ C[A]
telle que M N = In par définition des inversibles de C[A], donc M est inversible,
autrement dit M ∈ GLn (C). D’où

C[A]× ⊂ C[A] ∩ GLn (C).

⊃ Soit M ∈ C[A] ∩ GLn (C). On considère le polynôme caractéristique de M ,


n
X
χM (X) = ak X k , où a0 , . . . , an ∈ C, n > 1.
k=0

178
Algèbre linéaire

Comme M ∈ GLn (C), on a a0 = det(M ) 6= 0. Par le théorème de Cayley-Hamilton,


on a χM (M ) = 0, ce qui se réécrit
n
!
X
k−1
M ak M = −a0 In .
k=1

On en déduit donc l’expression de l’inverse de M , donné par


n
!
1
M −1
X
=− ak M k−1 ∈ C[A],
a0 k=1

puisque M ∈ C[A]. Ainsi, on a M −1 ∈ C[A]. Par double inclusion, on conclut que

C[A]× = C[A] ∩ GLn (C).

(ii) Montrons maintenant que exp(C[A]) ⊂ C[A]× . Soit M ∈ exp(C[A]). Il existe


donc N ∈ C[A] tel que M = exp(N ), en particulier, on a M ∈ GLn (C). Il reste
donc à prouver que exp(N ) est un polynôme en A. On a
n
X Nk
∀n ∈ N, ∈ C[A]
k=0
k!

puisque C[A] est stable par produit et somme finie. De plus, l’ensemble C[A] est
un sous-espace vectoriel de Mn (C) qui est de dimension finie, donc C[A] est fermé.
n
X Nk
Ainsi, lim ∈ C[A]. Autrement dit, exp(N ) ∈ C[A].
n→+∞
k=0
k!
b) (i) Il suffit de montrer que C[A]× est connexe par arcs. Soient M1 et M2
deux matrices distinctes de C[A]× . Pour tout z ∈ C, on pose

P (z) = det(zM1 + (1 − z)M2 ) ∈ C.

La fonction polynomiale P n’est pas nulle (car P (0) = det(M2 ) 6= 0), donc elle ne
s’annule qu’un nombre fini de fois ; notons Z l’ensemble de ses zéros. Alors C \ Z
est connexe par arcs car l’ensemble Z est fini. Il existe donc un chemin γ entre 0
et 1 à support dans C \ Z. Ainsi, le chemin continu

[0, 1] −→ C[A]×
t 7−→ γ(t)M1 + (1 − γ(t))M2

relie M1 et M2 dans C[A]× . L’ensemble C[A]× est donc connexe par arcs et par
conséquent connexe.
(ii) On va appliquer le théorème d’inversion locale à l’application différentiable

exp : C[A] → C[A].

La différentielle de l’exponentielle en 0 est l’application identité qui est bijective.


Donc il existe un voisinage U de 0 ouvert dans C[A] et un voisinage V de In ouvert

179
33. Images par l’exponentielle

dans C[A] (qui est en fait une partie de GLn (C), donc de C[A]× ) tels que exp
réalise un C 1 -difféomorphisme entre U et V.
Soit X ∈ exp(C[A]). Il existe donc M ∈ C[A] telle que X = exp(M ). On introduit
l’ensemble VM = {V exp(M ) : V ∈ V}. On a exp(M ) ∈ VM puisque exp(M )
s’écrit sous la forme In · exp(M ) et In ∈ V . On veut prouver que VM est un ouvert
contenu dans exp(C[A]). L’ensemble VM est bien ouvert car V l’est et car exp(M )
est inversible. De plus, par ce qui précède, pour tout V ∈ V, il existe un élément
U ∈ U tel que V = exp(U ). D’où

V exp(M ) = exp(U ) exp(M ) = exp(U + M ) ∈ exp(C[A]),

puisque U et M commutent en tant que polynômes en A.


On en déduit que exp(C[A]) est bien un ouvert de C[A]× .
(iii) On veut montrer que E := C[A]× \ exp(C(A)) est un ouvert de C[A]× .
Montrons par double inclusion que
[
E= M exp(C[A]).
M ∈E
[
⊂ Si M ∈ E, on a M = M exp(0) ∈ M exp(C[A]).
M ∈E
⊃ Soient M ∈ E et P ∈ C[X]. On pose

N = M exp(P (A)),

de sorte que
M = N exp(−P (A)).
Ainsi, si l’on avait N ∈ exp(C[A]), on aurait aussi M ∈ exp(C[A]), ce qui est
exclu car M ∈ E. Cela entraîne que N ∈/ exp(C[A]). De plus,

N = M exp(P (A)) ∈ C[A]×

puisque exp(C[A]) ⊂ C[A]× et M ∈ C[A]× , donc N ∈ E.


Or, pour tout M ∈ E, l’ensemble M exp(C[A]) est un ouvert de C[A]× car M est
inversible et car exp(C[A]) est ouvert dans C[A]× . Ainsi, E est ouvert dans C[A]×
comme réunion d’ensembles ouverts. Son complémentaire dans C[A]× , qui est par
définition exp(C[A]), est donc fermé dans C[A]× .
(iv) L’ensemble exp(C[A]) est ouvert et fermé dans C[A]× en utilisant les ques-
tions b)(ii) et b)(iii). Or In = exp(0) ∈ exp(C[A]), donc exp(C[A]) 6= ∅. On a
également prouvé que C[A]× est connexe par arcs à la question b)(i), il est donc
en particulier connexe. On en déduit donc que

exp(C[A]) = C[A]× ,

ce qui conclut la preuve.

180
Algèbre linéaire

c) (i) On raisonne par double inclusion.


⊂ Soit A ∈ exp(Mn (C)). Alors on peut trouver une matrice B ∈ Mn (C) telle
que A = exp(B). Puisque B et −B commutent, on a

A exp(−B) = exp(B) exp(−B) = exp(0) = In ,

donc A est inversible. Ainsi exp(Mn (C)) ⊂ GLn (C).


⊃ Soit A ∈ GLn (C). Par la question a)(i), on a A ∈ C[A]× . Ensuite, par la
question b), il existe donc P ∈ C[X] tel que A = exp(P (A)). Il existe donc bien
un antécédent de A par exp dans C[A] ⊂ Mn (C).
On a donc montré que exp(Mn (C)) = GLn (C).
(ii) On raisonne par double inclusion.
⊂ Soit M ∈ exp(Mn (R)). On a alors M = exp(B) pour une matrice B ∈ Mn (R).
On peut alors écrire
 2
B B
 
M = exp 2 = exp
2 2
 
où exp B2 est inversible car il s’agit de l’exponentielle d’une matrice. La matrice
M s’écrit donc comme le carré d’une matrice inversible réelle.
⊃ Soit A ∈ GLn (R). On a donc A ∈ C[A]× par la question a)(i). D’après la
question b), il existe P ∈ C[X] tel que

A = exp(P (A)).

Le polynôme P est complexe mais A est réelle donc, en passant au conjugué,

A = A = exp(P (A)),

ce qui nous donne

A2 = AA = exp(P (A)) exp(P (A)) = exp(P (A) + P (A)).

Or P + P est à coefficients réels, donc (P + P )(A) ∈ Mn (R). Ainsi, (P + P )(A)


est un antécédent de A pour l’exponentielle.

Commentaires.
© Il faut faire attention aux ensembles que l’on utilise pour appliquer le théorème
d’inversion locale. Ce théorème s’applique à une fonction allant d’un ouvert d’un
espace de Banach vers un espace de Banach. Ici, on utilise le fait que C[A] est un
ouvert de l’espace de Banach C[A].
© Quand on utilise le théorème d’inversion locale, il faut bien comprendre que la
différentielle D0 exp de l’application exp en 0 est l’identité de l’espace des fonctions
de Mn (C) dans Mn (C), et non la matrice identité In de Mn (C).

181
33. Images par l’exponentielle

© Plus généralement (et en s’aventurant légèrement hors du programme de l’agré-


gation), le théorème d’inversion locale permet de donner un difféomorphisme
local entre un voisinage de l’identité dans un sous groupe G de GLn (C) donné
et un voisinage de 0 dans l’algèbre de Lie associée, g = Lie(G). Un argument de
connexité similaire à celui mobilisé dans le développement permet alors de déduire
que l’algèbre de Lie g permet de trouver la composante connexe de l’identité de G.
Voir Développement 55
© On peut s’intéresser au résultat de ce développement sur le corps de base R.
• Par les mêmes arguments qu’à la question a), on montre que

R[A]× = R[A] ∩ GLn (R).

Par contre, l’égalité exp(R[A]) = R[A]× est fausse : en effet, on a par exemple
la matrice −In ∈ / exp(Mn (R)) puisque Sp(exp(Mn (R))) ⊂ ]0, +∞[, alors
que la matrice −In est dans R[A]× et Sp(−In ) = {−1}. Cette différence se
retrouve dans la preuve au niveau de l’utilisation d’une particularité topolo-
gique de C : retirer un nombre fini de points de C conserve la connexité, ce
qui n’est pas vrai dans R. Plus précisément, on peut relier deux déterminants
dans C∗ , mais pas dans R∗ qui n’est pas connexe.
• On peut voir que exp(Mn (R)) 6= GLn (R), en utilisant le fait que

exp(Mn (R)) ⊂ GL+


n (R)

où GL+n (R) désigne l’ensemble des matrices inversibles de déterminant positif.


Par ailleurs, on n’a pas non plus l’égalité entre exp(Mn (R)) et GL+n (R) car,
+
par exemple, la matrice −I2 est dans GL2 (R) mais pas dans exp(M2 (R)).
© On peut s’intéresser à l’application exponentielle restreinte à différents sous-
ensembles de Mn (C). On obtient par exemple les propriétés suivantes :
• On a montré que l’application exp : Mn (C) → GLn (C) est surjective, mais
elle n’est pas injective pour n > 1 puisque exp(2iπIn ) = exp(0) = In , et
exp : Mn (R) → GLn (R) n’est pas injective pour n > 2 puisque
! ! !
0 0 0 −2π 1 0
exp = exp = .
0 0 2π 0 0 1

Cependant, exp : Dn (C) → GLn (C) est injective, où Dn (C) désigne l’en-
semble des matrices diagonalisables de Mn (C).
• L’image de la restriction de l’exponentielle à An (R), l’ensemble des matrices
antisymétriques de Mn (R), est SOn (R), le groupe spécial orthogonal de
dimension n (aussi appelé groupe des rotations à n dimensions).
• L’image de la restriction de l’exponentielle à Sn (R), l’ensemble des matrices
symétriques de Mn (R), est Sn++ (R), l’ensemble des matrices réelles symé-
triques définies positives. Cette restriction est même un homéomorphisme,
voir Développement 34.

182
Algèbre linéaire

© On va donner une autre méthode pour établir la surjectivité de l’exponen-


tielle matricielle, qui peut être pertinente pour la leçon sur les endomorphismes
trigonalisables et nilpotents (157). On veut montrer que
∀A ∈ GLn (C), ∃B ∈ C[A] : exp(B) = A.
On distingue trois cas :
• Si A est diagonalisable, on montre le résultat en utilisant un polynôme de
Lagrange qui envoie les valeurs propres (λi )ni=1 de A sur (µi )ni=1 , où les (µi )ni=1
vérifient λi = exp(µi ) (par surjectivité de exp : C → C∗ ).
• Si A est de la forme In + N où N est nilpotente, on note r l’indice de
nilpotence de N et on pose
r−1 r−1
X Xi X Xi
P (X) := (−1)i−1 et Q(X) := .
i=1
i i=0
i!
Comme P (N )r = 0, on a
+∞
X P (N )i r−1
X P (N )i
exp(P (N )) = = = Q ◦ P (N ).
i=0
i! i=0
i!
On va voir que B := P (N ) est bien un logarithme de A. Pour cela, on va
montrer que le polynôme Q ◦ P est de la forme Q ◦ P (X) = 1 + X + X r T (X)
où T ∈ C[X]. Lorsque x → 0, d’après la formule de Taylor-Young, on a
ln(1 + x) = P (x) + o(xr−1 ),
exp(x) = Q(x) + o(xr−1 ),
en tant que développement limité de fonctions d’une variable réelle. On en
déduit donc, par composition des développements limités,
1 + x = exp(ln(1 + x))
= Q(P (x) + o(xr−1 )) + o(xr−1 )
= Q ◦ P (x) + o(xr−1 ).
Par unicité du développement limité de Q ◦ P à l’ordre r − 1, on en déduit
l’existence de T ∈ C[X] tel que Q ◦ P (X) = 1 + X + X r T (X). D’où
Q ◦ P (N ) = In + N + N r T (N ) = In + N = A.
Finalement A = exp(P (N )) = exp(P (A − In )).
• Si A est quelconque, on se ramène au premier et au deuxième cas par la
décomposition de Dunford. En effet, il existe deux matrices D et N dans C[A]
telles que D est diagonalisable, N est nilpotente, A = D + N et DN = N D.
On peut donc écrire A = D + N = D(In + D−1 N ) avec D diagonalisable et
D−1 N nilpotente. On trouve B1 ∈ C[D] ⊂ C[A] telle que exp(B1 ) = D et
B2 ∈ C[I + D−1 N ] ⊆ C[A] telle que exp(B2 ) = In + D−1 N . On en déduit
A = exp(B1 ) exp(B2 ) = exp(B1 + B2 ) car B1 et B2 commutent en tant que
polynômes en A. Voir le Développement 36 pour une preuve de ce résultat
et de nombreux commentaires sur la décomposition de Dunford.

183
33. Images par l’exponentielle

Questions.
1. Rappeler pourquoi, si A, B ∈ Mn (C) commutent, alors

exp(A + B) = exp(A) exp(B).

2. Calculer la différentielle de exp : Mn (C) → Mn (C) en 0.


3. Montrer que exp : Mn (C) → GLn (C) n’est pas injective.
4. Pourquoi la connexité par arcs de C[A]∗ est équivalente au fait de trouver une
application γ : [0, 1] → C avec γ(0) = 0 et γ(1) = 1 continu tel que P ◦ γ reste
dans C∗ dans la question b)(i).
5. Montrer qu’un ensemble connexe par arcs est connexe.
6. Pourquoi un sous-espace vectoriel de dimension finie d’un espace vectoriel
normé est-il fermé ?
7. Soit Z une partie finie de C. Montrer que C \ Z est connexe par arcs.
8. Si U est un ouvert de GLn (C) et si M ∈ GLn (C), montrer que M U est ouvert
dans GLn (C).
9. Pourquoi a-t-on exp(A) = exp(A) pour A dans Mn (C) ?
10. L’ensemble C[A]× est-il ouvert dans Mn (C) ? dans C[A] ?
11. Montrer que exp : Dn (C) → GLn (C) est injective.
12. Montrer que exp : An (R) → SOn (R) est surjective.
13. Montrer que exp : Sn (R) → Sn++ (R) est surjective.

184
Algèbre linéaire

Développement 34 (Décomposition polaire F)

Soit n > 2. Notons Hn l’espace des matrices hermitiennes de Hn (C), Hn++ le


sous-groupe de GLn (C) des matrices hermitiennes définies positives et Un le
sous-groupe des matrices unitaires de Hn (C).
a) Soit A ∈ Hn++ . Montrer qu’il existe une unique matrice H ∈ Hn++ telle
que A = H 2 . Cette matrice est appelée la racine carrée de A.
b) Soit A ∈ GLn (C). Montrer qu’il existe une unique matrice H ∈ Hn++ et
une unique matrice U ∈ Un telles que A = U H.
c) Montrer que l’application

φ : Un × Hn++ −→ GLn (C)


(U, H) 7−→ UH

est un homéomorphisme.

Leçons concernées : 106, 150, 155, 156, 158, 160, 203

Ce développement est un résultat de décomposition matricielle classique permettant


de mettre en valeur les relations entre différents sous-groupes importants du groupe
linéaire (106), en l’occurrence le groupe unitaire et le groupe des matrices her-
mitiennes (158). Ces matrices représentent des endomorphismes très particuliers
des espaces hermitiens, et se transposent immédiatement dans le cadre euclidien à
condition de se restreindre aux matrices symétriques réelles ; elles trouvent donc
leur place dans la leçon associée (160). La preuve exploite les résultats de réduc-
tion des matrices (155) et les propriétés topologiques des sous-groupes du groupe
linéaire, notamment en étudiant l’action naturelle par translation de matrices
(150). L’utilisation à plusieurs reprises d’arguments de compacité pour prouver la
continuité des bijections réciproques peut motiver l’utilisation de ce développement
pour illustrer les applications de la compacité (203). Enfin, si on choisit d’ajouter
une étape supplémentaire présentée en commentaires et permettant de retrouver
la décomposition polaire connue pour les nombres complexes, ce développement
permet d’utiliser l’exponentielle de matrices (156).

Correction.
a) Prouvons l’existence puis l’unicité séparément.
• Existence
Puisque A ∈ Hn++ , le théorème spectral assure qu’il existe U ∈ Un telle que
A = U ∗ DU , où D = diag(d1 , . . . , dn ) est une matrice
√ diagonale √ avec des

entrées d1 , . . . , dn > 0. Introduisons H = U diag( d1 , . . . , dn )U ∈ Hn++ .
On a alors bien H 2 = A, prouvant l’existence d’une racine carrée de A.
• Unicité

Il existe un polynôme P ∈ R[X] tel que P (di ) = di pour tout i ∈ J1, nK
(par exemple le polynôme d’interpolation de Lagrange correspondant à ces

185
34. Décomposition polaire

valeurs). En utilisant les notations du point précédent, il existe U ∈ Un


telle que A = U ∗ DU et donc P (A) = U ∗ P (D)U = H est la racine carrée
précédemment trouvée. En particulier, H est un polynôme en A.
Soit H 0 une autre racine carrée de A dans Hn++ . Alors H 0 commute avec A,
donc avec tout polynôme en A, notamment H. On en tire que

0 = H 02 − H 2 = (H 0 − H)(H 0 + H).

Or H + H 0 est définie positive, donc inversible, d’où H 0 − H = 0. Cela achève


la preuve de l’unicité.
b) Raisonnons par analyse et synthèse.
• Analyse
Supposons que A = U H avec H ∈ Hn++ et U ∈ Un .
On constate que A∗ A est une matrice hermitienne définie positive. Par la
question a), il en existe donc une unique racine carrée. On a par ailleurs

A∗ A = (U H)∗ (U H) = H ∗ (U ∗ U )H = H ∗ H = H 2 .

En particulier, par unicité de la racine carrée d’une matrice hermitienne


définie positive, H est la racine carrée de A∗ A. Or H ∈ Hn++ est inversible et
A = U H, donc U doit être égale à AH −1 . Ainsi, si A admet une décomposition
polaire, alors celle-ci est unique.
• Synthèse
Soient H la racine carrée de A∗ A et U = AH −1 . On a A = U H par
construction. De plus, H ∈ Hn++ par définition de la racine carrée. Enfin,
  ∗
U U ∗ = AH −1 AH −1 = AH −2 A∗ = A(A∗ A)−1 A∗ = In ,

donc la matrice U est unitaire, ce qui clôt la preuve.


c) L’application φ est polynomiale en les coefficients des matrices U et H car
définie par un produit matriciel ; en particulier, elle est continue. Par la question
précédente, elle est également bijective, donc admet une réciproque φ−1 . Il reste
à montrer que φ−1 est continue, et pour cela il suffit de prouver qu’elle est
séquentiellement continue.
Soit (Ak )k∈N une suite convergeant vers une matrice A dans GLn (C). On sou-
haite montrer que (φ−1 (Ak ))k∈N converge vers φ−1 (A). Pour tout k > 0, notons
l’antécédent φ−1 (Ak ) = (Uk , Hk ) avec Uk ∈ Un et Hk ∈ Hn++ . On introduit aussi
l’antécédent φ−1 (A) = (U, H), avec U ∈ Un et H ∈ Hn++ .
Montrons que la suite (Uk )k∈N admet une unique valeur d’adhérence. Puisque Un
est compact, on peut considérer une valeur d’adhérence U 0 de la suite (Uk )k∈N .
Supposons donc que la suite extraite (Uϕ(k) )k∈N converge vers U 0 pour une certaine
extractrice ϕ. Alors, la suite (Hϕ(k) )k∈N qui est définie par, pour tout k > 0, la
−1 ∗ A 0 0∗
matrice Hϕ(k) = Uϕ(k) Aϕ(k) = Uϕ(k) ϕ(k) , converge vers H = U A. On constate
0
que H est hermitienne positive comme limite de matrices hermitiennes positives.

186
Algèbre linéaire

Comme A et U 0 sont inversibles, H 0 est également inversible et est donc définie


positive. Ainsi, on obtient une décomposition polaire A = U H 0 . L’unicité de la
décomposition polaire prouvée à la question b) implique donc U 0 = U et H 0 = H.
Ainsi, la suite (Uk )k∈N est à valeurs dans un compact et admet pour seule valeur
d’adhérence U : elle converge donc vers U . On en déduit que la suite (Hk )k∈N ,
définie par Hk = Uk∗ Ak pour tout k ∈ N, converge vers U ∗ A = H. Ainsi φ−1 (Ak )
converge vers φ−1 (A) = (U, H), donc φ−1 est séquentiellement continue, donc
continue. Cela termine la preuve : φ est bien un homéomorphisme.

Commentaires.
© On peut poursuivre le développement en montrant que exp : Hn → Hn++ est un
homéomorphisme. Cela fait que la décomposition polaire matricielle est tout à fait
analogue à la forme polaire bien connue pour les nombres complexes, justifiant la
terminologie :
Toute matrice A ∈ GLn (C) s’écrit de manière unique sous la forme
A = U exp(H) avec U ∈ Un et H ∈ Hn . De plus, l’application

ψ : Hn −→ Hn++
H 7−→ exp(H)

est un homéomorphisme.
Prouvons ce fait, qui peut faire partie intégrante du développement en prolongeant
la preuve présentée ci-avant. Tout d’abord, notons que l’exponentielle est bien à
valeurs dans Hn++ .
• Surjectivité
Soit H ∈ Hn++ . Par le théorème spectral, il existe une matrice U ∈ Un et une
matrice diagonale D = diag(d1 , . . . , dn ) où d1 , . . . , dn > 0 telles qu’on puisse
écrire H = U DU ∗ . Introduisons la matrice M = U D0 U ∗ ∈ Hn où
ln d1
 

D0 = 
 .. .

.
ln dn

On en déduit que H = exp(M ) = ψ(M ), de sorte que ψ est surjective.


• Injectivité
Supposons que A, B ∈ Hn sont telles que exp(A) = exp(B), et introduisons
alors H = exp(A) cette valeur commune. On vérifie alors que la racine carrée
de H est donnée par exp(A/2) = exp(B/2). Par une récurrence immédiate,
il vient que pour tout k > 0 on a exp(2−k A) = exp(2−k B). Par existence de
la différentielle de ψ en zéro, qui vaut l’identité, il vient
       
2−k A+o 2−k A = exp 2−k A −In = exp 2−k B −In = 2−k B+o 2−k B ,

de sorte que, en multipliant par 2k et en laissant k tendre vers +∞, on en


déduit que A = B.

187
34. Décomposition polaire

• Continuité de ψ −1
On raisonne comme dans la question c), en montrant la continuité séquentielle
de la réciproque ψ −1 . Soit (Ak )k∈N une suite de matrices hermitiennes définies
positives qui converge vers A ∈ Hn++ . Notons A = exp(H) et Ak = exp(Hk )
pour tout k > 0, avec H, Hk ∈ Hn , ce qui est possible par surjectivité de
l’exponentielle. On veut prouver que (Hk )k∈N converge vers H.
Par continuité de la norme k · k subordonnée à la norme k · k2 sur Cn on a,
lorsque k tend vers +∞,

kHk k −→ kHk et Hk−1 −→ H −1 .

Puisque les valeurs propres de Hk sont les logarithmes des valeurs propres
de Ak , on en tire que, pour tout k > 0,
 
kHk k = ln max kAk k , kA−1
k k . (1)
k∈N

Les suites (Ak )k∈N et (A−1


k )k∈N convergent, donc sont en particulier bornées.
Par (1), il en va de même pour la suite (Hk )k∈N . Par compacité, il existe
donc un point d’adhérence H 0 à cette suite. En passant à la limite dans
une suite extraite adéquate, on en tire que exp(H 0 ) = A. Mais l’unicité de
l’antécédent par l’exponentielle, prouvée ci-avant, implique alors que H 0 = H.
Ainsi, puisque (Hk )k∈N est une suite bornée de Hn ayant une seule valeur
d’adhérence, elle converge. Cela termine la preuve.
En composant avec l’homéomorphisme de la question c), on obtient que l’applica-
tion suivante est un homéomorphisme (et même un difféomorphisme) :

Un × Hn −→ GLn (C)
(U, H) 7−→ U exp(H).

Cela est à mettre en parallèle avec la forme polaire des nombres complexes, qui
correspond au cas n = 1 de ce résultat : tout nombre complexe non nul s’écrit
sous la forme u exp(iθ), avec u > 0 un nombre complexe de S 1 ' U1 et θ ∈ R.
Cette décomposition (u, exp(iθ)) est de plus unique.
© On peut amplement moduler ce développement : omettre la démonstration
classique de l’existence de la racine carrée est tout à fait possible, tout comme
s’arrêter à la décomposition A = U H sans parler d’exponentielle, ce qui per-
met de gagner du temps. L’homéomorphisme donné par l’exponentielle dans le
commentaire ci-avant a été établi dans un souci d’exhaustivité et pourrait être
présenté dans un développement à part entière pour illustrer les propriétés de
l’exponentielle matricielle, des matrices hermitiennes et de la réduction d’endo-
morphismes. Présenter le développement en se limitant aux questions a) et b)
est raisonnablement de niveau F. Il est nécessaire d’avoir un recul suffisant pour
pouvoir passer sous silence des arguments si l’on souhaite traiter également la
question c) ou la partie sur l’exponentielle présentée en commentaires, qui serait
alors d’un niveau FF compte tenu de sa longueur et des arguments permettant
de justifier (1).

188
Algèbre linéaire

© Pour davantage de décompositions et de propriétés topologiques sur les groupes


de matrices, voir [MT97], qui est une ouverture au monde des groupes topologiques
et des groupes de Lie.

Questions.
1. Dans le cas des matrices non inversibles, existe-t-il encore une racine carrée ?
et une décomposition polaire ?
2. Rappeler pourquoi le groupe Un est compact. Est-ce le cas pour Hn ?
3. Montrer qu’une suite d’un espace vectoriel normé qui est à valeurs dans un
compact et qui admet au plus une valeur d’adhérence est une suite convergente.
4. Montrer que si H = P AP −1 avec P ∈ GLn (C) et A ∈ Hn (C), l’image par
l’exponentielle est donnée par exp(H) = P exp(A)P −1 .
5. Montrer que exp est à valeurs dans GLn (C).
6. Si H, H 0 ∈ Hn++ , montrer que H + H 0 ∈ Hn++ .
7. Montrer que la norme matricielle subordonnée à k·k2 d’une matrice hermitienne
est son rayon spectral, i.e. le module maximal de ses valeurs propres.
8. Justifier l’égalité (1).
Indication : écrire les valeurs propres de Hk en fonction de celles de Hk , tout en
prenant garde aux valeurs négatives.
9. (a) Soit H ∈ On une matrice orthogonale. Montrer que H est orthogonalement
semblable à une matrice diagonale par blocs
 
Ip

 −Iq 

R(θ1 )
 
 
..
 
.
 
 
R(θr )
où p + q 6 n, θ1 , . . . , θr ∈ R et, pour θ ∈ R, R(θ) est la matrice de rotation
!
cos θ − sin θ
R(θ) = .
sin θ cos θ

(b) Si m ∈ N∗ , montrer que toute matrice H ∈ SOn admet une racine m-ième
dans GLn (C). Que dire dans le cas de H ∈ GLn (C) ? et de GLn (R) ?
10. Montrer que deux matrices hermitiennes qui commutent sont simultanément
diagonalisables dans une base orthonormée.
11. Expliquer pourquoi la limite d’une suite de matrices hermitiennes définies
positives est une matrice hermitienne positive. Est-elle définie positive ?
12. Rappeler pourquoi la continuité d’une application linéaire est équivalente à
la continuité séquentielle dans un espace métrique. Connaissez-vous un contre-
exemple dans le cas général ?
13. Montrer que exp(Hn ) ⊆ Hn++ .
14. Montrer que Hn++ est un cône ouvert convexe.

189
35. Réduction des endomorphismes nilpotents

Développement 35 (Réduction des endomorphismes nilpotents F)

Soit E un K-espace vectoriel de dimension n > 1, où K = R ou C. Soit


un endomorphisme u ∈ L(E) nilpotent, i.e. tel que uk = 0 pour un certain
entier k > 1. Le plus petit tel exposant k est noté m et est appelé l’indice de
nilpotence de u.
a) Montrer qu’il existe x ∈ E tel que (x, u(x), . . . , um−1 (x)) forme un système
libre de E engendrant un sous-espace F de E stable par u. Un tel sous-espace
est dit cyclique. Donner la matrice de l’endomorphisme induit uF relativement
à cette base.
b) Montrer qu’il existe f ∈ E ∗ tel que (f, t u(f ), . . . , t um−1 (f )) forme un
système libre de E ∗ engendrant un sous-espace dont l’orthogonal G est stable
par u.
c) En déduire que E se décompose en somme directe de sous-espace cycliques.
Donner une interprétation matricielle de ce résultat.

Leçons concernées : 151, 153, 154, 157, 159

Ce développement est un résultat de réduction des endomorphismes nilpotents,


adapté aux leçons 153 et 157. On y prouve que tout espace peut se décomposer
comme somme de sous-espaces cycliques d’un endomorphisme nilpotent. L’essentiel
du développement repose sur la construction d’un supplémentaire stable qui utilise
des arguments de dualité, en faisant une bonne illustration de la leçon 159. La
preuve se conclut par une récurrence sur la dimension menant à la décomposition
de l’espace, justifiant ce développement dans les leçons 151 et 154.

Correction.
a) Puisque m est l’indice de nilpotence de u, on en déduit que um−1 n’est pas
l’endomorphisme nul, donc il existe un vecteur x ∈ E tel que um−1 (x) 6= 0.
Montrons que le système (x, u(x), . . . , um−1 (x)) est libre. Considérons une relation
de dépendance linéaire
m−1
X
λi ui (x) = 0,
i=0

où λ0 , . . . , λm−1 ∈ K. En prenant l’image de cette relation par um−1 , tous les


termes sont annulés sauf le premier, puisque um = 0 par hypothèse. Ainsi on
en déduit que λ0 um−1 (x) = 0. Cela implique λ0 = 0 puisque um−1 (x) 6= 0. Ce
procédé permet de déduire itérativement que les coefficients λ0 , . . . , λm−1 sont
tous nuls, de sorte que le système (x, u(x), . . . , um−1 (x)) est libre.
Puisque um = 0, la famille (0, x, u(x), . . . , um−1 (x)) est stable par u, donc il
en va de même pour l’espace F engendré. L’endomorphisme u induit donc un
endomorphisme sur F , noté uF . Puisque u(ui (x)) = ui+1 (x), pour tout entier
i ∈ J0, m − 2K, la matrice de uF relativement à la base (um−1 (x), . . . , u(x), x) de

190
Algèbre linéaire

F est donnée par  


0 1

 0 1 


Nm =  .. .. 
. (1)
 . . 

0 1 


0
b) Puisqu’il existe x ∈ E non tel que um−1 (x) 6= 0, il existe une forme linéaire
f ∈ E ∗ telle que hf, um−1 (x)i =
6 0. Par définition de la transposition, on a donc
D E D E
0 6= f, um−1 (x) = t m−1
u (f ), x ,

de sorte que t um−1 est non nul. De plus, puisque um = 0, on a t um = 0. Ainsi t u


est un endomorphisme nilpotent de E ∗ d’indice de nilpotence égal à m. En
appliquant la même démarche qu’à la question précédente on prouve que le
système (f, t u(f ), . . . , t um−1 (f )) est libre et que l’espace qu’il engendre est stable
par t u, autrement dit que son orthogonal pour la dualité G est stable par u.
Puisque dim(F ) + dim(G) = n, il suffit de prouver que G ∩ F = {0} pour
prouver qu’ils sont supplémentaires. Soit y ∈ G ∩ F . Puisque y ∈ F , il existe des
scalaires λ0 , . . . , λm−1 ∈ K tels que
m−1
X
y= λi ui (x).
i=0

De plus, puisque um = 0, on a um−1 (y) = λ0 um−1 (x). Par ailleurs, puisque y ∈ G,


il est annulé par t um−1 (f ). On obtient donc
D E D E
t m−1
0= u (f ), y = f, um−1 (y)
D E D E
= f, λ0 um−1 (x) = λ0 f, um−1 (x) ,

et ceci implique que λ0 = 0 car hf, um−1 (x)i n’est pas nul par définition de f . Ce
procédé permet de déduire itérativement que λ0 , . . . , λm−1 sont tous nuls par les
mêmes arguments qu’à la question précédente, donc que y = 0. Ainsi la somme
de F et G est directe, et en particulier on en déduit que E = F ⊕ G.
c) On raisonne par récurrence sur la dimension n > 1, le résultat étant immédiat
en dimension 1. Supposons le résultat vrai en dimension inférieure à n − 1 pour
un certain n > 1, et prouvons-le en dimension n. Soient E un K-espace vectoriel
de dimension n et u un endomorphisme nilpotent de E. Par la question a), il
existe un sous-espace cyclique F stable par u. Par la question b), il existe un
supplémentaire G de F dans E stable par u. Choisissons pour F la base donnée par
un système de la forme (x, u(x), . . . , um−1 (x)) pour un certain x ∈ E et un m > 1.
En complétant cette base par des éléments du supplémentaire G de sorte à obtenir
une base de E, la matrice de u prend la forme par blocs
!
Nm 0
0 N0

191
35. Réduction des endomorphismes nilpotents

où Nm est la matrice définie en (1) et N 0 ∈ Mn−m (K). Puisque u est nilpotent, la


matrice N 0 est aussi nilpotente de taille n − m 6 n − 1. L’hypothèse de récurrence
s’applique alors et permet de décomposer G en somme de sous-espaces cycliques
pour u. Ainsi, E = F ⊕ G est somme de sous-espaces cycliques, ce qui termine la
preuve par récurrence.
Matriciellement, cela signifie qu’il existe une suite d’entiers m1 > · · · > ms tels
que u est semblable à la matrice
 
Nm1

 Nm2 

.

..

 . 

Nms

Commentaires.
© Le résultat prouvé ici est un résultat de réduction des endomorphismes nil-
potents. On ne peut espérer de diagonalisation dans le cas nilpotent, puisque
seul l’endomorphisme nul est à la fois diagonalisable et nilpotent. On obtient
une très bonne propriété de réduction en matrices diagonales par blocs de forme
simple : ce sont des blocs cycliques. Il s’agit de la décomposition de Jordan des
endomorphismes nilpotents, voir par exemple le Développement 80 pour une
preuve de la décomposition de Jordan dans le cas général (n’utilisant toutefois
que très peu d’outils d’algèbre linéaire).
© Les endomorphismes nilpotents sont fondamentaux en théorie de la réduction,
et peuvent être perçus comme les composantes non-diagonalisables des endo-
morphismes. En effet, la décomposition de Dunford (voir Développement 36)
assure que tout endomorphisme se décompose de manière unique comme somme
d’un endomorphisme semi-simple (autrement dit, diagonalisable dans un corps
algébriquement clos) et d’un endomorphisme nilpotents qui commutent, autre-
ment dit qui admettent une décomposition de l’espace en sous-espaces stables
par chacun d’eux. En voici par exemple une formulation ne faisant pas appel à la
semi-simplicité :

Soit A ∈ Mn (K) telle que χA est scindé. Il existe une unique matrice
diagonalisable D et une unique matrice nilpotente N telles que
• A=D+N;
• D et N commutent ;
• D et N sont des polynômes en A.
© La preuve présentée ici est « en profondeur » : on choisit un vecteur, on fait
agir l’endomorphisme u sur lui jusqu’à épuiser les vecteurs linéairement indépen-
dants ainsi obtenus, donnant un espace cyclique. L’existence d’un sous-espace
supplémentaire stable permet d’itérer le procédé, menant à une décomposition en
orbites sous l’action de u. On pourrait également faire une preuve « en largeur »,
en sélectionnant d’abord un système libre maximal de vecteurs x qui vérifient

192
Algèbre linéaire

um−1 (x) 6= 0, puis en adjoignant un système libre maximal de vecteurs y tels que
um−2 (y) 6= 0, etc. Une telle preuve évite le recours à la dualité.
© La discussion précédente permet de déterminer les tailles m1 > · · · > ms des
blocs de la décomposition en espaces cycliques. En effet, l’entier s est la dimension
de Ker(u), puisqu’il correspond au nombre de sous-espaces cycliques dans la
décomposition, et donc au nombre de vecteurs linéairement indépendants de la
forme umi −1 (x) 6= 0 avec umi (x) = 0, qui forment une base de Ker(u). On suit
alors la construction effectuée dans le commentaire précédent : la dimension m1
est l’indice de nilpotence de u par la question a). Le nombre de blocs cycliques
de taille au moins 2 est le nombre de vecteurs linéairement indépendants de la
forme umi −2 (x) qui complètent la base du noyau construite précédemment, il y
en a donc dim(u2 ) − dim(u). Itérativement on déduit la description suivante :

La suite m1 > · · · > ms est entièrement déterminée par les données


des dimensions des noyaux itérés dim(Ker(ui )) pour tout i ∈ J1, mK.
En particulier, elle est entièrement déterminée par u.

Questions.
1. Montrer que le seul endomorphisme diagonalisable et nilpotent est l’endomor-
phisme nul.
2. Soit u un endomorphisme nilpotent d’un espace vectoriel de dimension finie n.
Montrer que son indice de nilpotence est inférieur ou égal à n.
3. Rappeler la définition de l’orthogonal pour la dualité G et montrer que si G
est stable par u, alors G est stable par t u.
4. Justifier que pour tout x ∈ E\{0}, il existe une forme linéaire f ∈ E ∗ telle que
l’on ait f (x) 6= 0.
5. Montrer que les conditions suivantes sont équivalentes pour u ∈ L(E) :
• u est nilpotent ;
• u n’admet que zéro comme valeur propre et χu est scindé ;
• le polynôme minimal de u est de la forme X k pour un k > 1 ;
• le polynôme caractéristique de u est X dim(E) .
6. Montrer qu’un endomorphisme est nilpotent si, et seulement si, les tr(Ak ) sont
toutes nulles pour k > 1.

193
36. Décomposition de Dunford

Développement 36 (Décomposition de Dunford F)

Soit n > 1. On cherche à établir l’existence et l’unicité de la décomposition


de Dunford, qui s’énonce comme suit :
Toute matrice A ∈ Mn (R) peut s’écrire de manière unique comme
la somme de deux matrices réelles D + N avec N nilpotente, D
diagonalisable sur C et DN = N D. De plus, D et N sont des
polynômes en A.

a) Montrer que pour tout M ∈ GLn (R) on a M −1 ∈ R[M ].


b) Montrer que pour tout Q ∈ R[X] le polynôme

Q(X + Y ) − Q(X) − Y Q0 (X)

est divisible par Y 2 dans R[X, Y ].


c) Soient N ∈ Mn (R) nilpotente et U ∈ GLn (R) telles que U N = N U .
Montrer que U − N est inversible.
d) Soit A ∈ Mn (R). On pose P (X) = − λ). On définit la suite
Q
λ∈SpC (A) (X
de matrices (Ak )k∈N par
(
A0 = A,
Ak+1 = Ak − P (Ak )P 0 (Ak )−1 pour k ∈ N.

(i) Montrer par récurrence que les trois propriétés suivantes sont vérifiées
pour tout entier k :
• Ak ∈ R[A] ;
• P 0 (Ak ) ∈ GLn (R) ;
k
• Il existe Bk ∈ R[A] tel que P (Ak ) = P (A)2 Bk .
(ii) En déduire que la suite (Ak )k est bien définie, stationnaire, et converge
vers une matrice D diagonalisable sur C.
(iii) Montrer que A − D est nilpotente et conclure à l’existence de la décom-
position de Dunford.
e) Montrer l’unicité de la décomposition de Dunford.

Leçons concernées : 153, 157

Cet exercice présente une méthode d’obtention de la décomposition de Dunford en


utilisant une suite récurrente inspirée de la méthode de Newton. Le développement
repose sur des manipulations élémentaires de polynômes matriciels et sur des
considérations de nilpotence et de commutativité. Il permet donc d’illustrer les
leçons 153 et 157.

194
Algèbre linéaire

Correction.
a) Soient M ∈ Mn (R) et χM (X) = ni=0 ai X i son polynôme caractéristique.
P

Comme la matrice M est inversible, le coefficient a0 vérifie

a0 = χM (0) = det(M ) 6= 0.

Par le théorème de Cayley-Hamilton, on a χM (M ) = 0, ce qui se réécrit


n
X
M ai M i−1 + det(M )In = 0.
i=1
Pn
On obtient donc M −1 = − det(M )−1 i=1 ai M
i−1 ∈ R[M ].
b) Le polynôme Q(X + Y ) − Q(X) − Y Q0 (X)
dépendant linéairement de Q, il
suffit de montrer le résultat pour les éléments de la base (X k )k∈N de R[X].
Si k = 0, alors (X + Y )k − X k − Y · 0 = 0, qui est bien divisible par Y 2 .
De plus, pour tout entier k > 1, on a par la formule du binôme

k k
! !
k
X k k−i i k k−1
X k
(X + Y ) = X Y = X + kY X +Y 2
X k−i Y i−2 .
i=0
i i=2
i

Le polynôme (X + Y )k − X k − kY X k−1 est donc divisible par Y 2 .


c) On pose M = n−1 −k−1 N k . D’après la question a) la matrice U −1 est un
P
k=0 U
polynôme en U , et commute donc avec N . On a alors
n−1 n−1
U −k N k − U −(k+1) N k+1 = U 0 N 0 − U −n N n = In − U −n N n .
X X
(U − N )M =
k=0 k=0

Comme N est nilpotente, on a N n = 0, de sorte que (U − N )M = In par le calcul


précédent. La matrice U − N est donc bien inversible, d’inverse M .
d) (i) On procède par récurrence sur l’entier k ∈ N.
• Si k = 0, on pose B0 = In . La matrice A0 = A est alors bien un polynôme
0
en A et on a P (A0 ) = P (A) = P (A)2 × B0 .
Pour montrer que P 0 (A) est inversible, on utilise le fait que P est scindé à
racines simples sur C. En effet, P et P 0 sont alors premiers entre eux, donc le
théorème de Bézout assure l’existence de U, V ∈ R[X] tels que U P + V P 0 = 1.
Par construction de P , il existe un entier m tel que χA | P m (il suffit de choisir
la plus grande multiplicité des valeurs propres complexes de A). D’après le
théorème de Cayley-Hamilton, on a χA (A) = 0, et donc P (A)m = 0. Ainsi, la
matrice P (A) est nilpotente d’indice au plus m. Comme les matrices P (A)
et U (A) commutent, U (A)P (A) est aussi nilpotente.
La question c) assure alors que V (A)P 0 (A) = In − U (A)P (A) est inversible,
donc P 0 (A) est inversible.

195
36. Décomposition de Dunford

• Supposons que le résultat est établi au rang k > 0. Par hypothèse de récurrence,
la matrice Ak est un polynôme en A, donc c’est aussi le cas pour P (Ak ) ainsi
que pour P 0 (Ak )−1 d’après la question a), et donc pour Ak+1 .
Construisons maintenant la matrice Bk+1 . On pose

M = Ak+1 − Ak = −P (Ak )P 0 (Ak )−1 .

D’après la question b) appliquée au polynôme P et l’hypothèse de récurrence


k
P (Ak ) = P (A)2 Bk , il existe un polynôme Pe ∈ R[X, Y ] tel que

P (Ak+1 ) = P (Ak + M ) = P (Ak ) + M P 0 (Ak ) + M 2 Pe (Ak , M )


= M 2 Pe (Ak , M ) = P (Ak )2 P 0 (Ak )−2 Pe (Ak , M )
k
= (P (A)2 Bk )2 P 0 (Ak )−2 Pe (Ak , M ).

En posant Bk+1 = Bk2 P 0 (Ak )−2 Pe (Ak , M ) ∈ R[Ak ] ⊂ R[A], on obtient bien la
k+1
propriété recherchée P (Ak+1 ) = P (A)2 Bk+1 .
Il reste à montrer que P 0 (Ak+1 ) est inversible. En dérivant la relation

P (X + Y ) = P (X) + Y P 0 (X) + Y 2 Pe (X, Y )

par rapport à Y , on obtient

P 0 (X + Y ) = P 0 (X) + Y Q(X,
e Y)

e = 2Pe + Y ∂ Pe ∈ R[X, Y ]. En évaluant cette égalité en X = Ak et Y = M ,


où Q ∂Y
on obtient alors
P 0 (Ak+1 ) = P 0 (Ak ) + M Q(A
e k , M ).

On va montrer que M Q(A e k , M ) est nilpotente et commute avec P 0 (Ak ) (qui


est inversible par hypothèse de récurrence). On obtiendra alors l’inversibilité
de P 0 (Ak+1 ) en utilisant la question c).
Rappelons que χA divise une puissance de P , si bien que P (Ak ) est nilpotente
d’après le théorème de Cayley-Hamilton. Comme P (Ak ) et −P 0 (Ak )−1 sont
des polynômes en A (par hypothèse de récurrence et par la question a)), ces
deux matrices commutent, et leur produit M est aussi nilpotent. De plus, M et
Q(A
e k , M ) sont des polynômes en A (par hypothèse de récurrence). En particu-
lier, ces deux matrices commutent, et on obtient finalement que M Q(A e k, M )
est aussi nilpotente. On a de plus montré que P 0 (Ak ) et M Q(A
e k , M ) sont des
0
polynômes en A. Ainsi, ces matrices commutent et P (Ak+1 ) est inversible
d’après la question c).
Les trois propriétés voulues sont donc vérifiées au rang k + 1, ce qui prouve
l’hérédité et termine la preuve par récurrence.
(ii) Pour tout k tel que Ak est définie, P 0 (Ak ) est inversible donc Ak+1 est bien
définie. Ainsi, la suite (Ak )k∈N est bien définie. De plus, on a vu que la matrice
k
P (A) est nilpotente puisque P (A)2 = 0 dès que k > k0 := dln2 (n)e. D’après la

196
Algèbre linéaire

k
question précédente, on a alors P (Ak ) = P (A)2 Bk = 0, d’où Ak+1 = Ak . La
suite (Ak )k∈N est donc stationnaire et, en laissant k tendre vers +∞, sa limite D
vérifie donc P (D) = 0.
Le polynôme P annule donc D et est scindé sur C et à racines simples. Ainsi, la
matrice D est diagonalisable sur C.
(iii) On a par télescopage, puisque D = Ak0 +1 ,

k0 k0
P (Ak )P 0 (Ak )−1 .
X X
A − D = A0 − Ak0 +1 = (Ak − Ak+1 ) = −
k=0 k=0

Chaque matrice P (Ak ) est nilpotente et commute avec P 0 (Ak )−1 (ces deux matrices
étant des polynômes en A). Ainsi, A − D est une somme de matrices nilpotentes
qui commutent entre elles, donc A − D est nilpotente. De plus, D et A − D
commutent car D est un polynôme en A (donc A − D aussi). La décomposition
A = D + (A − D) est donc bien une décomposition de Dunford.
e) Supposons que A s’écrive comme la somme D0 + N 0 avec N 0 nilpotente, D0
diagonalisable sur C et D0 N 0 = N 0 D0 .
Alors N 0 commute avec N 0 et D0 , donc avec D0 + N 0 = A. Comme N est un
polynôme en A, la matrice N 0 commute aussi avec N , et N 0 − N est nilpotente.
De même, D0 commute avec D donc D et D0 sont codiagonalisables sur C. En
particulier, D − D0 est aussi diagonalisable sur C.
L’égalité D − D0 = N 0 − N assure alors que D − D0 est diagonalisable et nilpotente,
donc nulle. On obtient donc D = D0 et N = N 0 .

Commentaires.
© Les questions a) à c) présentent des résultats classiques de l’agrégation. Il est
donc raisonnable d’en admettre certains, pour se concentrer sur la question d) qui
constitue le cœur de ce développement. En fonction de la durée du développement,
on peut aussi choisir de ne pas présenter la question e).
© Le résultat de la question b) peut être démontré en utilisant le critère de
cotrigonalisabilité. En effet, comme U et N commutent, elles sont cotrigonalisables.
Comme Sp(N ) = {0}, on a alors :

Sp(U − N ) ⊂ {u − n : u ∈ Sp(U ), n ∈ Sp(N )} = Sp(U ).

En particulier, comme U est inversible, son spectre ne contient pas 0, donc U − N


est inversible.
© Une heuristique possible concernant la question c) est la suivante : tout d’abord,
on se ramène au cas U = In en écrivant U − N = U (In − U −1 N ), et en remarquant
que comme U et N commutent, U −1 N est aussi nilpotente. Ensuite, l’identité
formelle
+∞
X
(1 − X) Xk = 1
k=0

197
36. Décomposition de Dunford

incite à considérer +∞ −1 N )k comme inverse formel potentiel de I − U −1 N .


P
k=0 (U n
Cette somme est bien définie, car c’est en fait une somme finie (puisque N est
nilpotente), et le calcul de la question c) montre exactement que cette heuristique
fonctionne.
© La méthode présentée ici fournit aussi un algorithme pour calculer effectivement
la décomposition de Dunford. En effet, il suffit de calculer A0 , A1 , . . . jusqu’à
stabilisation (qui intervient au plus tard au rang dln2 (n)e). Chaque itération
nécessite d’évaluer P et P 0 , d’inverser une matrice, et d’effectuer une multiplication
et une addition matricielles. À l’aide de la méthode de Horner, l’évaluation d’un
polynôme prend un temps O(nω+1 ) où ω ∈ [2, 3[ est un réel tel que la multiplication
de deux matrices de taille n se fait en temps O(nω ). Comme on peut inverser une
matrice en O(n3 ), chaque itération prend donc un temps O(nω+1 ), et l’algorithme
final est donc en O(nω+1 ln n). Cependant, pour utiliser cet algorithme, on a
besoin de calculer le polynôme P , qui est défini en utilisant les valeurs propres
de A sur C. Pour éviter de devoir déterminer les racines de P sur C, on peut se
rendre compte du fait que P = χAχ∧χ A
0 , ce qui permet de calculer P uniquement
A
avec des opérations matricielles (voir le Développement 29).
© Il faut voir la définition de (Ak )k∈N comme une application de la méthode de
Newton pour approcher une solution (matricielle) de l’équation P (M ) = 0. En
plus de fournir un bon moyen de se rappeler la définition de la suite (Ak )k∈N ,
cette remarque en dit aussi long sur l’heuristique de cette preuve. En effet, quand
on cherche la matrice D, on cherche une matrice diagonalisable sur une clôture
algébrique, et qui a le même spectre que A (si la décomposition existe, A et D
ont le même spectre puisque N est nilpotente et commute avec D). Ainsi, on
cherche une matrice annulée par un polynôme à racines simples ayant les mêmes
racines que le polynôme caractéristique χA , c’est-à-dire annulée par P . Cela motive
l’utilisation de la méthode de Newton pour approcher une telle solution (et il se
trouve que la suite des (Ak )k∈N ne fait pas qu’approcher cette solution : elle y
stationne).
© On cite parfois la décomposition de Dunford comme outil pour un calcul effectif
de l’exponentielle d’une matrice. D’un point de vue théorique, cette décomposition
permet en effet de fournir une formule (voir questions ci-après). Cependant,
l’utilisation de cette formule requiert de calculer l’exponentielle de la partie
diagonalisable, ce qui implique de diagonaliser (ou au moins de calculer les valeurs
propres) de la matrice initiale. On perd alors l’avantage de la méthode de Newton
(qui permet de ne pas avoir à calculer ces valeurs propres).
© On obtient un critère algorithmique de diagonalisabilité sur C : il suffit de
calculer la décomposition de Dunford, et de tester si la partie nilpotente est nulle.
© Ce développement montre l’existence de la décomposition de Dunford sur R.
Dans le cas d’un corps algébriquement clos, on peut obtenir le même résultat
comme conséquence de la décomposition de Jordan (voir Développement 80).
Ceci se généralise au cas d’un corps non algébriquement clos lorsque le polynôme
minimal de la matrice considérée est scindé.
© Si K n’est pas algébriquement clos, on peut quand même étendre le résultat de

198
Algèbre linéaire

Dunford à l’aide de la théorie de Galois. Considérons une matrice M ∈ Mn (K)


dont le polynôme minimal µM n’est pas scindé sur K. Soit KM un corps de
décomposition de µM . On peut alors décomposer M = D + N dans KM . Soit f
un élément du groupe de Galois Gal(KM /K). Alors on a f (M ) = M puisque M
est à coefficients dans K. Ainsi,

M = f (M ) = f (D + N ) = f (D) + f (N )
f (M )f (N ) = f (M N ) = f (N M ) = f (N )f (M ).

De plus, f (N ) est nilpotente puisque pour tout entier k, on a f (N )k = f (N k ).


Enfin, puisque D est diagonalisable sur KM , il existe une matrice inversible P
telle que P DP −1 = diag(λ1 , . . . , λn ). Alors

f (P )f (D)f (P )−1 = f (P DP −1 ) = diag(f (λ1 ), . . . , f (λn )),

d’où f (D) est diagonalisable. Ainsi, par unicité de la décomposition de Dunford


dans KM , on a f (D) = D et f (N ) = N .
Les coefficients des matrices D et N sont fixées par tout automorphisme de KM
laissant K fixe. Ainsi, si l’extension KM /K est galoisienne, on obtient que D et N
sont à coefficients dans K, ce qui fournit l’existence et l’unicité de la décomposition
de Dunford de M sur K.
Ainsi, si l’extension KM /K est galoisienne pour toute matrice M , le résultat de
décomposition de Dunford reste valide dans ce cadre. C’est en particulier le cas
si K est un corps parfait (c’est-à-dire si tout extension algébrique est séparable).
© Dans le cas d’un corps non parfait, le résultat de Dunford tombe en défaut.
Prenons par exemple K = Fp (X p ) où p est un nombre premier. Alors Fp (X) est
une extension de corps de K de degré p (une K-base de Fp (X) est donnée par la
famille (1, X, . . . , X p−1 )).
Soit M la matrice de la multiplication par X dans cette base. Supposons que M
admette une décomposition de Dunford M = D + N avec D diagonalisable sur une
clôture algébrique de K, et N nilpotente telles que D et N soient des polynômes
en M .
Notons N = Q(M ) avec Q ∈ K[T ]. Alors N est la matrice de la multiplication
par Q(X) dans la base (1, . . . , X p−1 ). En particulier, comme N est nilpotente, on
a Qp = 0, d’où Q = 0 et N = 0. Ainsi, M = D, donc M est diagonalisable sur
une clôture algébrique de K.
Observons que M est la matrice compagnon du polynôme T p − X p ∈ K[T ], qui
est donc son polynôme minimal. Ainsi, la seule valeur propre de M (dans une
clôture algébrique de K) est X. En particulier, comme M est diagonalisable sur
une clôture algébrique, alors il existe une matrice inversible P telle que

M = P · XIp · P −1 = XP P −1 = XIp ,

ce qui est impossible. Ainsi, M n’admet pas de décomposition de Dunford.

199
36. Décomposition de Dunford

Questions.
1. Montrer que P est un polynôme à racines simples si et seulement si P et P 0
sont premiers entre eux.
2. Justifier que si N ∈ Mn (K) est nilpotente alors N n = 0.
3. Soit A ∈ Mn (R). Montrer que A est inversible si et seulement si elle admet un
inverse à gauche (resp. à droite).
4. Soient A, B ∈ Mn (R) telles que AB ∈ GLn (R). Montrer que A, B ∈ GLn (R).
5. Montrer que la somme de deux matrices nilpotentes qui commutent est nilpo-
tente.
6. Donner la décomposition de Dunford de ( 10 11 ) et ( 10 12 ).
7. Soient A et B deux matrices trigonalisables (resp. diagonalisables) qui com-
mutent. Montrer que A et B sont cotrigonalisables, i.e. il existe P inversible telle
que P −1 AP et P −1 BP sont triangulaires supérieures (resp. diagonales).
8. Montrer la version multiplicative de la décomposition de Dunford :

Toute matrice A ∈ GLn (R) peut s’écrire de manière unique comme le


produit DU de matrices réelles avec U unipotente, D diagonalisable
sur C et DU = U D. De plus, D et U sont des polynômes en A.
9. Montrer que l’exponentielle d’une matrice nilpotente est unipotente.
10. Soit A = D + N la décomposition de Dunford d’une matrice A. Montrer que
n−1
X Nk
eA = eD ,
k=0
k!

et en déduire une méthode de calcul pour eA . Adapter cette méthode au calcul


de Ak pour tout entier k.
11. Montrer que la décomposition de Dunford de eA est eD + eD (eN − In ).
12. Si A ∈ Mn (C), montrer que A est diagonalisable si et seulement si eA est
diagonalisable.
13. Si A ∈ GLn (C), montrer qu’il existe P ∈ C[X] tel que A = eP (A) .

200
Algèbre linéaire

Développement 37 (Forme normale de Smith FF)

Soient A un anneau euclidien et δ un stathme euclidien. Soient m, n > 1. On


dit que deux matrices de Mm,n (A) sont équivalentes si elles peuvent être
transformées l’une en l’autre par des opérations élémentaires sur les lignes et
colonnes à coefficients dans A.
a) Pour m, n > 2, montrer que toute matrice de Mm,n (A) est équivalente à
une matrice telle que sa première entrée divise toutes les autres, et les autres
entrées de la première ligne et de la première colonne sont nulles.
b) En déduire l’existence de la forme normale de Smith :

Toute matrice M ∈ Mm,n (A) est équivalente à une matrice


 
f1
 .. 

 . 


 fr 

0
 
 
..
 
.
 
 
0

où f1 , . . . , fr ∈ A sont tels que f1 | · · · |fr .

c) Prouver que les éléments f1 , . . . , fr sont uniques modulo les unités : toute
autre forme normale de Smith est donnée par des éléments fi0 = ui fi , pour
tout i ∈ J1, rK, où les ui sont des éléments inversibles de A.

Leçons concernées : 122, 142, 152, 155

Ce développement propose de prouver un résultat de réduction des matrices sur


un anneau euclidien. C’est un résultat puissant et remarquable qui s’insère na-
turellement dans la leçon de diagonalisation des endomorphismes (155), et qui
peut servir à illustrer des extensions de la leçon sur les anneaux (122) dans le cas
où une partie du plan est dédiée aux anneaux euclidiens ou aux modules sur un
anneau. Les outils essentiels sont la division euclidienne, l’algorithme d’Euclide
et les calculs de pgcd, motivant ce développement pour la leçon sur le pgcd (142).
L’unicité découle de calculs de déterminants, permettant de l’utiliser dans le cadre
de la leçon 152.

Correction.
a) Soit M ∈ Mm,n (A). Si la matrice M est nulle, le résultat est immédiat.
Supposons désormais la matrice M non nulle. Considérons l’ensemble X de toutes
les matrices équivalentes à M . Soit f1 un coefficient non nul de stathme minimal
parmi toutes les matrices de X, autrement dit pour toute matrice U équivalente
à M et tout coefficient u dans U , on δ(f1 ) 6 δ(u). Celui-ci existe car δ est à
valeurs entières positives.

201
37. Forme normale de Smith

Considérons une matrice U équivalente à M contenant le coefficient f1 . Si f1 est


le coefficient en place (i, j) de U , quitte à permuter les lignes L1 et Li ainsi que
les colonnes C1 et Cj , on peut supposer que
 
f1 u12 · · · u1n

 u21 ? ··· ? 

U = .. .. .. .. .

 . . . .


um1 ? ··· ?

où les ? tiennent lieu d’éléments de A. On écrit la division euclidienne des éléments


de la première colonne par f1 . Pour tout i ∈ J2, mK, il existe qi , ri ∈ A tels qu’on
ait ui1 = qi f1 + ri avec δ(ri ) < δ(f1 ). En effectuant les opérations Li ← Li − qi L1
pour i ∈ J2, mK, les éléments de la première colonne deviennent ui1 − qi f1 = ri ,
de sorte que U est équivalente à une matrice de la forme
 
f1 u12 · · · u1n

 r2 ? ··· ? 

.. .. .. .

..

 . . . .


rm ? ··· ?

Or cette matrice est équivalente à M par transitivité de la relation d’équivalence, et


δ(ri ) < δ(f1 ) pour tout i ∈ J2, mK. Par minimalité de f1 , on a donc nécessairement
ri = 0 pour tout i ∈ J2, mK.
On recommence le processus en effectuant la division euclidienne des éléments de
la première ligne. Pour tout j ∈ J2, nK, il existe qj , rj ∈ A tels que u1j = qj f1 + rj
avec δ(rj ) < δ(f1 ). En effectuant les opérations élémentaires Cj ← Cj − qj C1 pour
tout j ∈ J2, nK, les éléments de la première ligne deviennent u1j − qj f1 = rj , de
sorte que U est équivalente à une matrice de la forme
 
f1 r2 · · · rn

 0 ? ··· ?  
 .. .. . . ..  .

 . . . . 
0 ? ··· ?

Or cette matrice est équivalente à M par transitivité de la relation d’équivalence, et


δ(rj ) < δ(f1 ) pour tout j ∈ J2, mK. Par minimalité de f1 , on a donc nécessairement
rj = 0 pour tout j ∈ J2, nK. Finalement, la matrice U est équivalente à une matrice
de la forme  
f1 0 · · · 0
 0 ? ··· ? 
 
 . .
 . . .. . .
 . . . .. 

0 ? ··· ?
Notons V ∈ Mm−1,n−1 (A) la matrice de taille (m − 1, n − 1) représentée par les
étoiles ci-avant. Il reste à prouver que f1 divise tous les éléments de V .

202
Algèbre linéaire

Soit i ∈ J2, mK. L’opération L1 ← L1 + Li donne la matrice équivalente


 
f1 vi2 · · · vin

 0 ? ··· ?  
 .. .. . . ..  .

 . . . .  
0 ? ··· ?

Comme précédemment, effectuons la division euclidienne des éléments de la


première ligne. Pour tout j ∈ J2, nK, il existe qj , rj ∈ A tels que vij = qj f1 + rj
avec δ(rj ) < δ(f1 ). En effectuant les opérations élémentaires Cj ← Cj − qj C1 pour
chaque j ∈ J2, nK, les éléments de la première ligne sont remplacés par les restes
vij − qj f1 = rj , de sorte que V est équivalente à
 
f1 r2 · · · rn

 0 ? ··· ?  
 .. .. . . ..  .

 . . . . 
0 ? ··· ?

Et comme précédemment, les rj sont nuls par minimalité de f1 . Ainsi, pour


tout j ∈ J2, nK on a vij = qj f1 , autrement dit les éléments de la i-ème ligne de V
sont divisibles par f1 . Puisque cela est vrai pour tout i ∈ J2, nK, il vient comme
voulu que les coefficients de la matrice V sont divisibles par f1 .
b) On raisonne par récurrence sur m + n. Si m + n = 2, alors M ∈ M1,1 (A) est
de la forme (a) avec a ∈ A et le résultat est immédiat. Supposons alors m + n > 2.
Si m ou n vaut 1, alors la question précédente donne le résultat. Supposons donc
que m, n > 2. Par la question précédente, M est semblable à une matrice
!
f1 0
D=
0 f1 M 0

où f1 est un élément non nul de stathme minimal, et M 0 ∈ Mm−1,n−1 (A). Par


hypothèse de récurrence, il existe des matrices P 0 et Q0 qui sont des produits de
matrices d’opérations élémentaires telles que

P 0 M 0 Q0 = diag f20 , . . . , fr0 , 0, . . . , 0 .




où f20 | · · · |fr0 . Posons fj = f1 fj0 pour tout j ∈ J2, rK, de sorte que f1 |f2 | · · · |fr .
Considérons les matrices
! !
1 0 1 0
P = et Q= .
0 P0 0 Q0

On a alors
P DQ = diag(f1 , . . . , fr , 0, . . . , 0) .
où f1 |f2 | · · · |fr , comme souhaité. Par transitivité, la matrice M est équivalente à
la matrice ci-avant, prouvant la propriété pour les matrices de Mm,n (A). Cela
termine la preuve.

203
37. Forme normale de Smith

c) Pour k 6 min(m, n), notons Ik (M ) l’idéal engendré par les mineurs de taille k
de M . Vérifions que Ik (M ) ne dépend que de la classe d’équivalence de M ,
autrement dit que pour toutes matrices inversibles P et Q, on a Ik (M ) = Ik (P M Q).
Pour une matrice quelconque P ∈ Mn (A), la multilinéarité du déterminant
implique que les mineurs de taille k de P M sont des combinaisons linéaires de
mineurs de taille k de M . En particulier, Ik (P M ) ⊆ Ik (M ). Cette propriété
demeure symétriquement pour les multiplications à droite. En notant N = P M Q,
on a alors
Ik (N ) = Ik (P (M Q)) ⊂ Ik (M Q) ⊂ Ik (M ).
Puisqu’on a aussi M = P −1 N Q−1 , le même argument prouve que Ik (M ) ⊂ Ik (N ),
donnant l’égalité voulue. Si on considère S la forme normale de Smith de M , on a
alors Ik (M ) = Ik (S), et on voit que
(
hf1 · · · fk i si 1 6 k 6 r,
Ik (S) = (1)
0 si r < k 6 min(m, n).

En particulier, on obtient ainsi des générateurs de Ik (S). Si S et S 0 sont deux


formes normales de Smith de M , on aurait pour tout k ∈ J1, rK l’égalité des idéaux
hf1 · · · fk i = hf10 · · · fk0 i. Puisque le pgcd est unique à multiplication près par des
éléments inversibles de A, on aurait des unités u1 , . . . , ur ∈ A× telles que
f10 = u1 f1 ,
f1 f20
0 = u2 f1 f2 ,
..
.
f10 · · · fr0 = uk f1 · · · fr .

Le remplacement en cascade donne que, pour tout j ∈ J1, rK, il existe une unité u0j
telle que fj0 = u0j fj .

Commentaires.
© L’objectif de la réduction des endomorphismes est de simplifier au mieux la
forme des matrices avec lesquelles on travaille. Pour les matrices sur un corps,
l’algorithme du pivot de Gauss garantit que toute matrice est équivalente à une
matrice diagonale ne contenant que des 0 et des 1, cas le plus simple de la forme
normale de Smith mentionnée ici. Lorsque l’on considère des matrices à coefficients
dans un anneau, le problème est beaucoup plus difficile et très peu de résultats
généraux sont connus. Dans le cas particulier d’un anneau euclidien, la situation
est toutefois idéale : toute matrice est équivalente à une matrice diagonale, et de
manière unique lorsque l’on impose que les coefficients diagonaux sont croissants
pour la divisibilité.
© Si le cadre des anneaux euclidiens est rebutant, il est évident que ce développe-
ment peut être présenté dans le cas particulier A = Z sans aucune modification,
hormis que δ est alors la valeur absolue.
© Le résultat démontré sur la forme normale de Smith est parfois appelé théorème
des facteurs invariants.

204
Algèbre linéaire

© La preuve peut sembler longue, mais il ne faut pas oublier que beaucoup
d’espace est occupé par l’écriture de matrices assez simples, dont seuls quelques
coefficients importent. Il est important de savoir tirer avantage de ce fait au
tableau pour gagner du temps en n’écrivant que les éléments utiles. De plus,
il est tout à fait envisageable de ne présenter que la preuve de l’existence (en
détaillant les arguments sur les divisions euclidiennes et possiblement en donnant
un exemple d’application à une matrice spécifique si temps le permet ; cela permet
de se concentrer sur les propriétés et utilisations de la division euclidienne) ou
que celle de l’unicité (en détaillant le fait que les mineurs de taille k de P M
sont des combinaisons linéaires de mineurs de taille k de M et l’identité (1) ;
donnant plus d’emphase à l’utilisation des déterminants). La preuve de l’existence
seule, présentée aux questions a) et b), pourrait constituer un développement de
niveau F.
© Le fait que les mineurs de taille k de P M sont combinaisons linéaires des
mineurs de taille k de M est élémentaire mais technique : nous avons choisi de ne
pas en faire figurer le détail dans le développement, mais il est nécessaire d’en
connaître la justification en cas de question du jury. Si le détail n’est pas énoncé
ou expliqué au tableau lors du développement, il est important de faire figurer
ce lemme dans le plan, ce qui est notamment pertinent pour les leçons sur les
matrices et les déterminants. Notons I = {i1 , . . . , ik } des indices correspondant
aux lignes et J = {j1 , . . . , jk } des indices correspondant aux colonnes. Notons MIJ
la matrice extraite de M de taille k × k correspondant à ces indices. Autrement
dit, MIJ = (mir js )r,s∈J1,kK . Notons Cq la q-ième colonne de M et CI,q la q-ième
ne comprenant que les lignes d’indices dans I, de sorte que

M = (C1 | · · · |Cn ),
MI,J = (CI,j1 | · · · |CI,js ).

En notant P = (pij )i,j∈J1,nK ∈ Mn (A), il vient explicitement


n n
!
X X
MP = pi1 Ci · · · pin Ci .
i=1 i=1

La matrice extraite correspondant aux indices I et J est donc


n n
!
X X
(M P )I,J = pi1 CI,j1 · · · pin CI,jk .
i=1 i=1

Puisque le déterminant est multilinéaire et alterné par rapport aux colonnes, on


obtient en développant une combinaison linéaire de mineurs de matrices MI,X
où X est un ensemble de k indices de J1, nK. Cela prouve le résultat voulu.
Nous ne pouvons que trop mettre en garde contre l’envie de ne pas faire ces
calculs, et nous encourageons chaque candidat à utiliser son propre formalisme et
ses propres notations pour appréhender ce calcul jusqu’à ce qu’il réalise que ce
n’est qu’un développement simple utilisant les propriétés du déterminant.

205
37. Forme normale de Smith

© La forme normale de Smith est un résultat puissant sur les modules. On peut en
particulier en déduire le théorème de structure des modules finiment engendrés sur
un idéal principal, qui contient notamment le théorème de structure des groupes
abéliens finis (qui ne sont que des Z-modules). Nous l’énonçons :
Soit V un module finiment engendré sur un anneau euclidien A. Il
existe t > 0 et des éléments f1 , . . . , fr ∈ A vérifiant f1 | · · · |fr tels que

V ' A/(f1 ) ⊕ · · · ⊕ A/(fr ) ⊕ At .

Ce résultat est connu comme le théorème de la base adaptée, ou théorème de


structure des modules de type fini. Il permet notamment de retrouver de forts
résultats de réduction des endomorphismes sur un corps, telles les décompositions
de Frobenius ou de Jordan.
© L’une des motivations principales de ce résultat est la résolution algorithmique
de systèmes linéaires dans un anneau ou dans un module (par exemple, les groupes
abéliens sont des Z-modules). La preuve présentée en question a) n’est toutefois
pas entièrement algorithmique car la matrice U est choisie par un argument de
minimalité qui n’est a priori pas constructif. Il y a un moyen de rendre la preuve
de l’existence de U constructive en suivant les mêmes idées : il suffit de prendre
pour f1 le pgcd des coefficients de M , qui peut s’obtenir de manière algorithmique
par application répétée de l’algorithme d’Euclide.
Il existe un algorithme de détermination de la forme normale de Smith d’une
matrice dû à Storjohann, qui s’exécute en temps O(mnr3 ).

Questions.
1. Justifier la description de l’idéal Ik (S) donnée en (1).
2. Quelle est la complexité de l’algorithme présenté dans la preuve ?
3. Appliquer l’algorithme donné dans la preuve à la matrice
 
7 3
 3 7 .
 
4 4
4. Déduire du résultat prouvé que les matrices inversibles de Mn (A) sont les
produits de matrices d’opérations élémentaires sur les lignes et les colonnes.
5. Que dire de la forme normale de Smith lorsque A est un corps ?
6. Supposons que l’anneau A n’est plus nécessairement euclidien mais seulement
principal. La forme normale de Smith, si elle existe, est-elle unique ?
7. Expliquer pourquoi appliquer l’algorithme d’Euclide entre les coefficients de la
matrice M , ainsi que mentionné en commentaires pour rendre la preuve algorith-
mique, permet d’obtenir une matrice équivalente à M .
8. Démontrer le résultat de structure sur les A-modules finiment engendrés men-
tionné en commentaires.
Indication : montrer que A est isomorphe à un module An /M Am où M est une
matrice, et utiliser la forme normale de Smith pour M .

206
Algèbre linéaire

Développement 38 (Sous-algèbres réduites de Mn (C) FF)

Soit A une sous-algèbre de Mn (C) que l’on suppose réduite, c’est-à-dire qu’elle
ne possède pas d’élément nilpotent non trivial. L’objectif de ce développement
est de montrer que tous les éléments de A sont codiagonalisables.
a) Montrer que la sous-algèbre A + CIn est également réduite, et expliquer
pourquoi on peut alors supposer que In ∈ A sans perdre en généralité.
On suppose désormais que In ∈ A.
b) Soit A ∈ A. Construire un polynôme scindé à racines simples annulant A,
et en déduire que A est diagonalisable.
c) (i) Montrer que tout élément A ∈ A est combinaison linéaire de projec-
teurs de A.
(ii) Soient A, B ∈ A, avec B un projecteur. Calculer (BAB − BA)2
et (BAB − AB)2 . En déduire que AB = BA, puis que A est une algèbre
commutative.
d) Conclure.

Leçons concernées : 153, 155

La leçon 155 portant sur les endomorphismes diagonalisables en dimension finie


est le cadre idéal pour ce développement, qui peut être exposé au sein d’une section
dédiée à la codiagonalisabilité. Les polynômes d’endomorphisme jouent un rôle
essentiel dans la réduction et dressent ainsi un lien avec la leçon 153. Dans une
bien moindre mesure, la démonstration du critère de codiagonalisabilité fait appel
à la stabilité des sous-espaces propres et doit être maîtrisée, mais ne justifie pas
pour autant le positionnement du développement entier dans la leçon 154, dans
laquelle le résultat peut tout de même être énoncé comme utilisation du critère.

Correction.
a) Soit M = A + λIn ∈ A + CIn , avec A ∈ A et λ ∈ C∗ . On suppose que M est
nilpotente. Il s’agit de montrer qu’alors M = 0.
Si λ = 0, alors M = A ∈ A est nulle car A est réduite. On suppose dorénavant
que λ 6= 0.
Remarquons déjà que A est inversible : en effet, M étant nilpotente, son unique
valeur propre est 0, donc A = M − λIn admet −λ 6= 0 comme unique valeur
propre.
Ensuite, A et M commutent étant donné que AM = A2 + λA = M A, donc AM
est également nilpotente. De plus, AM = A2 + λA ∈ A car A est une sous-algèbre,
si bien que AM = 0, la sous-algèbre A étant réduite. On en conclut que M = 0
par inversibilité de A. Ainsi, la sous-algèbre A + CIn est réduite.
Comme A ⊂ A + CIn , si l’on montre que tous les éléments de A + CIn sont
codiagonalisables, ce sera aussi le cas pour tous les éléments de A. À partir de
maintenant, on pourra ainsi supposer que In ∈ A, de sorte que les polynômes en

207
38. Sous-algèbres réduites de Mn (C)

les éléments de A sont encore des éléments de A.


b) Soient A ∈ A et λ1 , . . . , λr ∈ C ses valeurs propres distinctes de multiplicités
algébriques respectives m1 , . . . , mr ∈ N∗ . On considère le polynôme caractéristique
de A :
r
Y
χ= (X − λi )mi ,
i=1

ainsi que le polynôme :


r
Y
P = (X − λi ).
i=1

Notons que P est le polynôme minimal de A si A est diagonalisable.


Soit m = max{m1 , . . . , mr }. Alors χ divise P m donc, en conséquence du théo-
rème de Cayley-Hamilton, P (A)m = 0. Puisque A est réduite, on en déduit
que P (A) = 0. Ainsi, A est annulée par le polynôme P scindé à racines simples,
si bien que A est diagonalisable.
c) (i) Dans la suite, on identifie les vecteurs colonnes de Mn,1 (C) (resp. les
matrices de Mn (C)) avec les vecteurs de Cn (resp. les endomorphismes canoni-
quement associés de Cn ).
Reprenons les notations de la question précédente. On a prouvé que A est diago-
nalisable ; on décompose alors Cn en somme directe des espaces propres de A :
r
M
Cn = Eλi (A),
i=1

où Eλi (A) est le sous-espace propre de A associé à la valeur propre λi .


Pour tout i ∈ J1, rK, on note pi la projection sur Eλi (A) parallèlement à la
L
somme j6=i Eλj (A), de sorte que

r
X
In = pi .
i=1

Il s’ensuit que
r
X r
X
A= Api = λi pi ,
i=1 i=1

si bien que A est combinaison linéaire de projecteurs. Il reste à établir que pi ∈ A.


C’est en effet le cas puisque pi est un polynôme en A : par exemple, pi = Li (A),
où Li est le polynôme d’interpolation de Lagrange vérifiant Li (λj ) = 0 pour j 6= i,
et Li (λi ) = 1.
Ainsi, tout élément A ∈ A est combinaison linéaire finie de projecteurs de A.
(ii) Pour montrer que A est commutative, on va montrer que tout élément A ∈ A
commute avec tout projecteur B ∈ A, ce qui permettra de conclure avec le résultat
de la question précédente.

208
Algèbre linéaire

Un projecteur B ∈ A vérifie B 2 = B. On calcule alors :

(BAB − BA)2 = BABBAB − BABBA − BABAB + BABA


= BABAB − BABA − BABAB + BABA
= 0.

Par suite, BAB − BA est nilpotent. De plus, BAB − BA ∈ A. Ainsi, BAB = BA


car A est réduite. Un calcul similaire fournit (BAB − AB)2 = 0, puis BAB = AB.
On obtient finalement AB = BA.
Pour B ∈ A quelconque, on écrit B comme combinaison linéaire finie de projecteurs
de A, ce qui est possible par la question précédente, et on aboutit au même résultat.
La sous-algèbre A est bien commutative.
d) La conclusion est le fruit du critère classique de codiagonalisabilité suivant :

Soient k un corps, E un k-espace vectoriel de dimension finie n ∈


N∗ , et (fi )i∈I une famille d’endomorphismes diagonalisables de E
commutant deux à deux. Alors les fi sont codiagonalisables.

En résumé, on sait d’après la question b) que les éléments de A sont diagonalisables,


et d’après la question c) qu’ils commutent deux à deux. Par conséquent, les
éléments de A sont codiagonalisables.

Commentaires.
© La démonstration du critère de codiagonalisabilité ci-avant doit être connue.
Décrivons-la.
Procédons par récurrence sur la dimension n ∈ N∗ . Pour n = 1, le résultat
est immédiat. Supposons que n > 2 et que la propriété est vraie en dimension
strictement inférieure à n. On distingue deux cas :
Cas 1 : les fi sont tous des homothéties. Le résultat est alors direct.
Cas 2 : il existe i0 ∈ I tel que fi0 n’est pas une homothétie. Soient λ1 , . . . , λr ∈ C
ses valeurs propres distinctes. Comme fi0 est diagonalisable, on a
r
M
E= Eλk (fi0 ).
k=1

Fixons k ∈ J1, rK. Le sous-espace propre Eλk (fi0 ) est stable par fi0 et par
tous les fi , i 6= i0 , car ils commutent tous avec fi0 . Pour chaque i ∈ I, notons
alors gk,i l’endomorphisme induit par fi sur Eλk (fi0 ). Les endomorphismes
gk,i sont diagonalisables et commutent deux à deux ; de plus, dim Eλk (fi0 ) < n
(car fi0 n’est pas une homothétie). Par hypothèse de récurrence, les gk,i sont
donc codiagonalisables, autrement dit il existe une base Bk de Eλk (fi0 ) dans
laquelle les matrices des gk,i sont toutes diagonales. La base B de E obtenue
en concaténant les bases Bk des Eλk (fi0 ) est alors une base de diagonalisation
simultanée des endomorphismes fi , ce qui achève la preuve.

209
38. Sous-algèbres réduites de Mn (C)

© On notera que réciproquement, si (fi )i∈I est une famille d’endomorphismes


codiagonalisables de E, alors ils commutent deux à deux par commutativité
des matrices diagonales. De même, si A est une sous-algèbre de Mn (C) formée
d’éléments codiagonalisables, alors elle est commutative, mais également réduite
dans la mesure où la seule matrice diagonalisable nilpotente est la matrice nulle.
© Soit A ∈ Mn (C). Le développement ci-avant, appliqué à la sous-algèbre C[A]
des polynômes en A, nous apprend que cette dernière est réduite si et seulement
si A est diagonalisable. L’implication directe est claire. D’autre part, si A est
diagonalisable, et si Q(A) ∈ C[A] est nilpotent, comme Q(A) est également
diagonalisable, alors Q(A) = 0. Toutefois, dans ce cas particulier, il suffit de
reprendre la démonstration précédente en montrant seulement que les éléments
de C[A] sont diagonalisables, sachant que C[A] est commutative.
© La question c)(ii) n’est pas particulièrement intuitive. Montrer que AB = BA,
avec B un projecteur, autrement dit que AB − BA = 0, revient à montrer que
cette égalité est vraie lorsqu’on compose à gauche et à droite par le projecteur B.
On s’intéresse donc aux éléments BAB − AB et BAB − BA, qui n’ont pas de
raison d’être nuls ; c’est alors qu’intervient l’hypothèse selon laquelle A est réduite.
Par ailleurs, un seul des deux calculs suffit : en effet, une fois qu’on a obtenu
(BAB − AB)2 = 0 d’où l’on déduit BAB − BA = B(AB − BA) = 0, on peut
remarquer que le polynôme caractéristique de (AB − BA)B est égal à celui
de B(AB − BA), soit (−X)n ; ainsi, (AB − BA)B est également nilpotent d’après
le théorème de Cayley-Hamilton, donc nul.
© Le résultat est faux dans Mn (R), simplement du fait que les matrices sont
diagonalisables sur C mais pas forcément sur R ; malgré tout, toute sous-algèbre
réduite de Mn (R) est commutative. Pour obtenir la codiagonalisabilité sur R,
on doit rajouter l’hypothèse selon laquelle les éléments de la sous-algèbre sont
diagonalisables sur R (ce qui revient à dire que leurs valeurs propres sont réelles).
! !
1 0 0 1
© Les matrices et de M2 (C) ont leur polynôme caractéristique
0 0 1 0
scindé à racines simples donc sont diagonalisables. Toutefois, elles ne commutent
pas, donc elles ne sont pas codiagonalisables. Ceci fournit un contre-exemple
au critère de codiagonalisabilité lorsque l’hypothèse de commutativité n’est pas
vérifiée.

Questions.
1. Soient A, M ∈ Mn (C) telles que M est nilpotente et AM = M A. Justifier
que AM est également nilpotente.
2. Justifier les égalités écrites à la question c)(i) :
r
X r
X
A= Api = λi pi ,
i=1 i=1

où A ∈ Mn (C) est une matrice diagonalisable de valeurs propres λ1 , . . . , λr ∈ C,


et pour tout i ∈ J1, rK, pi est la projection sur le sous-espace propre Eλi (A)
L
parallèlement à j6=i Eλj (A).

210
Algèbre linéaire

3. Soient λ1 , . . . , λn ∈ C deux à deux distincts, et µ1 , . . . , µn ∈ C. Montrer qu’il


existe un unique polynôme L de degré strictement inférieur à n tel que L(λi ) = µi ,
pour tout i ∈ J1, nK. Donner une expression de L en fonction des λi et µi .
4. Soit A ∈ Mn (C) non diagonalisable. Construire explicitement un élément
nilpotent non nul de C[A].
5. Étant donnée une matrice A ∈ Mn (C), comment calculer le polynôme P ,
introduit dans la correction de la question b) sans calculer ses valeurs propres ?
6. Soit A une sous-algèbre de Mn (C) unitaire (c’est-à-dire contenant In ) et réduite.
On suppose que A contient une matrice A possédant n valeurs propres deux à
deux distinctes. Montrer que A = C[A]. Qu’en est-il si A n’est pas unitaire ?
7. Exhiber A, B ∈ Mn (C) avec B un projecteur et ne commutant pas.
8. Soient k un corps, E un k-espace vectoriel de dimension finie n ∈ N∗ , et (fi )i∈I
une famille d’endomorphismes trigonalisables de E. Montrer que si les fi com-
mutent deux à deux, alors ils sont cotrigonalisables. La réciproque est-elle vraie ?
9. Montrer que toute représentation irréductible d’un groupe abélien fini est de
dimension 1.
10. Soit k un corps de caractéristique différente de 2. Soient m, n ∈ N∗ . Montrer
que GLm (k) est isomorphe à GLn (k) si et seulement si m = n.
Indication : établir que le cardinal maximal d’un sous-groupe de GLn (k) constitué
de symétries (c’est-à-dire d’éléments d’ordre 2) est 2n .
Remarque : on peut montrer que le résultat reste vrai si k est de caractéristique 2
comme conséquence du théorème de Lie-Kolchin. On peut même montrer que,
pour deux corps k et ` et deux entiers m, n ≥ 2, si GLn (k) est isomorphe à GLm (`)
alors m = n et k et ` ont la même caractéristique. Ils sont même isomorphes par
un théorème de Schreier et Van der Waerden (voir [SvdW28]).
11. Montrer que GL1 (Q) est isomorphe à GL1 (F3 (X)).
Indication : décrire Q× et F3 (X)× en termes des irréductibles de Z et F3 [X].

211
39. Théorème d’Engel

Développement 39 (Théorème d’Engel FFF)

Soit F un corps commutatif et V un F -espace vectoriel de dimension finie


non nulle. On considère End(V ) comme une algèbre de Lie (voir définition en
commentaires) munie du crochet de Lie [u, v] = u ◦ v − v ◦ u. On rappelle que
la représentation adjointe est définie par ad(u) = [u, ·] pour tout u ∈ End(V ).
a) Soit L une sous-algèbre non-nulle de End(V ) constituée d’endomorphismes
nilpotents.
(i) Montrer que si x ∈ End(V ) est nilpotent, alors ad(x) est nilpotent.
(ii) Soit K une sous-algèbre propre de L. On suppose qu’il existe x ∈ L/K
non nul tel que ad(K)x = {0}. Montrer que le normalisateur NL (K)
de K dans L contient strictement K.
(iii) Déduire qu’une sous-algèbre propre maximale est un idéal de codimen-
sion 1 dans L.
(iv) Prouver le résultat suivant :
(?) Une sous-algèbre de Lie L de End(V ) constituée d’endomor-
phismes nilpotents admet un vecteur propre commun ; autrement
dit il existe v ∈ V \{0} tel que Lv = {0}.
b) Soit L une algèbre de Lie non nulle. Un élément x ∈ L est dit
ad-nilpotent si ad(x) est un endomorphisme nilpotent de L. On intro-
duit Z(L) = {x ∈ L : [x, L] = 0} le centre de L.
(i) Montrer que si L/Z(L) est nilpotente, alors L est nilpotente.
(ii) Montrer que Z(L) 6= 0.
(iii) En déduire le théorème d’Engel :
Si tous les éléments de L sont ad-nilpotents, alors L est nilpotente.

Leçons concernées : 151, 154, 157

Les algèbres de Lie considérées interviennent principalement comme espaces d’en-


domorphismes munis du « crochet » défini par [x, y] = x◦y−y◦x. La connaissances
à avoir concernant les algèbres de Lie sont sommaires et se réduisent à des défini-
tions, qui peuvent avoir leur place dans une petite sous-partie du plan. Ce sont
essentiellement les définitions usuelles pour les algèbres, le produit étant remplacé
par le crochet de Lie.
Ce développement traite en premier lieu d’un résultat concernant les algèbres de
Lie, mais il ne faut pas laisser l’enrobage masquer l’essence : la représentation
adjointe d’une algèbre de Lie est un moyen de se ramener à des endomorphismes.
Ici, le résultat se réduit à une question de réduction simultanée : l’existence d’un
vecteur propre commun à une famille d’endomorphismes. Une motivation pour
ce résultat est la suivante : si une algèbre de Lie est nilpotente, alors tous ses
éléments sont ad-nilpotents (c’est l’objet de la question a)(i)) ; le théorème d’Engel
consiste en la réciproque de ce fait.

212
Algèbre linéaire

La preuve utilise des résultats intermédiaires sur les endomorphismes nilpotents


intéressants en eux-mêmes, tout en illustrant des raisonnements typiques de la
théorie des anneaux et des idéaux. L’un des arguments principaux est la récurrence
sur la dimension et l’outil central est la notion d’espace quotient, permettant de
conserver la structure tout en imposant des relations aux éléments considérés, telles
« appartenir à K » ou « être central ». Cela en fait un développement très adapté
dans les leçons d’algèbre linéaire (151, 157), et fondamentalement basé sur le
résultat de réduction simultanée prouvé à la question a)(iv), en faisant un dévelop-
pement original et pertinent pour les leçons sur la réduction des endomorphismes
non nécessairement diagonalisables (154).

Correction.
a) (i) Soit x ∈ End(V ) nilpotent. Considérons les deux endomorphismes de
translation à droite et à gauche, respectivement définis par

ρx : y ∈ End(V ) 7−→ y ◦ x et λx : y ∈ End(V ) 7−→ x ◦ y.

Puisque x est nilpotent, il en va de même pour les endomorphismes λx et ρx . En


effet, pour tout k ∈ N et tous x, y ∈ V , on vérifie aisément par récurrence que
l’on a λkx (y) = xk ◦ y et ρkx (y) = y ◦ xk . De plus, λx et ρx commutent, de sorte que
ad(x) = λx − ρx est également nilpotent.
(ii) Rappelons que le normalisateur NL (K) est défini comme l’ensemble

NL (K) = {x ∈ L : [x, K] ⊆ K}. (1)

L’algèbre K est constituée d’endomorphismes nilpotents de End(V ) par hypothèse


donc, par la question précédente, l’ensemble ad(K) est une algèbre d’endomor-
phismes nilpotents de L, donc également de L/K. Dire que ad(K)x = {0} dans
L/K signifie que pour tout y ∈ K, on a ad(y)x ∈ K, c’est-à-dire [y, x] ∈ K.
Cela signifie que x ∈ NL (K). En particulier, puisque (le projeté par l’application
canonique L → L/K de) x n’est pas nul dans L/K, on a x ∈ / K, de sorte que le
normalisateur NL (K) de K dans L contient strictement K.
(iii) Soit K une sous-algèbre propre maximale de L. Ce qui précède implique
que NL (K) = L, autrement dit K est un idéal de L. Si la dimension de L/K était
supérieure à 1, alors l’image réciproque par la projection L → L/K d’une sous-
algèbre de dimension 1 de L/K serait une sous-algèbre propre de L contenant K,
ce qui est contraire à l’hypothèse de maximalité. Ainsi, L/K est de dimension 1,
autrement dit il existe un z ∈ L\K tel que L = K + F z.
(iv) On raisonne par récurrence sur la dimension de L pour prouver la pro-
priété (?). L’initialisation est le cas de la dimension nulle ou de la dimension
un et est immédiate. Supposons alors la propriété (?) vraie pour les algèbres de
Lie linéaires de dimension au plus n > 1, i.e. les sous-algèbres de Lie de Mn (F ).
Soit L une sous-algèbre de Lie de End(V ) de dimension n + 1 constituée d’en-
domorphismes nilpotents. Soit K une sous-algèbre propre maximale de L ; en
particulier K est constituée d’endomorphismes nilpotents. Puisque K est une

213
39. Théorème d’Engel

sous-algèbre stricte de L, on a dim(K) 6 n. On peut donc appliquer l’hypothèse


de récurrence à K : il existe un vecteur v annulé par tous les éléments de K,
autrement dit l’espace W = {v ∈ V : Kv = 0} est non nul. Montrons alors
que W est stable par L. Puisque K est un idéal par la question a)(iii) on a, pour
tous x ∈ L, y ∈ K et w ∈ W ,

(y ◦ x)w = (x ◦ y)w − [x, y] w = 0. (2)


| {z } | {z }
=0 ∈K

Soit z ∈ L tel que L = K + F z, qui existe par la question a)(iii). L’élément z


induit un endomorphisme nilpotent sur W , comme tous les endomorphismes de L.
Comme tout endomorphisme nilpotent, il admet un élément non trivial dans son
noyau, notons-le v ∈ W . Puisqu’il est dans W , on en déduit que Kv = 0. De plus,
on a zv = 0 par définition, donc Lv = 0 achevant la récurrence.
b) Rappelons la définition d’une algèbre de Lie nilpotente. La série centrale
descendante est définie par L0 = L et Lk+1 = [L, Lk ] pour tout k > 0. L’algèbre
de Lie L est dite nilpotente si Lk = 0 pour un certain entier k > 0.
(i) Supposons que L/Z(L) est nilpotente. Cela signifie qu’il existe k ∈ N tel
que Lk ⊂ Z(L). Alors Lk+1 = [L, Lk ] ⊂ [L, Z(L)] = 0 par définition du centre.
Ainsi L est également nilpotente.
(ii) Puisque L est une algèbre de Lie dont tous les éléments sont ad-nilpotents, son
image par la représentation adjointe ad(L) est une sous-algèbre de Lie de End(L)
constituée d’endomorphismes nilpotents. Le résultat de la question a) prouve
alors qu’il existe un vecteur non nul x ∈ L tel que ad(L)x = 0. Cela signifie que x
est dans le centre Z(L) de L, en particulier Z(L) 6= 0.
(iii) Raisonnons par récurrence sur la dimension de L, les cas des dimensions 0 et 1
étant immédiats. Soit n ∈ N. Supposons que toute algèbre de Lie de dimension au
plus n et constituée d’éléments ad-nilpotents est nilpotente. Soit L une telle algèbre
de Lie de dimension n + 1. Puisque Z(L) 6= 0 est une sous-algèbre de Lie de L, on
peut considérer L/Z(L). Il s’agit d’une algèbre de Lie constituée d’éléments ad-
nilpotents, comme L. De plus la dimension de L/Z(L) est strictement inférieure
à celle de L, donc de dimension au plus n. L’hypothèse de récurrence assure
donc que L/Z(L) est nilpotente. Par la question b)(i), cela implique que L est
nilpotente, terminant la récurrence.

Commentaires.
© Une algèbre de Lie est simplement un espace vectoriel muni d’un crochet de
Lie. Un crochet de Lie [x, y] sur L est une application bilinéaire alternée de L qui
satisfait l’identité de Jacobi

∀x, y, z ∈ L, [x, [y, z]] + [y, [z, x]] + [z, [x, y]] = 0.

Les notions usuelles sur les algèbres, tels les idéaux ou le centre, s’étendent alors
aux algèbres de Lie en remplaçant le produit par ce crochet de Lie.

214
Algèbre linéaire

© Le formalisme des algèbres de Lie nécessaire pour ce développement peut


s’arrêter essentiellement à la définition ci-avant, qui ne considère que des sous-
algèbres de Lie linéaires, c’est-à-dire des sous-algèbres de End(V ). Pour deux
endomorphismes u et v d’un espace vectoriel V , le crochet de Lie est défini par
[u, v] = u ◦ v − v ◦ u.

Ces algèbres de Lie sont qualifiées de linéaires. Ce développement considère des


propriétés relatives à la représentation adjointe ad : x 7→ ad(x) = [x, ·] qui permet
de voir toute algèbre de Lie L comme une sous-algèbre ad(L) de l’algèbre de Lie
linéaire End(V ).
© Une pratique usuelle est de noter uv pour la composition u ◦ v et ux pour
l’image u(x). Nous recommandons de ne l’utiliser que lorsque le candidat est très
à l’aise avec le développement et les objets considérés : il faut faire attention à
déclarer l’usage de cette convention lors du développement et ne pas perdre de vue
la signification de la notation. Il est important de garder en tête que ce produit
est parfois le crochet de Lie, parfois la composition.
© Dire qu’une algèbre de Lie L est nilpotente signifie que les crochets succes-
sifs Ln s’annulent à partir d’un certain rang, i.e. que pour tout (xi )i ∈ Ln , la
composition des adjoints ad(x1 ) ◦ · · · ◦ ad(xn ) est nulle pour un certain n > 0. Bien
évidemment cela implique que ad(x)n est nul pour tout x ∈ L, donc que ad(x) est
un endomorphisme nilpotent, autrement dit que L est ad-nilpotente. Le théorème
d’Engel constitue la réciproque de ce fait.
© Une des motivations pour les algèbres de Lie provient de la géométrie diffé-
rentielle. Un groupe de Lie G est un groupe topologique muni d’une structure
de variété différentielle. Comme tout groupe topologique, les propriétés locales
peuvent se ramener par translation à une étude au voisinage de l’identité (voir par
exemple le Développement 53). L’algèbre de Lie g associée à G est essentiellement
définie comme l’espace tangent à G en l’identité, et le crochet peut également être
interprété en termes différentiels. Un résultat important énonce que toute algèbre
de Lie réelle de dimension finie peut être construite de cette manière, établissant
une correspondance entre algèbres de Lie et groupes de Lie (voir Développement 55
pour une preuve de ce résultat et des commentaires).
Dans le cas des matrices, la construction précédente peut être traduite en des
termes plus élémentaires. Si G est un sous-groupe fermé de GL(n, C) — c’est alors
un groupe de Lie — alors son algèbre de Lie est donnée par la formule
g = {g ∈ Mn (C) : ∀t ∈ R, exp(tg) ∈ G} . (3)

Pour se rassurer quant à la remarque précédente concernant les algèbres de Lie


définies comme plans tangents en l’identité, rappelons que les sous-groupes à un
paramètre de G, autrement dit les courbes sur G, sont de la forme t 7→ exp(tg)
pour g ∈ Mn (C). La dérivée en l’origine est alors la matrice g, justifiant que
l’algèbre de Lie est bien l’ensemble des dérivées en l’identité des courbes sur G,
autrement dit le plan tangent. Pour les détails complets de la théorie ainsi que le
rapport avec les cadres connus, voir [Hum80].

215
39. Théorème d’Engel

Questions.
1. Si L est nilpotente, montrer que tous ses éléments sont ad-nilpotents.
2. Comment justifier l’existence de l’algèbre propre maximale considérée à la
question a)(iii) ?
3. Justifier que, pour une sous-algèbre propre maximale K de L, on a NL (K) = L.
4. Si deux éléments nilpotents x et y d’une algèbre commutent, montrer que toute
combinaison linéaire est nilpotente.
5. Quelles sont les algèbres de Lie de dimension 2 ?
6. Montrer que la représentation adjointe

ad : L −→ GL(L)
x 7−→ ad(x) = [x, ·]

est une représentation de L.


7. Le théorème d’Engel reste-t-il valide en dimension infinie ?
8. Soit L nilpotente et K un idéal non nul de L. Prouver que K ∩ Z(L) 6= 0.

216
Formes quadratiques et géométrie

Les formes quadratiques, sous-jacentes à la définition des coniques introduites dès


l’Antiquité, ont été étudiées formellement à partir de Fermat en tant qu’objets
naturellement attachés à des équations diophantiennes, laissant transparaître des
interconnexions profondes entre arithmétique et géométrie. Nombre de difficultés
techniques émergent de ce cadre pourtant élémentaire.
À la fin du XIXe siècle, on constate qu’il est plus aisé de résoudre des équations
à coefficients dans un corps que dans un anneau d’entiers. Ainsi, l’étude des
équations diophantiennes se fait d’abord dans le corps des fractions associé. Ces
raisons poussent Minkowski (Développements 46, 48) à développer une théorie
générale des formes quadratiques dans les années 1880, qui s’étoffe jusqu’à culminer
avec Hasse et son étonnant principe local-global : une forme quadratique admet
un zéro dans Q si et seulement si elle admet des zéros « locaux » dans chaque
complété R, Q2 , Q3 , etc.
Le début du XXe siècle voit fleurir l’algèbre abstraite comme un langage unifiant
de nombreux pans des mathématiques, ce qui motive de nombreux travaux sur les
formes quadratiques sur les corps généraux. Les formes quadratiques deviennent
alors un objet d’étude à part entière, qui revêt de nombreux aspects équivalents :
matrices définies positives (Dév. 47), formes quadratiques associées à une forme
polaire, termes quadratiques dans la formule de Taylor, polynômes homogènes de
degré deux, équations de quadriques géométriques, etc. Leur structure est bien
connue : les formes quadratiques archimédiennes (sur R ou C) sont classifiées
par leur signature, celles sur les corps finis de caractéristique différente de 2 sont
classifiées par leur déterminant et la dimension de l’espace, celles sur les corps p-
adiques Qp sont classifiées par leur discriminant et un certain invariant (de Hasse).
Le cas de Q est plus profond et est l’objet du théorème de Hasse-Minkowski :
deux formes quadratiques sont équivalentes sur Q si et seulement si elles sont
équivalentes sur R et sur les Qp .
Le développement de nouveaux domaines mathématiques permet ainsi de jeter
sur la géométrie euclidienne et élémentaire un regard nouveau. Les techniques
analytiques reposant sur les coordonnées cartésiennes ou complexes apparaissent
comme un outil puissant pour aborder des problèmes de géométrie (Dév. 40, 41).
L’évolution de l’algèbre linéaire permet quant à elle de classifier les sous-groupes
d’isométries d’un espace donné (Dév. 43), et la théorie des groupes fournit de
nombreux outils combinatoires permettant d’aborder des problèmes structurels non
triviaux, tels que l’existence et la classification des solides platoniciens (Dév. 45).
Formes quadratiques et géométrie

Développement 40 (Billard circulaire F)

On considère un billard circulaire identifié au disque unité du plan complexe


orienté. Le bord du billard correspond donc au cercle C0 de centre O (d’affixe 0)
et de rayon 1, image dans le plan de l’ensemble U des nombres complexes de
module 1.
On tire une boule supposée ponctuelle à partir du point M0 d’affixe z0 = 1. La
boule rebondit en suivant la loi de Snell-Descartes, c’est-à-dire que lorsque la
boule touche un point du bord du billard, l’angle d’incidence de la trajectoire
de la boule par rapport à la normale à C0 en ce point est égal à l’opposé de
son angle de réflexion (voir Figure 1.6). Pour tout k ∈ N∗ , on note Mk le
k-ième point de rebond de la boule sur C0 et on note zk ∈ U son affixe.

M1

M2

θ θ α
M0
O

M3

M4

Figure 1.6 – Trajectoire polygonale de la boule.

a) Montrer qu’il existe θ ∈ ]0, 2π[ tel que zk = eikθ pour tout k ∈ N.
On considère à présent la trajectoire « complétée » de la boule dans le plan,
prolongée pour des temps négatifs en utilisant la loi de Snell-Descartes. Les
points de rebond de la boule sur le bord du billard sont encore notés Mk pour
tout k ∈ Z et ont pour affixes les zk = eikθ . On pose alors
n o
I := {zk : k ∈ Z} = eikθ : k ∈ Z .

b) Montrer que I est l’ensemble des racines m-ièmes de l’unité pour un certain
entier m ∈ N∗ ou est dense dans U.
c) Montrer qu’il existe un unique cercle C de centre O et de rayon ρ < 1,
appelé cercle caustique, tel que chaque segment [Mk Mk+1 ] de la trajectoire
de la boule soit tangent à C.

Leçons concernées : 102, 108, 191

219
40. Billard circulaire

Le développement présenté ici utilise les propriétés topologiques des sous-groupes


du groupe U des nombres complexes de module 1 qui fait l’objet de la leçon 102. Ces
propriétés sont déduites de celles des sous-groupes additifs de R, dont l’étude en
fonction de leurs générateurs illustre parfaitement la leçon 108. Par son utilisation
de techniques d’algèbre pour résoudre un problème de géométrie, ce développement
trouve enfin pleinement sa place dans la leçon 191.

Correction.
−−−→ −−−−→
a) Soit α ∈ − π2 , π2 une mesure de l’angle orienté (M0 O, M0 M1 ) (voir la Fi-
 

gure 1.6). Pour tout k ∈ N, le triangle OMk Mk+1 est isocèle en O, on en tire que
−−−→ −−−−−−→ −−−−−−→ −−−−→
l’angle (Mk O, Mk Mk+1 ) et l’angle (Mk+1 Mk , Mk+1 O) ont même mesure, et la
−−−−→ −−−−−−−→
loi de Snell-Descartes assure que ce dernier est aussi égal à (Mk+1 O, Mk+1 Mk+2 ),
si bien que l’on a :
−−−→ −−−−−−→ −−−−→ −−−−−−−→
(Mk O, Mk Mk+1 ) = (Mk+1 O, Mk+1 Mk+2 ).
−−−→ −−−−−−→
Pour tout k ∈ N, l’angle orienté (Mk O, Mk Mk+1 ) est donc de mesure α, donc
−−−→ −−−−→
l’angle (OMk , OMk+1 ) a pour mesure θ := π + 2α ∈ ]0, 2π[. On en déduit la
relation zk+1 = eiθ zk pour tout k ∈ N. Finalement, comme z0 = 1, une récurrence
immédiate donne
∀k ∈ N, zk = eikθ .
b) Introduisons le morphisme de groupes continu et surjectif
Γ : (R, +) −→ (U, ×)
x 7−→ eix .
Si x ∈ R on a x ∈ Γ−1 (I) si et seulement si eix = eikθ pour un certain k ∈ Z,
c’est-à-dire si et seulement si x ∈ θZ + 2πZ. La surjectivité de Γ donne par ailleurs
l’égalité I = Γ(Γ−1 (I)), si bien que
I = Γ(θZ + 2πZ). (1)
L’ensemble θZ + 2πZ est un sous-groupe additif de R, donc est de la forme aZ
avec a > 0 ou bien dense dans R. On va voir que le premier cas se produit lorsque
θ
l’angle θ vérifie 2π ∈ Q∗ , et le deuxième lorsque 2π
θ

/ Q.
• Supposons pour commencer que θ
2π ∈ Q∗ . Il existe alors n ∈ Z∗ et m ∈ N∗
θ n
premiers entre eux tels que 2π = m. On a donc :
θ n 2π
   
θZ + 2πZ = 2π Z + Z = 2π Z+Z = (nZ + mZ). (2)
2π m m
Or n et m sont premiers entre eux, donc le théorème de Bézout permet
d’affirmer que 1 ∈ nZ + mZ, si bien que Z = nZ + mZ. L’équation (2) s’écrit
alors θZ + 2πZ = 2πm Z. Par suite :

 n 2kπ o
I = Γ(θZ + 2πZ) = Γ Z = ei m : k ∈ Z
m
d’après la relation (1), donc I est l’ensemble des racines m-ièmes de l’unité
et la trajectoire de la boule a l’allure de celle représentée sur la Figure 1.6,
c’est-à-dire celle d’un polygone régulier à m côtés.
220
Formes quadratiques et géométrie

θ
• À présent, étudions le cas où 2π ∈
/ Q. Si l’on a θZ + 2πZ = aZ pour un
certain a > 0, alors il existe n ∈ Z∗ tel que θ = an (puisque θ ∈ θZ + 2πZ)
et il existe m ∈ Z∗ tel que 2π = am (puisque 2π ∈ θZ + 2πZ), et donc on
θ n
aurait 2π = m ∈ Q, ce qui est exclu. La partie θZ + 2πZ est donc dense
dans R, et il en résulte que I = Γ(θZ + 2πZ) est dense dans U en vertu de la
surjectivité et de la continuité de Γ. La trajectoire de la boule a alors une
apparence proche de celle représentée sur la Figure 1.7.
M−3 M1 M5
M9
M13

M10
M6
M2
M0
M−2 O
M4
M8
M12

M11
M7 M M
3 −1

Figure 1.7 – Cas dense.

c) Supposons qu’il existe ρ > 0 tel que chaque corde [Mk Mk+1 ] soit tangente au
cercle de centre O et de rayon ρ. Alors, pour tout k ∈ Z, le rayon ρ est égal à la
distance de O au segment [Mk Mk+1 ].

M1

ρ
α M0
O

M2

Figure 1.8 – Détermination du rayon du cercle caustique.

221
40. Billard circulaire

On déduit de la Figure 1.8 que ρ = |sin(α)|, où l’angle α a été défini au début de


la correction. Réciproquement, le fait que les triangles OMk Mk+1 peuvent être
obtenus les uns à partir des autres par une rotation de centre O permet de voir
que tous les segments de la trajectoire sont tangents au cercle de centre O et de
rayon ρ = |sin(α)| puisque [M0 M1 ] l’est.
La Figure 1.9 représente le cercle caustique obtenu pour différentes valeurs de θ.

θ = 88◦ θ = 61◦ θ = 121◦

Figure 1.9 – Cercles caustiques pour différentes valeurs de θ.

Commentaires.
© Compte tenu de l’interprétation pratique du problème, une question naturelle
est celle de la forme de l’ensemble

I 0 := {zk : k ∈ N} = {eikθ : k ∈ N} = Γ(θN + 2πZ)

des affixes des points de rebond de la boule sur le bord du billard, qui ne contient
pas les points zk pour k ∈ Z∗− qui correspondent à des « temps négatifs ». Le
problème ne se pose alors plus en termes de sous-groupes additifs de R, mais les
résultats démontrés dans ce développement sont encore valables grâce au même
raisonnement que plus haut et à la proposition ci-après, que nous démontrons
dans le commentaire suivant :
Si A est une partie stable par somme de R contenant un élément
strictement positif et un élément strictement négatif, alors A est de la
forme aZ pour un certain a > 0 ou est dense dans R.

La preuve présentée dans la question b) s’adapte alors mutatis mutandis en


remplaçant θZ + 2πZ par θN + 2πZ. L’unique subtilité réside dans le fait que
si les entiers n et m sont premiers entre eux, alors on a toujours nN + mZ = Z.
Pour démontrer ce fait, on écrit comme dans la preuve de la question b) que
nZ + mZ = Z. Si k ∈ N, il existe donc des entiers p, q ∈ Z tels que k = np + mq,
mais on peut aussi écrire pour tout ` ∈ Z :

k = n(p + m`) + m(q − n`)

222
Formes quadratiques et géométrie

et il suffit alors de choisir ` tel que p + m` ∈ N pour voir que k ∈ nN + mZ. On a


donc bien nN + mZ = Z.
© Démontrons la propriété sur les parties de R stables par somme énoncée dans
le commentaire précédent. Soit A une partie de R stable par somme et contenant
un élément strictement positif et un élément strictement négatif.
On note s = sup A ∩ R∗− et m = inf A ∩ R∗+ . On montre tout d’abord s + m = 0.
Supposons que cela ne soit pas le cas et que l’on ait par exemple ε := s + m > 0,
le cas s + m < 0 se traitant de façon parfaitement symétrique. Si (sn )n∈N est une
suite d’éléments strictement négatifs de A tendant vers s et (mn )n∈N est une suite
d’éléments strictement positifs de A tendant vers m, alors il existe n0 ∈ N tel que

∀n > n0 , ∀p > n0 , sn + mp > 0,

et donc
∀n > n0 , ∀p > n0 , sn + mp > m.
En faisant tendre p vers +∞ dans la relation ci-avant, on obtient

∀n > n0 , sn + m > m,

ce qui est absurde puisque sn < 0 pour tout n ∈ N. On a donc bien s + m = 0.


On distingue alors deux cas :
• Si m = s = 0, alors pour tout ε > 0 il existe x ∈] − ε, 0[ ∩ A et y ∈ ]0, ε[ ∩ A, et
xN ∪ yN est alors une partie de A dont l’intersection avec tout intervalle de R de
longueur 2ε est non vide, ce qui montre que A est dense dans R.
• Supposons à présent que m > 0 (et donc s < 0). Le seul élément de A contenu
dans ]s, m[ est donc 0. Or les suites (sn )n∈N et (mn )n∈N définies plus haut vérifient
sn + mp ∈ A pour tout (n, p) ∈ N2 , et on sait qu’il existe N ∈ N tel que pour tout
n > N et tout p > N on ait sn + mp ∈]s, m[, et donc sn + mp = 0. On en déduit
que les suites (sn )n∈N et (mn )n∈N sont stationnaires à partir du rang N , et donc,
puisqu’elles sont à valeurs dans A, que leurs limites s et m sont dans A. Or A est
stable par somme, donc on a mZ ⊂ A. Par ailleurs, si x ∈ A \ mZ, en considérant
un entier n ∈ Z tel que nm < x < (n + 1)m on voit que x − nm est un élément
strictement positif de A strictement inférieur à m, ce qui contredit la définition
de m. On a donc A = mZ, ce qui clôt la preuve.

Questions.
1. Quelle est la trajectoire de la boule lorsque α = 0 ?
2. Détailler la preuve du fait que θ = π + 2α.
3. Γ|[0,2π[ est-il un homéomorphisme ?
4. Quelle est la longueur du segment [M0 M1 ] ?
5. Pourquoi la surjectivité de Γ permet-elle d’écrire Γ(Γ−1 (I)) = I ?
6. Expliquer pourquoi la surjectivité et la continuité de Γ permettent d’affirmer
que si A est une partie dense de R, alors Γ(A) est dense dans U.

223
40. Billard circulaire

7. Peut-on avoir I = U ?
8. Tout point du cercle caustique est-il tangent à un segment de la trajectoire de
la boule ?
θ
9. Dans le cas où 2π ∈
/ Q, montrer que l’ensemble des points adhérents à la
trajectoire de la boule est la couronne C = {z ∈ C : ρ 6 |z| 6 1}.
10. On suppose désormais que le billard est de forme carrée et on l’identifie au
pavé fermé [0, 1]2 . La boule est tirée depuis le point (0, 0) dans le même sens et la
même direction qu’un certain vecteur (a, b) ∈ R∗+ × R+ . On suppose que le rebond
de la boule obéit toujours aux lois de Snell-Descartes dès que le point d’impact
de la boule sur le bord du billard est différent des quatre sommets du carré (voir
Figure 1.10), et que la boule rebrousse chemin le long de sa trajectoire lorsqu’elle
touche l’un de ces sommets.

1
b
a

0 1

Figure 1.10 – Trajectoire de la boule dans un billard carré.

(a) Montrer qu’il existe une trajectoire périodique qui ne soit pas parallèle aux
côtés du carré.
(b) Montrer que si ab ∈ Q, alors la boule rejoint un coin du carré au bout d’un
certain temps.
Indication : on pourra faire un lien entre la trajectoire de la boule et la droite
d’équation y = ab x.
(c) Que devient le résultat de la question précédente si l’on tire la boule du point
(0, y) avec y ∈ [0, 1] ?
(d) Montrer que toutes les trajectoires périodiques comportent un nombre pair
de rebonds par période.
(e) Montrer que si ab ∈ Q, alors la boule rejoint un coin du carré au bout d’un
certain temps.
Indication : on pourra faire un lien entre la trajectoire de la boule et la droite
d’équation y = ab x.
(f) Montrer que si ab ∈
/ Q, alors l’ensemble des points de rebond de la boule est
une partie dense du bord du billard.
11. On suppose enfin que le billard a la forme d’un triangle dont les trois angles
sont aigus et que le rebond de la boule obéit aux même lois que précédemment.
Montrer qu’il existe une trajectoire périodique.

224
Formes quadratiques et géométrie

Développement 41 (Le plongeoir le plus long FF)

Soit (O, ~x, ~y , ~z) un repère orthonormé de l’espace euclidien. On dispose


de n > 1 briques parallélépipédiques de mêmes dimensions et de même
composition homogène. On cherche à déterminer la longueur maximale d’un
plongeoir constructible en empilant ces n briques les unes sur les autres selon
le profil suivant :

× Brique 4

× Brique 3

× Brique 2
~z
× Brique 1
~x x1 x2 x3 x4

On suppose le champ gravitationnel constant, de même direction et de même


sens que −~z. On numérote les briques constituant le plongeoir de 1 à n par
ordre d’altitude croissant et on note x1 , . . . , xn les abscisses des centres de
gravité des différentes briques dans le plan (O, ~x, ~z). On a donc

0 < `/2 = x1 6 · · · 6 xn ,

où ` est la longueur commune des briques.


a) On dit que le plongeoir est stable s’il tient en équilibre sans aucune fixation
sous l’effet du champ gravitationnel terrestre.
(i) Soit k ∈ J1, nK. Donner l’abscisse x en−k+1 du centre de gravité de l’en-
semble constitué par les briques n − k + 1, . . . , n (c’est-à-dire les k briques
supérieures) dans le plan (O, ~x, ~z) en fonction des xk .
(ii) Donner une condition nécessaire et suffisante pour que le plongeoir soit
stable.

On cherche à présent à montrer l’existence et l’unicité d’un plongeoir stable


à n briques de longueur maximale, dit plongeoir optimal, ainsi qu’à déterminer
explicitement les valeurs de xk associées.

225
41. Le plongeoir le plus long

b) On introduit les avancées successives yi définies par y1 = x1 et

∀k ∈ J2, nK , yk = xk − xk−1 .

(i) Montrer que les avancées successives d’un plongeoir stable vérifient
 n−1

 n−1 y2 + n−2 n−3
n−1 y3 + n−1 y4 + . . .
1
+ n−1 yn 6 `
2


n−2
y3 + n−3 1 `

n−2 y4 + . . . + n−2 yn 6


 n−2 2
.. (1)
.






 1 `

n−(n−1) yn 6 2

Montrer que la première contrainte de (1) est saturée, c’est-à-dire est


une égalité, dans le cas d’un plongeoir optimal.
(ii) Montrer que toutes les avancées sont strictement positives dans le cas
d’un plongeoir optimal.
(iii) Montrer que toutes les contraintes de (1) sont saturées dans le cas d’un
plongeoir optimal.
c) Montrer qu’il existe un unique plongeoir optimal et que sa longueur `∗n
vérifie, lorsque n tend vers l’infini :
`
`∗n ∼ ln n.
2

Leçons concernées : 162, 181, 219

Ce développement, librement adapté d’un exercice de [Ba16], repose sur l’expression


d’une condition d’optimalité sous la forme d’un système de Cramer, d’où son
utilisation dans les leçons 162 et 219. Il trouve aussi sa place dans la leçon 181
puisqu’il mobilise la notion de barycentre dans son acception physique première,
celle de centre de gravité d’un système pondéré.

Correction.
a) (i) Pour tout i ∈ J1, nK, on note Bi ∈ R3 le centre de gravité de la brique i :
comme la brique est homogène, Bi est l’isobarycentre de ses huit points extrémaux
(c’est-à-dire de ses « coins »). Toutes les briques sont identiques, donc pour tout
indice k ∈ J1, nK, le centre de gravité B en−k+1 de l’ensemble constitué par les k
briques supérieures n − k + 1, . . . , n est l’isobarycentre des centres de gravité de
chacune de ces briques. On en déduit
n
en−k+1 = 1
X
∀k ∈ J1, nK , B Bi ,
k i=n−k+1

226
Formes quadratiques et géométrie

d’où, en considérant les coordonnées selon ~x :


n
1 X
∀k ∈ J1, nK , x
en−k+1 = xi .
k i=n−k+1

(ii) Supposons tout d’abord que n = 2. Comme le montre la Figure 1.11, la


brique numéro 2 tient en équilibre sur la brique numéro 1 si et seulement si
son centre de gravité est au-dessus 8 (relativement à ~z) d’un point de la brique
numéro 1, c’est-à-dire, compte tenu de la disposition des briques, si
`
x2 6 x1 + ,
2
c’est-à-dire
`
e 2 6 x1 + .
x
2

` `

× ×
× ×
x1 x2 x1 x2
`
x1 + 2 x1 + 2`

Figure 1.11 – Illustration de la condition de stabilité d’un plongeoir à deux


briques : le plongeoir est stable dans le premier cas et instable dans le deuxième
(la brique 2 tombe).

Supposons à présent que n = 3. La troisième brique tient en équilibre sur la brique


numéro 2 si et seulement si
`
x3 6 x2 +
2
par le même raisonnement que précédemment, soit
`
x
e 3 6 x2 + .
2
Si cette condition est vérifiée, l’ensemble constitué des briques numéros 2 et 3 peut
être considéré comme solidaire et tient en équilibre sur la brique numéro 1 si et
seulement si son centre de gravité est au-dessus d’un point de la brique numéro 1,
c’est-à-dire si et seulement si
`
x
e 2 6 x1 + .
2
8. Dans le langage de la statique, cette idée traduit le fait que la projection verticale du centre
de gravité de la brique est située dans son polygone de sustentation.

227
41. Le plongeoir le plus long

×
x1 x2 x3 x
e3 x4
x
e4

Figure 1.12 – Plongeoir optimal : le centre de gravité de chaque sous-système est


aligné avec le bord de la brique qui le soutient.

La condition de stabilité dans le cas n = 3 s’écrit donc


 `
 x
e2 6 x1 + 2

`
x
e 3 6 x2 +

2

En raisonnant par récurrence on obtient que, pour tout n > 2, le plongeoir est
stable si et seulement si l’on a :

`



x
e2 6 x1 + 2

..




 .
`
(2)


 x
en−1 6 xn−2 + 2


 `
 x 6 xn−1 +

 en 2

b) On va montrer que le plongeoir est optimal si et seulement si le centre de


gravité de chaque sous-système de k briques supérieures (pour k ∈ J1, n − 1K) est
parfaitement aligné avec le bord de la brique n − k soutenant ce système 9 , comme
on l’a représenté sur la Figure 1.12.
(i) D’après la question a)(i), on peut réécrire (2) sous la forme
1 1 1 `


 −x1 + n−1 x2 + n−1 x3 + ... + n−1 xn 6 2


1 1 `



 −x2 + n−2 x3 + ... + n−2 xn 6 2
..
.






`

−xn−1 + xn 6

2

9. Cette propriété n’est pas si évidente qu’il n’y paraît. On serait tenté de dire que si le centre
de gravité d’un sous-système n’est pas en amont de la brique qui le soutient il suffit de le décaler
pour augmenter la longueur du plongeoir, mais cette opération changerait aussi l’emplacement
des centres de gravité des sous-systèmes de K briques supérieures avec K > k, au risque de faire
s’effondrer l’ensemble !

228
Formes quadratiques et géométrie

soit, en remarquant que xk = y1 + . . . + yk pour tout k ∈ J1, nK,


 n−1

 n−1 y2 + n−2 n−3
n−1 y3 + n−1 y4 + . . .
1
+ n−1 yn 6 `
2


 n−2 n−3 1 `


 n−2 y3 + n−2 y4 + . . . + n−2 yn 6 2
.. (1)
.






 1 `

n−(n−1) yn 6 2

On suppose désormais que (y2 , . . . , yn ) est une suite d’avancées associée à un


plongeoir optimal. La longueur totale du plongeoir est
n
` X `
`n = xn + = yi + .
2 i=1 2

Si la première contrainte du système (1) n’était pas saturée, il serait possible de


transformer l’avancée y2 en y2 + ε avec

` n−2 n−3 1
ε := − y3 − y4 − · · · − yn > 0
2 n−1 n−1 n−1
en gardant constantes les autres avancées tout en conservant un plongeoir stable,
ce qui revient à translater légèrement le sous-système constitué des n − 1 briques
supérieures vers la droite. Le plongeoir obtenu serait alors un plongeoir stable
à n briques dont la longueur serait égale à `n + ε > `n , ce qui est absurde. La
première contrainte de (1) est donc bien une égalité.
(ii) Raisonnons par l’absurde et supposons que l’une des avancées yi soit nulle.
Il existe alors un plongeoir optimal avec une première avancée nulle. En effet, dans
le cas où y2 = 0, il s’agit du plongeoir que nous sommes en train de considérer.
Sinon, notons i0 le plus petit i ∈ J3, nK tel que yi = 0. Le plongeoir obtenu
en retirant la brique i0 et en la plaçant entre la brique 1 et la brique 2 avec
une avancée nulle par rapport à la brique 1, c’est-à-dire le plongeoir associé aux
avancées
(y20 , . . . , yn0 ) := (0, y2 , . . . , yi0 −1 , yi0 +1 , . . . , yn ),
est un plongeoir stable optimal (puisque de longueur `n ) ayant une première
avancée nulle. On voit donc que dans tous les cas, il existe un plongeoir optimal
vérifiant y2 = 0.
Mais alors la deuxième ligne de (1) montre que pour un tel plongeoir, la première
contrainte de (1) n’est pas saturée. Ceci, comme on l’a vu dans la question b)(i),
amène une contradiction. On en déduit que toutes les avancées yi sont strictement
positives.
(iii) Le raisonnement heuristique est le suivant : si l’une des contraintes exprimées
dans le système (1) n’est pas saturée, on peut augmenter une avancée et diminuer
plus légèrement l’avancée précédente de façon à augmenter la longueur totale du
plongeoir tout en satisfaisant le système (1), ce qui aboutit à une contradiction.

229
41. Le plongeoir le plus long

Cette manœuvre est rendue possible par le fait que chaque avancée est plus
faiblement pondérée dans (1) que celle qui la précède.
Formalisons ce raisonnement. On note δ := mini∈J1,nK yi > 0. Si la dernière
ligne du système (1) n’est pas une égalité, en posant ε = min( 2` − yn , δ) > 0 et
yn0 = yn + ε ainsi que yn−1 0 = yn − 2ε , on vérifie 10 que les avancées successives
0 0
y1 , . . . , yn−2 , yn−1 , yn sont positives, vérifient (1) et sont associées à un plongeoir
de longueur `n + 2ε > `n . C’est impossible puisque le plongeoir est supposé optimal ;
la dernière ligne de (1) est donc nécessairement une égalité.
À présent, si l’avant-dernière ligne de (1) n’est pas une égalité, on obtient une
contradiction similaire en posant ε = min 2` − 21 yn − yn−1 , δ > 0 et en définissant

0
yn−1 = yn−1 + ε et yn−2 0 = yn−1 − 23 ε (ce qui donne un plongeoir stable de longueur
égale à `n + 3ε ). En raisonnant ainsi pour chaque ligne, on voit que toutes les
contraintes exprimées dans (1) sont des égalités.
On a donc montré que les avancées successives du plongeoir optimal vérifient
 n−1

 n−1 y2 + n−2 n−3
n−1 y3 + n−1 y4 + . . .
1
+ n−1 yn = `
2


n−2
y3 + n−3 1 `

n−2 y4 + . . . + n−2 yn =


 n−2 2
.. (3)
.






 1 `

n−(n−1) yn = 2

c) L’ensemble H des vecteurs (x1 , . . . , xn ) ∈ Rn correspondant aux abscisses


des n briques d’un plongeoir stable est donné par
`
 
H = (x1 , . . . , xn ) ∈ Rn : = x1 6 · · · 6 xn et (x1 , . . . , xn ) vérifie (2) .
2
C’est une partie fermée et bornée de Rn , donc un compact. La longueur du
plongeoir correspondant aux abscisses x1 , . . . , xn est égale à `/2 + xn . C’est donc
une fonction continue sur le compact H ; elle y admet alors un maximum, c’est-à-
dire qu’il existe un plongeoir optimal.
Or le système (3) se réécrit, grâce aux opérations Li ← (n − i)Li − (n − i − 1)Li+1
pour i ∈ J1, n − 2K, sous la forme

`



(n − 1)y2 = 2

`

 (n − 2)y3 =


2
..
.






 `
 yn = 2

d’où enfin :
`
∀i ∈ J2, nK , yi = .
2(n − i + 1)
10. En effet, un simple calcul montre d’une part que les termes de gauche des n − 2 premières
lignes de (1) sont les mêmes que lorsque les avancées successives sont y1 , . . . , yn , et d’autre part
que la dernière ligne de (1) est devenue une égalité.

230
Formes quadratiques et géométrie

On a donc, moyennant un changement d’indice de sommation :

k k
X X `
∀k ∈ J1, nK , xk = yi = y1 +
i=1 i=2
2(n − i + 1)
n−1
X `
= y1 +
i=n−k+1
2i
 
n−1
` X 1
.
= 1+
2 i=n−k+1
i

Ces relations caractérisent un unique plongeoir, qui est donc le plongeoir optimal
recherché. La longueur de ce plongeoir est égale à

n−1
!
` ` X1
`∗n = xn + = 2+ (4)
2 2 i=1
i

et correspond à un agencement dans lequel l’avancée entre la première et la


`
deuxième brique est égale à 2(n−1) , l’avancée entre la deuxième et la troisième
`
est égale à 2(n−2) , et ainsi de suite jusqu’à la n-ième brique, dont l’avancée par
`
rapport à la (n − 1)-ième doit être égale à 2 (voir Figure 1.12).
L’égalité (4) implique alors l’équivalence attendue :

`
`∗n ∼ ln n lorsque n → +∞.
2

Commentaires.

© La correction présentée ici contient de nombreux arguments heuristiques, que


l’on pourra se contenter de mentionner à l’oral ou d’écrire sous une forme très
condensée pour respecter la limite du temps alloué à la présentation :
• La question a)(i) peut être traitée de façon très succincte lorsque le dévelop-
pement n’est pas présenté dans le cadre de la leçon sur les barycentres.
• La question a)(ii) peut être exposée en présentant le principe de la condition
de stabilité sur le cas n = 2, puis en mentionnant oralement la récurrence.
• L’argument variationnel formel et délicat mobilisé dans la question b)(i)
mérite d’être détaillé, mais les arguments présentés dans les questions b)(ii)
et b)(iii) peuvent être survolés comme « procédant de la même logique ».
• Il est possible de ne pas détailler la résolution du système dans la question c),
pour peu, bien sûr, que l’on sache l’expliquer clairement en cas de demande
du jury.

231
41. Le plongeoir le plus long

© Le théorème de Kuhn-Tucker s’énonce comme suit :

Soient f et g1 , . . . , gm des fonctions de classe C 1 de Rn dans R, et


soit x∗ ∈ Rn maximisant la fonction f sous les contraintes gi (x∗ ) > 0
pour tout i ∈ J1, mK. Alors il existe λ1 , . . . , λm ∈ R+ tels que x∗ soit
un point critique de f + m i=1 λi gi et tels que pour tout i ∈ J1, mK on
P

ait λi = 0 ou gi (x∗ ) = 0.

On peut déduire directement du théorème de Kuhn-Tucker le résultat de la


question b)(iii). En effet, le problème étudié correspond au choix de
n
X `
f (y2 , . . . , yn ) = y1 + yi +
i=2
2

et des fonctions de contrainte


n
` X
∀i ∈ J2, nK , gi (y2 , . . . , yn ) = (n − i + 1) − (n − k + 1)yk
2 k=i

ainsi que
∀i ∈ J2, nK , gn−1+i (y2 , . . . , yn ) = yi .
2n−1
X
Le fait que la suite d’avancées (y2 , . . . , yn ) soit un point critique de f + λ i gi
i=2
se réécrit de la façon suivante :

k
X
∀k ∈ J2, nK , 1− (n − k + 1)λi + λn−1+k = 0.
i=2

Comme les contraintes yk > 0 ne sont pas saturées d’après la question b)(ii), les
coefficients λn−1+k sont nuls, si bien que l’on a

k
X 1
∀k ∈ J2, nK , λi = ,
i=2
n−k+1

d’où l’on déduit que tous les λi sont strictement positifs et donc que les contraintes
associées (c’est-à-dire les inégalités constituant le système (1)) sont saturées.
Remarque : les coefficients λi sont appelés multiplicateurs de Lagrange associés
au problème d’optimisation sous contrainte. Les conditions dites de relâchement
min(λi , gi (x∗ )) = 0 expriment le fait que le multiplicateur de Lagrange est nul
lorsque la contrainte gi (x) > 0 n’est pas saturée. On pourra se référer au chapitre 10
de [All12] pour plus d’informations sur l’optimisation sous contraintes, et aux
questions suivant le Développement 57 pour une interprétation des multiplicateurs
de Lagrange associés à une contrainte saturée.

232
Formes quadratiques et géométrie

Questions.
1. Comment définit-on un point extrémal d’une partie convexe de R3 ?
2. Comment définit-on le centre de gravité d’un solide quelconque de R3 ? Justifier
l’affirmation selon laquelle Bi est l’isobarycentre des points extrémaux de la brique
numéro i pour tout i ∈ J1, nK.
3. Détailler le passage du système (2) au système (1).
4. Détailler la récurrence qui clôt la réponse à la question a)(i).
5. Justifier que l’ensemble H introduit dans la question c) est une partie fermée
et bornée de Rn .
6. Montrer que la conclusion de l’exercice est toujours valable dans le cas où
les xi ne sont plus supposés croissants (c’est-à-dire où l’on autorise le placement
de briques jouant le rôle de contrepoids, tout en conservant la règle selon laquelle
on place une unique brique par couche).
7. Donner une approximation du nombre de briques de 20 centimètres de long
nécessaires pour construire un plongeoir de longueur au moins égale à 2 mètres.
On change à présent la règle relative à l’empilement des briques en autorisant le
positionnement de plusieurs briques en équilibre à la même altitude comme sur la
Figure 1.13.

Figure 1.13 – Un plongeoir à contrepoids.

8. Montrer que la longueur maximale d’un plongeoir constitué de 4 briques dont


une seule touche le sol est 2`.
Remarque : le problème devient plus compliqué lorsque l’on applique la nouvelle
règle d’empilement, puisqu’il faut alors considérer des structures en porte-à-faux
stabilisées par le poids de briques de couches supérieures, comme celle représentée
dans la Figure 1.14. On trouvera des illustrations de plongeoirs optimaux à n
briques (qui ne ressemblent plus vraiment à des plongeoirs !) pour différentes
valeurs de n dans l’article [PPT+ 08]. Il y est par ailleurs établi que la longueur
maximale d’un plongeoir est de l’ordre de n1/3 ... et est donc bien supérieure à la
longueur maximale obtenue en imposant à chaque couche de ne contenir qu’une
brique, qui est, par la question c), de l’ordre de ln n.

233
41. Le plongeoir le plus long

9. On considère la structure
 représentée
 sur la Figure 1.14. La brique supérieure
1 ` x2 +x3
exerce une fraction ` x4 + 2 − 2 de son poids sur la brique de droite de la
deuxième couche et le reste sur la brique de gauche. Donner une condition sur les
centres x1 , x2 , x3 et x4 pour que la structure soit stable.

× ×

×
x2 x1 x4 x3 x

Figure 1.14 – Une disposition en porte-à-faux.

10. Montrer que le triangle inversé représenté dans la Figure 1.15 n’est pas stable.

Figure 1.15 – Un triangle inversé.

234
Formes quadratiques et géométrie

Développement 42 (Théorèmes de Helly et de Carathéodory F)

Soit n > 2. Nous présentons trois résultats d’analyse convexe sur Rn .


a) Soient m > n + 2 et x1 , . . . , xm ∈ Rn . Montrer qu’il existe une partition
des indices J1, mK en deux ensembles I et J tels que l’enveloppe convexe de
{xi : i ∈ I} et celle de {xj : j ∈ J} aient une intersection non vide.
b) Montrer le théorème de Helly :

Soit m > n + 1. Soient K1 , . . . , Km des compacts convexes de Rn .


Supposons que chaque intersection de n + 1 de ces compacts est
non vide. Alors l’intersection de K1 , . . . , Km est non vide.

c) Montrer le théorème de Carathéodory :

Soit S ⊆ Rn . Alors l’enveloppe convexe de S est l’ensemble des


combinaisons convexes d’au plus n + 1 éléments de S.

Leçons concernées : 151, 181


Ce développement présente la preuve de trois résultats classiques qui sont à la base
de la théorie des ensembles convexes en dimension finie, de nombreux théorèmes de
géométrie en étant des conséquences directes. Il met en jeu des méthodes typiques
de la théorie des convexes, ce qui en fait une bonne illustration de la leçon associée
(181). La forte utilisation des arguments de dimension et notamment l’existence
de relations de dépendance linéaire pour des familles suffisamment grandes de
vecteurs le rendent pertinent dans la leçon sur le rang et la dimension finie (151).

Correction.
a) Pour tout i ∈ J1, mK, notons yi le vecteur (xi , 1) ∈ Rn+1 . Les yi forment une
collection de m > n + 2 vecteurs de Rn+1 , donc une famille liée. Il existe donc des
scalaires λ1 , . . . , λm ∈ R non tous nuls tels que
m
X
λi yi = 0,
i=1

ce qui est équivalent à


m
X m
X
λ i xi = 0 et λi = 0. (1)
i=1 i=1

Notons I (resp. J) l’ensemble des i ∈ J1, mK tels que λi > 0 (resp. λi < 0). La
seconde relation dans (1) permet alors de définir
X X
λ := λi = − λj > 0. (2)
i∈I j∈J

Notons que I =6 ∅ et J =6 ∅, car autrement tous les λi seraient de même signe


et la seconde relation de (1) impliquerait qu’ils sont tous nuls, contrairement

235
42. Théorèmes de Helly et de Carathéodory

à l’hypothèse. Ainsi on a λ > 0. En considérant la première équation dans la


relation (1), on constate alors que le vecteur
X λi X −λj
xi = xj
i∈I
λ j∈J
λ

est dans l’enveloppe convexe de {xi : i ∈ I} ainsi que dans celle de {xj : j ∈ J},
qui sont donc en particulier d’intersection non vide.
b) Prouvons le théorème de Helly par récurrence sur m > 1. Pour m = n + 1, le
résultat est inclus dans l’hypothèse. Soit m > n + 1 et supposons la propriété vraie
au rang m − 1. Soient K1 , . . . , Km des compacts convexes de Rn . Supposons que
chaque intersection de n + 1 compacts parmi eux est non vide. Par l’hypothèse de
récurrence, chaque intersection de m − 1 compacts parmi eux est non vide. En
particulier, pour tout i ∈ J1, nK, il existe un élément xi ∈ Rn tel que
m
\
xi ∈ Kj .
j=1
j6=i

Par la question a), qui s’applique car m > n + 2, il existe une partition de J1, mK
en deux ensembles disjoints I et J tels que l’enveloppe convexe de {xi : i ∈ I}
ainsi que celle de {xj : j ∈ J} s’intersectent en au moins un point. Soit y
un tel point. On veut montrer que y appartient à tous les K` pour l ∈ J1, mK.
Supposons l ∈ I. Alors, pour tout j ∈ J, on a xj ∈ K` . Puisque K` est un ensemble
convexe, l’enveloppe convexe de {xj : j ∈ J} est entièrement incluse dans K` . En
particulier, y ∈ K` comme souhaité. Dans le cas où ` ∈ J, le raisonnement est
analogue. Ainsi, y est dans tous les K` pour l ∈ J1, mK, ce qui achève la récurrence.
c) Soit x dans l’enveloppe convexe de S. Il existe donc s > 1 et des coefficients
λ1 , . . . , λs tels que, pour tout i ∈ J1, sK,
s
X s
X
λi > 0, λi = 1, et x = λ i xi .
i=1 i=1

Supposons que s > n + 1, sinon la propriété est déjà vérifiée. Nous allons prouver
qu’il existe un ensemble S 0 strictement inclus dans {x1 , . . . , xs } tel que x est dans
l’enveloppe convexe de S 0 , ce qui permettra de terminer la preuve par récurrence
descendante. Considérons les vecteurs x2 − x1 , . . . , xs − x1 , qui forment une famille
liée puisqu’ils sont au nombre de s − 1 > n + 1 et sont dans Rn . Ainsi, il existe
des coefficients non tous nuls µ2 , . . . , µs ∈ R tels que
s
X
µi (xi − x1 ) = 0. (3)
i=2

Introduisons alors la quantité


s
X
µ1 = − µi ,
i=2

236
Formes quadratiques et géométrie

de sorte que l’identité (3) se reformule en


s
X s
X
µi xi = 0, et µi = 0.
i=1 i=1

On obtient alors, pour tout λ ∈ R,


s
X s
X s
X s
X
x= λ i xi = λi xi − λ µ i xi = (λi − λµi )xi .
i=1 i=1 i=1 i=1

On peut alors choisir un λ0 > 0 tel que les λ0i = λi − λ0 µi sont positifs et au moins
l’un d’eux est nul. Par exemple,
λj
λ0 = min .
j∈J1,sK µj
µj >0

On obtient alors, pour tout i ∈ J1, sK, de nouveaux coefficients λ0i vérifiant
s s s
λ0i > 0, λ0i = λ0i xi .
X X X
λi = 1 et x =
i=1 i=1 i=1

Ainsi, x admet une représentation comme combinaison convexe de strictement


moins de s points parmi les xi , puisque l’un des λ0i est nul. Cela termine la preuve
par une récurrence descendante, prouvant qu’il existe n + 1 points de S dont x
est la combinaison convexe.

Commentaires.
© Le résultat de la question a) est dû à Radon. Il admet une généralisation due à
Tverberg pour l’intersection de plus de deux ensembles, que nous énonçons ici :
Soit r > 2. Considérons une famille de (r − 1)(n − 1) + 1 points de Rn .
Il existe alors une partition de cette famille de points en r parties dont
les enveloppes convexes s’intersectent.
Ce résultat a de nombreuses applications informatiques. Le problème de savoir si
une telle partition peut être déterminée algorithmiquement en un temps polynomial
est encore ouvert.
© Le théorème de Helly peut être utilisé pour montrer le théorème de Jung :
Tout ensemble de diamètre 1 de Rn est inclus dans une boule de rayon
s
n
rn = .
2(n + 1)

On pourra se référer à [Ber87] pour une preuve de ce résultat et de nombreuses


illustrations et variations de ces théorèmes de géométrie convexe.

237
42. Théorèmes de Helly et de Carathéodory

© Une application du théorème de Helly est le théorème de Krasnosel’skii :


Si K est un compact de Rn tel que si x1 , . . . , xn+1 ∈ K alors il existe
x ∈ K tel que [x, xi ] ⊂ K pour tout i ∈ J1, n + 1K. Alors K est étoilé.

Ce théorème est parfois mentionné avec l’interprétation suivante : dans un musée,


si tout ensemble de trois tableaux peut être vu simultanément depuis un certain
point, alors il existe un point à partir duquel on peut voir tous les tableaux.

Questions.
1. Préciser la récurrence descendante permettant de conclure au théorème de
Carathéodory dans la question c).
2. Donner une preuve élémentaire du théorème de Helly dans le cas de trois
segments de R, ainsi qu’une illustration graphique de la situation.
3. Soit X une famille de segments parallèles du plan. Supposons que tout sous-
ensemble de trois segments de X admet une transversale, i.e. une droite intersectant
les trois segments. Montrer que tous les segments de X admettent une transversale
commune (Théorème de Rey, Pastór et Santaló).
4. Donner des contre-exemples au théorème de Helly si on remplace l’hypothèse
« compact » par « fermé » ou par « borné ».
5. Montrer que l’enveloppe convexe d’un compact d’un R-espace vectoriel de
dimension finie est compacte. Est-ce que cela demeure en dimension infinie ?
Indication : en dimension infinie, considérer l’enveloppe convexe de la famille des
éléments en /n pour n > 1, où en ∈ RN est la suite définie par en (k) = 1 si k = n
et 0 sinon.
6. Représenter graphiquement la situation de la question a) dans R2 .
7. Illustrer le résultat et la preuve de la question b) dans le cas n = 2 et m = 4.
8. Rappeler pourquoi l’enveloppe convexe d’un ensemble S est l’ensemble des
combinaisons convexes des points de S.
9. Montrer que le théorème de Carathéodory permet de prouver le théorème de
Radon démontré à la question a).

238
Formes quadratiques et géométrie

Développement 43 (Théorème des trois réflexions F)

Considérons le plan euclidien R2 orienté par le produit scalaire usuel.


a) Montrer les deux résultats suivants :
(i) Les translations et rotations sont produits de deux réflexions.
(ii) Le produit de deux réflexions est une rotation ou une translation.
b) Conclure au résultat suivant :

Toute isométrie de R2 est le produit d’une, deux ou trois réflexions.

Leçons concernées : 108, 160, 161

Ce développement propose de déterminer un ensemble de générateurs du groupe


des isométries du plan, ce qui en fait un exemple pertinent pour la leçon sur
les parties génératrices de groupes (108). Le fait que les réflexions engendrent
les isométries est un fait central en géométrie, et ce résultat affine ce fait en
affirmant que trois réflexions suffisent, le rendant très bienvenu dans les leçons de
géométrie euclidienne. Tel que présenté ici, le développement ne fait pas apparaître
de nombres complexes, mais peut très bien être écrit en utilisant les représentations
des isométries comme fonctions de C plutôt que de R2 de sorte à illustrer la leçon
d’application des nombres complexes à la géométrie (182). En effet, cette dernière
n’a pas pour but particulier de faire utiliser les seuls nombres complexes, mais plus
généralement tous les avantages de la géométrie analytique classique qui réduit les
problèmes de géométrie euclidienne à des problèmes de calculs.

Correction.
a) (i) Traitons séparément le cas des réflexions et celui des translations.
• Soit t une translation du plan. Définissons un repère orthonormal direct en
prenant l’axe des ordonnées parallèle à la direction de t, de sorte qu’il existe
un δ ∈ R tel que t est la translation t(0,δ) par le vecteur (0, δ). Notons r la
réflexion par rapport à l’axe des abscisses, et r0 la réflexion t(0,δ/2) rt−1
(0,δ/2) .
2
On a pour tout (x, y) ∈ R , par définition des translations et des réflexions,

r0 r(x, y) = r0 (x, −y)


= t(0,δ/2) r(x, −y − δ/2)
= t(0,δ/2) (x, y + δ/2)
= (x, y + δ)
= t(0,δ) (x, y).

Ainsi, t(0,δ) = r0 r. Nous avons donc prouvé que toute translation du plan
s’écrit comme produit de deux réflexions.
• Soit ρ une rotation. Définissons un repère orthonormal direct en prenant
l’origine comme étant le centre de la rotation de sorte qu’il existe un θ ∈ R

239
43. Théorème des trois réflexions

tel que ρ est la rotation ρθ d’angle θ autour de l’origine. Rappelons que la


matrice de ρθ dans la base canonique de R2 est donnée par
!
cos θ − sin θ
.
sin θ cos θ

Notons r la réflexion par rapport à l’axe des abscisses, et r0 la réflexion


ρθ/2 rρ−1 2
θ/2 . On a pour tout (x, y) ∈ R ,

r0 r(x, y) = ρθ/2 rρ−1


θ/2 (x, −y)
= ρθ/2 r(x cos θ/2 − y sin θ/2, −x sin θ/2 − y cos θ/2)
= ρθ/2 (x cos θ/2 − y sin θ/2, x sin θ/2 + y cos θ/2)
= (x(cos2 (θ/2) − sin2 (θ/2)) − 2y sin(θ/2) cos(θ/2),
2x sin(θ/2) cos(θ/2) + y(cos2 θ/2 − sin2 θ/2))
= (x cos θ − y sin θ, x sin θ + y cos θ)
= ρθ (x, y).

Ainsi, ρθ = r0 r et toute rotation du plan s’écrit comme produit de deux


réflexions.
(ii) Considérons deux réflexions rD et r∆ par rapport aux droites D et ∆
respectivement. Distinguons deux cas par rapport à la position relative des droites.
• Supposons que les deux droites s’intersectent, et introduisons un repère ortho-
normal direct en définissant l’origine comme cette intersection. Considérons
que ∆ est la droite obtenue à partir de D par une rotation d’angle θ. On a
alors r∆ = ρθ rD ρ−1 −1
θ . En effet, si A ∈ ∆, alors ρθ (A) est sur D et donc
 
ρθ rD ρ−1 −1
θ (A) = ρθ rD ρθ (A)
 
= ρθ ρ−1
θ (A)

= A.

Ainsi, la droite ∆ est fixe par l’action de ρθ rD ρ−1 θ , qui est une isométrie
du plan. Il ne peut donc s’agir que de l’identité ou d’une réflexion d’axe ∆.
De plus, elle ne peut pas être l’identité sinon, en conjuguant par ρ−1 θ , on
aurait que rD serait l’identité contrairement à sa définition. On a donc bien
l’égalité r∆ = ρθ rD ρ−1
θ comme voulu.
Prenons l’axe des abscisses comme étant la droite D. Puisque rD est la
réflexion par rapport à l’axe des abscisses, le calcul de la question précédente
dans le cas des rotations donne que r∆ rD = ρ2θ , la rotation de centre le point
d’intersection des deux droites et d’angle le double de l’angle orienté entre les
deux droites.
• Supposons que les deux droites sont parallèles. Définissons l’origine comme
un point sur la droite D. Considérons ∆ comme la droite translatée de D par

240
Formes quadratiques et géométrie

(0, δ) pour un certain δ ∈ R. On a alors r∆ = t(0,δ) rD t−1


(0,δ) . On peut en effet
raisonner comme précédemment : si A ∈ ∆, alors t−1
(0,δ) (A) est sur D et donc
invariant par rD , de sorte que
 
t(0,δ) rD t−1 −1
(0,δ) (A) = t(0,δ) rD t(0,δ) (A)
 
= t(0,δ) t−1
(0,δ) (A)
= A.
Ainsi, la droite ∆ est fixe par l’action de ρθ rD ρ−1
θ , qui est une isométrie
du plan. Il ne peut donc s’agir que de l’identité ou d’une réflexion d’axe ∆.
De plus, elle ne peut pas être l’identité sinon, en conjuguant par t−1 (0,δ) , on
aurait que rD serait l’identité contrairement à sa définition. On a donc bien
l’égalité r∆ = t(0,δ) rD t−1
(0,δ) comme voulu.
Prenons D comme axe des abscisses. Puisque rD est la réflexion par rapport
à l’axe des abscisses, le calcul précédent dans le cas des translations donne
que r∆ rD = t(0,2δ) , la translation dans la direction transversale aux deux
droites et de longueur le double de la distance entre les deux droites. Ainsi le
produit de deux réflexions est toujours une rotation ou une translation.
b) Soit une isométrie f de R2 . Soient trois points A, B et C non alignés, de
sorte que ABC forme un repère affine de plan et toute application affine est
entièrement déterminée par ses valeurs aux points A, B et C. Examinons les
différentes possibilités pour ces images.
• Supposons que les trois sont fixes par f , autrement dit que f (A) = A,
f (B) = B et f (C) = C. Alors f est l’identité.
• Supposons que seuls deux points soient fixes, disons A et B mais pas C.
Il reste alors à déterminer l’image de C par f . Soit ∆ la médiatrice de C
et de f (C). Puisque f est une isométrie et que A et B sont fixes, on a les
égalités de distances
d(A, C) = d(f (A), f (C)) = d(A, f (C)),
d(B, C) = d(f (B), f (C)) = d(B, f (C)).
Ainsi, A et B sont sur la droite ∆. La réflexion r∆ d’axe ∆ envoie C sur f (C),
et de plus r∆ (A) = A et r∆ (B) = B. Puisqu’une réflexion est déterminée
par ces images, on a f = r∆ .
• Supposons que seul un point soit fixe, disons A mais pas B et C. Considérons
la médiatrice ∆ entre B et f (B) et la réflexion r∆ par rapport à ∆. Comme f
est une isométrie, d(A, B) = d(f (A), f (B)) = d(A, f (B)) donc A = f (A) est
situé sur la médiatrice de B et f (B). Ainsi, r∆ f est une isométrie qui fixe
les deux points A et B. Par les deux cas précédents, elle est soit l’identité,
soit une réflexion, de sorte que f est le produit d’au plus deux réflexions.
• Supposons qu’aucun des points A, B et C ne soit fixe. Soit ∆ la médiatrice
de A et f (A). Alors l’isométrie r∆ f fixe A, de sorte que les cas précédents
prouvent qu’elle est produit d’au plus deux réflexions.
Ainsi, dans tous les cas f est le produit d’au plus trois réflexions.

241
43. Théorème des trois réflexions

Commentaires.
© Ce développement consiste en un argument très géométrique, raisonnant cas
par cas pour montrer que toute isométrie du plan est engendrée par au plus trois
réflexions. Cela en fait un système de générateurs privilégiés pour le groupe des
isométries du plan.
© Il est bon d’avoir en tête les différentes isométries du plan, qui sont
• l’identité,
• les translations,
• les rotations,
• les réflexions,
• les réflexions glissées.
© La conjugaison est un outil central dans ce développement, et il est important
d’en comprendre les effets. Il s’agit bien d’une opération de changement de base
comme en algèbre linéaire : nous invitons fortement le lecteur à vérifier les égalités
mentionnées dans la correction (voir questions) en utilisant plusieurs formalismes :
les coordonnées cartésiennes comme dans la question a), complexes, ou les matrices
des isométries vectorielles sous-jacentes.
© Malheureusement de nombreuses leçons restreignent le cadre géométrique à la
géométrie euclidienne, mais le groupe des isométries est un moyen fondamental de
comprendre une géométrie. Par exemple, les isométries du plan hyperbolique sont
les homographies, ce qui peut trouver sa place dans une ouverture des leçons 160
ou 161 aux géométries non-euclidiennes, et qui sera certainement un exemple
bienvenu dans la leçon d’application des nombres complexes à la géométrie.

Questions.
1. Justifier que, si r est une réflexion, alors t(0,δ) rt−1 −1
(0,δ) (resp. ρθ rρθ ) est également
une réflexion. Quel est son axe par rapport à celui de r ?
2. Faire les calculs de la question a)(i) en utilisant le formalisme des nombres
complexes.
3. Montrer que le sous-groupe des isométries positives, i.e. produit d’un nombre
pair de réflexions, est un sous-groupe d’indice 2 du groupe des isométries de R2 .
4. Montrer qu’une isométrie de R2 est entièrement déterminée par l’image de trois
points non alignés.
5. Est-ce que la décomposition d’une translation ou d’une rotation en produit de
réflexions est unique ?
6. À quoi correspond géométriquement le produit de trois réflexions ?
7. Montrer que le sous-groupe des isométries directes est un sous-groupe distingué
des isométries du plan.

242
Formes quadratiques et géométrie

Développement 44 (Théorème de Killing-Hopf F)

On étudie les groupes d’isométries du plan affine assimilé au plan R2 orienté


en considérant leur action naturelle sur R2 .
On dit qu’un groupe d’isométries est discontinu si aucune orbite pour cette
action n’admet de point d’accumulation. Il est dit sans point fixe si aucun de
ses éléments différents de Id n’admet de point fixe.
a) Soit Γ 6= {Id} un sous-groupe d’isométries de R2 .
(i) Montrer que si Γ est discontinu et sans point fixe, alors chaque orbite est
localement séparée, au sens où tout point de R2 a un voisinage contenant
au plus un point de chaque orbite de l’action de gamma sur R2 .
(ii) Montrer la réciproque : si Γ admet des orbites localement séparées, alors
il est discontinu et sans point fixe.
b) Soit Γ 6= {Id} un groupe d’isométries discontinu et sans point fixe. Suppo-
sons que Γ ne contienne que des translations.
(i) Montrer qu’il existe une translation γ1 ∈ Γ \ {Id} de longueur minimale.
(ii) Montrer que les translations de Γ \ hγ1 i n’ont pas même direction que γ1 .
(iii) Prouver qu’il existe un système générateur de Γ à un ou deux éléments.

Leçons concernées : 101, 108, 160, 161, 191

Ce développement s’intègre naturellement dans la leçon traitant des actions de


groupes (101) illustre la vision algébrique de la géométrie apportée par Klein (191).
Les groupes considérés sont des groupes d’isométries du plan et sont donc par-
ticulièrement adaptés pour illustrer les leçons de géométrie affine (160, 161).
Enfin, l’esprit du développement consiste à construire des systèmes de générateurs
privilégiés pour certains groupes d’isométries, ce qui le rend pertinent pour la
leçon 108.

Correction.
a) (i) Supposons que Γ est un sous-groupe d’isométries de R2 discontinu et sans
point fixe.
Considérons un point x de R2 et notons Γx son orbite sous l’action de Γ. Pour
toutes isométries γ, γ 0 ∈ Γ, on note γx l’image de x par γ et γγ 0 la composée γ ◦ γ 0 .
Montrons que les orbites sous l’action de Γ sont localement séparées. Par définition
de la discontinuité, il existe δ > 0 tel que Γx ne possède aucun autre point que x
dans la boule ouverte B(x, δ). Autrement dit, tous les points de l’orbite Γx distincts
de x sont à une distance de x supérieure à δ. De plus, Γ n’a pas de point fixe,
donc pour tout γ ∈ Γ\{Id}, le point γx est distinct de x et donc est situé à une
distance de x supérieure à δ. Soient y ∈ B(x, δ/3) et z est un point de l’orbite de y,
que l’on peut donc écrire sous la forme z = γy pour un certain γ ∈ Γ, l’inégalité

243
44. Théorème de Killing-Hopf

triangulaire donne alors

ky − zk = k(y − x) + (x − γx) + (γx − z)k


> kx − γxk − k(y − x) + (γx − z)k
> kx − γxk − ky − xk − kγx − zk
> δ/3.

Ainsi, la boule B(x, δ/3) ne contient aucun point de l’orbite Γy hormis y. Puisque y
est quelconque, cela prouve bien que les orbites sont localement séparées.
(ii) Supposons que tout point x ∈ R2 admette un voisinage ouvert Vx dans
lequel chaque point appartient à une orbite différente.
Montrons que Γ est discontinu. Raisonnons par l’absurde et supposons que ce ne
soit pas le cas. Il existe donc un point d’accumulation de l’orbite d’un x ∈ R2
sous l’action de Γ. Il existe alors une suite non stationnaire (γn x)n∈N de points de
l’orbite de x qui converge vers une limite que l’on note y. Puisque le voisinage Vy
de y est un ouvert et puisque (γn x)n∈N converge vers y, les γn x sont dans Vy à
partir d’un certain rang. Par hypothèse, puisqu’ils sont dans l’orbite de x, ils sont
donc tous égaux à partir de ce rang. Ainsi la suite (γn x)n∈N stationne, ce qui
contredit l’hypothèse. Aucune orbite de Γ n’admet donc de point d’accumulation,
autrement dit Γ est discontinu.
Montrons désormais que Γ est sans point fixe. Supposons que ce ne soit pas le
cas, et donc qu’il existe γ ∈ Γ différent de Id et admettant un point fixe x ∈ R2 .
Notons que γ ne peut pas fixer trois points non-alignés, sinon ce serait l’identité.
Pour tout ε > 0, il existe donc un point y ∈ B(x, ε) qui n’est pas fixé par γ. Alors
on a
kγy − xk = kγy − γxk = kx − yk < ε
puisque x est un point fixe et que γ est une isométrie. Ainsi, y et γy sont deux
points distincts d’une orbite de Γ dans la boule B(x, ε). Puisque ε > 0 est
quelconque, cela est contraire à l’hypothèse. Ainsi, Γ est bien sans point fixe.
b) (i) Soit x ∈ R2 . L’orbite de x sous l’action de Γ est discrète par l’hypothèse
de discontinuité de Γ. Soit γ0 ∈ Γ \ {Id} arbitraire. L’intersection de l’orbite Γx
avec la boule compacte épointée B(x, kx − γ0 xk) \ {x} est donc finie. Elle est de
plus non vide car elle contient γ0 x. La fonction dx : y 7→ kx − yk admet donc un
minimum sur cette intersection. Notons γ1 x un élément de Γx où ce minimum est
atteint :
dx (γ1 x) = kx − γ1 xk = min kx − γxk.
γ ∈ Γ \ {Id}
γx ∈ B(x,kx−γ0 xk)

Par ailleurs, pour tout γ ∈ Γ tel que γx ∈


/ B(x, kx − γ0 xk), on a par définition

dx (γx) > kx − γ0 xk = dx (γ0 x) > dx (γ1 x).

Ainsi, pour tout γ ∈ Γ, on a dx (γx) > dx (γ1 x). Autrement dit, la fonction dx
atteint un minimum (en γ1 x) sur l’orbite de Γ \ {Id}. Ce minimum est de plus
non nul car γ1 6= Id est une translation non triviale.

244
Formes quadratiques et géométrie

(ii) Montrons que le sous-groupe hγ1 i de Γ engendré par γ1 contient toutes les
translations de Γ parallèles à γ1 , i.e. de vecteur parallèle à u := γ1 (0). Notons que
ce vecteur n’est pas nul car γ1 est une translation non triviale. Raisonnons par
l’absurde et supposons qu’il existe λ ∈ R tel que la translation γ de vecteur λu
soit dans Γ mais pas dans hγ1 i. Comme hγ1 i est l’ensemble des translations de
vecteur ku avec k ∈ Z, cela revient à supposer que λ ∈ R \ Z.
−bλc
L’isométrie γγ1 est alors un élément de Γ. Il s’agit de la translation de vecteur
égal à λu − bλcu = (λ − bλc)u, or
k (λ − bλc) uk = |λ − bλc| · kuk < kuk
puisque λ ∈ R \ Z et puisque kuk =
6 0 (voir Figure 1.16).

−bλcu

x γ1 x
• •
−bλc γx
γγ1 x
u

Figure 1.16 – Représentation de la situation de la question b)(ii) avec λ ∈]1, 2[.

Ainsi, Γ contient une translation dont le vecteur non nul a une longueur strictement
inférieure à celle de u, ce qui contredit la définition de u. Finalement, hγ1 i contient
bien toutes les translations de Γ de vecteur parallèle à u.
(iii) Supposons que hγ1 i = 6 Γ ; la question précédente garantit que Γ \ hγ1 i
est formé de translations de vecteurs non parallèles à u. Soit γ2 ∈ Γ \ hγ1 i une
translation de vecteur v = 6 0 de longueur minimale ; une telle translation existe
par le même argument de compacité qu’à la question b)(i). Comme v ∈ / Vect (u),
la famille (u, v) est libre et forme donc une base de R . 2

Montrons alors que γ1 et γ2 engendrent Γ. Pour cela, procédons par l’absurde et


supposons que le sous-groupe hγ1 , γ2 i de Γ engendré par γ1 et γ2 n’est pas égal
à Γ. Considérons une translation γ de Γ \ hγ1 , γ2 i et notons w son vecteur ; on a
alors w ∈/ (Zu + Zv), et w ∈
/ Vect (u) d’après la question précédente. Comme la
famille (u, v) forme une base de R2 , il existe λ, µ ∈ R2 avec (λ, µ) ∈
/ Z2 tels que
w = λu + µv.
Notons λ
e (resp. µ
e) l’entier le plus proche de λ (resp. µ), en optant pour la partie
entière bλc (resp. bµc) si λ ∈ Z + 12 (resp. µ ∈ Z + 12 ). L’isométrie γγ1−λ γ2−µe est
e
alors un élément de Γ. Il s’agit de la translation de vecteur
 
e := w − λu
w e −µ
ev = λ − λ
e u + (µ − µ
e) v,

/ Z2 . On va montrer que w
qui est non nul puisque (λ, µ) ∈ e est « trop court » pour
être compatible avec la définition de u et v (voir la Figure 1.17).

245
44. Théorème de Killing-Hopf

−λu
e w = λu + µv

−µ
ev

• w
e

0 u

Figure 1.17 – Représentation de la situation de la question b)(iii) avec


λ, µ ∈]1, 2[.

Si µ − µ
e = 0, alors

kwk
e = (λ − λ)u
e e · kuk 6 1 kuk < kuk,
= λ−λ
2
ce qui est absurde puisque u est de longueur minimale parmi les vecteurs non
nuls des translations de Γ. Ainsi, on a µ − µ
e 6= 0 et donc w
e∈/ Vect (u). L’inégalité
triangulaire donne à présent
 
kwk
e = λ−λ
e u + (µ − µ
e) v
 
6 λ−λ
e u + k(µ − µ
e) vk (1)

= λ−λ
e · kuk + |µ − µ
e| · kvk
1
6 (kuk + kvk)
2
6 kvk.

Or v est de longueur minimale parmi les vecteurs des translations de Γ non


proportionnels à u, donc kvk 6 kuk et les inégalités dans la chaîne ci-avant sont
toutes des égalités. On en déduit notamment que λ − λ e et µ − µe sont non nuls
et que l’on a égalité dans l’inégalité triangulaire (1), ce qui est absurde puisque
les vecteurs (λ − λ)u
e et (µ − µ e) v ne sont pas proportionnels. On arrive donc à la
contradiction recherchée, ce qui montre que les translations γ1 et γ2 engendrent
bien Γ.

246
Formes quadratiques et géométrie

Commentaires.
© Ce développement repose sur la connaissance et les propriétés des isométries
euclidiennes : ce sont les translations, les rotations, les réflexions et les réflexions
glissées. La réduction de la connaissance d’un groupe à celle de ses générateurs
est la clé de la classification des différents groupes d’isométries possibles, prouvée
à la question b) et dans le commentaire suivant.
© Avec les mêmes méthodes qu’à la question b), il est possible de traiter le
cas où Γ ne contient pas que des translations : il existe alors aussi un système
générateur de Γ contenant un ou deux éléments. Nous prouvons ce fait en détail
dans ce commentaire. Il est tout à fait possible pour les candidats à l’aise de
présenter cette preuve comme partie intégrante du développement quitte à passer
rapidement sur un certain nombre d’arguments classiques dans les questions a)
ou b). Le développement ainsi obtenu est de niveau FF.
Supposons donc que Γ un sous-groupe d’isométries de R2 discontinu et sans point
fixe ne contenant pas que des translations, et montrons qu’il existe un système
générateur de Γ de cardinal égal à 2.
On note tout d’abord que le sous-groupe Γ+ de Γ constitué des isométries directes
de Γ est d’indice 2 dans Γ. En effet, il ne peut pas être d’indice 1 car on a supposé
qu’il existe une isométrie indirecte dans Γ, autrement dit que Γ 6= Γ+ . De plus,
le morphisme ε : Γ → {−1, 1} qui à une isométrie de Γ associe son déterminant
(c’est-à-dire 1 si elle préserve l’orientation, −1 sinon) est surjectif dans un ensemble
de cardinal 2 et Γ+ = Ker(ε). Le premier théorème d’isomorphisme donne alors

G/Γ+ ' {−1, 1} . (2)

Si γ et γ 0 sont deux réflexions glissées de Γ d’axes non parallèles, leur composée


est alors une rotation non triviale, qui admet donc un point fixe contrairement à
l’hypothèse sur Γ. Ainsi, les réflexions glissées de Γ ont leurs axes tous parallèles
entre eux. Quitte à changer de repère orthonormé dans le plan complexe assimilé
à R2 , on peut supposer que cet axe est parallèle à l’axe réel. On peut alors
considérer, comme dans la question b)(ii), une réflexion glissée γ 6= {Id} de
longueur de vecteur translation minimale. En effet, si cette longueur minimale
était nulle, γ aurait un point fixe contrairement à l’hypothèse. Quitte à changer
de repère orthonormé et à multiplier la norme euclidienne par une constante, on
peut supposer que cette longueur de translation est 1 et que l’axe de γ est l’axe
réel. Notamment, γ 2 ∈ Γ+ est une translation dont le vecteur translation est de
longueur 2.
Considérons désormais le quotient Γ+ /hγ 2 i et un élément h ∈ Γ+ /hγ 2 i. Comme γ 2
est une translation dont le vecteur de translation est de longueur 2, la classe h
contient une translation tu de vecteur u ∈ C tel que Re(u) est dans [−1, 1].
Montrons que u est imaginaire pur, i.e. que tu est une translation verticale. Quitte
à remplacer h par son inverse, on peut supposer que Re(u) ∈ [0, 1]. Notons tu la
translation selon le vecteur u ; on a alors γtu γ −1 = tū . Il s’ensuit que la translation
définie par tu γtu γ −1 = t2Re(u) est d’axe réel. On distingue alors trois cas :

247
44. Théorème de Killing-Hopf

• Soit 0 < Re(u) < 1, auquel cas t2Re(u) γ −1 ou t−2Re(u) γ est une réflexion
glissée dont la partie réelle de la composante de translation est dans ]0, 1[, ce
qui contredit l’hypothèse de minimalité du vecteur de translation de γ.
• Soit Re(u) = 1, auquel cas t−2Re(u) γ est de composante de translation nulle
et est donc une réflexion, contredisant le fait que Γ est sans point fixe.
• Soit Re(u) = 0, qui est donc le seul cas possible.
Ainsi, Γ+ /hγ 2 i est un groupe d’isométries composé de translations suivant l’axe
imaginaire. Par le même argument que dans la question b)(ii), il est donc engendré
par un unique élément t. On obtient alors Γ = ht, γi.
© Une idée importante et récurrente dans ce développement est l’argument de mi-
nimisation permettant de trouver des générateurs des groupes considérés. Il s’agit
d’une variante de l’argument classique permettant de prouver que les sous-groupes
discrets de R sont monogènes, i.e. de la forme aZ pour un certain a ∈ R. La
question b)(iii) en est un analogue en dimension 2, qui établit que les sous-groupes
discrets de R2 sont engendrés par au plus deux éléments, c’est-à-dire que ce sont
des réseaux (éventuellement à une seule dimension). Les candidats à l’aise sur ces
notions et sur les preuves sous-jacentes pourront bien évidemment supposer ces
deux résultats ou ne présenter que l’idée de la preuve sur un dessin.
© Il est possible de montrer que les surfaces euclidiennes (i.e. de courbure nulle)
connexes et complètes (i.e. où tout segment peut être prolongé en une droite
contenue dans la surface) sont les quotients du plan R2 par un sous-groupe
d’isométries Γ discontinu et sans point fixe. Ce développement détermine donc
les différentes familles de telles surfaces en étudiant les sous-groupes d’isométries
de R2 discontinus et sans point fixe. Ainsi, un problème de géométrie se réduit
à une étude précise des différentes actions de groupes possibles sur la surface-
modèle R2 . Il s’agit du point de vue moderne, apporté par Klein, sur la géométrie :
une notion de géométrie se définit par les mouvements possibles dans l’espace
considéré, autrement dit la géométrie est exactement réduite aux propriétés du
groupe d’isométries sous-jacent. Les résultats de la question b) et du premier
commentaire peuvent alors être reformulés comme une classification des surfaces
connexes et complètes de R2 , qui sont de la forme S = R2 /Γ, en fonction des
différentes possibilités pour les générateurs de Γ :
• soit Γ est trivial, et S est le plan euclidien ;
• soit Γ est engendré par une translation, et S est un cylindre ;
• soit Γ est engendré par une réflexion glissée, et S est un cylindre tordu (que
l’on peut aussi voir comme un ruban de Möbius infiniment large) ;
• soit Γ est engendré par deux translations, et S est un tore ;
• soit Γ est engendré par une réflexion glissée et une translation, et S est une
bouteille de Klein.
La classification en 5 classes des sous-groupes d’isométries en fonction de leurs
générateurs constitue le théorème de Killing-Hopf.
© Il est important de faire précisément la distinction entre un élément P d’un
quotient R2 /Γ (i.e. l’ensemble des classes d’éléments de R2 modulo l’action de Γ)

248
Formes quadratiques et géométrie

et ses représentants x ∈ R2 ; c’est la raison pour laquelle ce développement est


entièrement écrit dans le langage des actions de groupes et cherche la structure
de Γ plutôt que celle de la surface associée. Les surfaces définies comme quotients
de la forme R2 /Γ ont une topologie très liée aux groupes d’isométries Γ les
définissant. Les groupes topologiques discontinus, aussi appelés groupes fuchsiens,
constituent le cadre dans lequel cette théorie des surfaces homogènes s’inscrit,
largement développé dans l’ouvrage [Kat92]. On peut mentionner la théorie des
formes automorphes, qui étudie le cas où Γ est un sous-groupe fuchsien du groupe
des isométries du plan hyperbolique PSL2 (R).
© Dans les commentaires précédents, nous avons présenté la classification des
surfaces euclidiennes, c’est-à-dire de courbure constante nulle. Le théorème de
Killing-Hopf est dans sa forme générale un résultat de classification des surfaces
s’appliquant également aux cas des autres géométries. En voici un énoncé :
Toute variété riemannienne complète et connexe de courbure constante
est isométrique au quotient du plan euclidien, de la sphère ou du plan
hyperbolique par un groupe d’isométries discontinu et sans point fixe.
© Un sujet connexe est celui de la classification des pavages possibles du plan
euclidien. Un groupe de pavage du plan est un sous-groupe G des isométries
positives du plan affine euclidien R2 tel qu’il existe un compact connexe d’intérieur
non vide P tel que :
[
• les translatés de P par G recouvrent le plan : R2 = gP ;
g∈G

• pour tous g, h ∈ G, si g P̊ ∩ hP̊ 6= ∅, alors g = h.


Les groupes de pavages possibles du plan sont connus. À composition par une
application affine près, un tel groupe G est de l’une des cinq formes suivantes :
D E
• t(1,0) , t(0,1) , où tu représente la translation de vecteur u ∈ R2 ;
D E
• t(1,0) , t(0,1) , rπ , où rθ représente la rotation d’angle θ ∈ R ;
D E
• t(1,0) , t(0,1) , r π2 ;
 
• t(1,0) , t( 1 , √3 ) , r π3 ;
2 2
 
• t(1,0) , t(− 1 , √3 ) , r 2π .
2 2 3

Ces cinq groupes correspondent à cinq réseaux, appelés les réseaux de Bravais
et donnant la structure du pavage. Un pavage du plan peut présenter moins de
symétries que celles données par le groupe de pavage, qui correspond aux symétries
du réseau de Bravais associé : Fedorov et Pólya ont ainsi prouvé qu’il n’y a que 17
pavages possibles du plan euclidien.

249
44. Théorème de Killing-Hopf

Questions.
1. Rappeler pourquoi un ensemble discret et compact est fini.
2. Montrer que si Γ agit de manière discontinue sur R2 , alors tout sous-groupe de
Γ agit également de manière discontinue.
3. Prouver qu’une isométrie de R2 fixant trois points non alignés est l’identité.
4. Montrer qu’un sous-groupe d’isométries de R2 discontinu et sans point fixe est
constitué uniquement de translations et de réflexions glissées.
5. Soient γ1 une translation de vecteur v 6= 0, et γ ∈
/ hγ1 i une translation de
m
vecteur parallèle à v. Notons m ∈ Z\{1} tel que γ1 γx minimise la distance à x.
Montrer que d(x, γ1m γx) < d(x, γ1 x).
6. Soit γ la réflexion glissée d’axe réel et de translation de vecteur (1, 0). En
notant tu la translation de vecteur u ∈ R2 ' C, montrer que γtu γ −1 = tū .
7. Pour tout u ∈ R2 , montrer que tu tū = t2Re(u) .
8. Montrer que si γ et γ 0 sont deux réflexions glissées Γ d’axes non parallèles,
alors leur composée est alors une rotation non triviale
9. Le produit d’un nombre pair de réflexions peut-il également être exprimé
comme le produit d’un nombre impair de réflexions ?
10. Montrer analytiquement et géométriquement que le carré d’une réflexion
glissée est une translation de vecteur double.
11. Tout sous-groupe discret d’isométries de R2 est-il engendré par au plus deux
éléments ?
12. Détailler l’adaptation de l’argument de la question b)(ii) pour montrer que,
dans le cas présenté en commentaire, on a Γ = ht, γi

250
Formes quadratiques et géométrie

Développement 45 (Isométries directes des solides de Platon FF)

On se place dans le plan euclidien orienté R2 . Soit G un groupe d’ordre n > 2


d’isométries vectorielles de R2 .
a) Soit G+ le sous-groupe de G constitué de ses isométries directes.
(i) Montrer que l’indice de G+ dans G est égal à 1 ou 2.
(ii) Montrer que G+ est cyclique.
(iii) En déduire que G est soit un groupe cyclique, soit un groupe diédral.
On se place à présent dans l’espace euclidien orienté R3 . Soit G un groupe
d’ordre n > 2 d’isométries vectorielles directes agissant naturellement sur R3 .
b) Introduisons Ω l’ensemble des vecteurs unitaires de R3 fixés par un élément
non trivial de G. Notons x1 , . . . , xk des représentants des orbites Ω1 , . . . , Ωk
de Ω sous l’action de G, ordonnées par cardinal croissant. Pour tout i ∈ J1, kK,
on note si = |Gxi | = n/|Ωi | l’ordre du stabilisateur Gxi de xi dans G.
(i) Montrer l’identité fondamentale
k
2 X 1
 
2− = 1− . (1)
n i=1 si

(ii) En déduire que k ∈ {2, 3}.


c) (i) Que dire si k = 2 ?
Supposons dorénavant que k = 3.
(ii) Montrer que s2 ∈ {2, 3}.
(iii) Montrer que si s2 = 2, alors G est le groupe des rotations d’un polygone.
(iv) Montrer que si s2 = 3, alors G est le groupe des rotations d’un tétraèdre.

Leçons concernées : 101, 104, 106, 108, 160, 161, 190, 191

Le développement présenté ici concerne les isométries et est l’occasion de présenter


un résultat très classique, illustrant les leçons associées (106, 160, 161). Ce
développement très géométrique est représentatif de la théorie des actions de groupes
finis (101, 104). L’utilisation fine des générateurs lors de la dernière question
montre la puissance de cette notion (108). Le double décompte des éléments du
stabilisateur dans la question c) est une méthode typique de dénombrement, qui
donne une identité restreignant les cas possibles à un nombre suffisamment faible
pour permettre une exploration « à la main ». Cette approche témoigne ainsi des
outils que la théorie des actions de groupes et le dénombrement (190) peuvent
apporter à la géométrie (191).

251
45. Isométries directes des solides de Platon

Correction.
a) (i) Considérons le morphisme ε : G → {−1, 1} qui associe à une isométrie son
déterminant, autrement dit 1 si l’isométrie est directe et −1 sinon. Son noyau est
le sous-groupe G+ des isométries directes de G. Puisque {−1, 1} est de cardinal 2,
l’indice [G : G+ ] est égal à 1 ou 2.
(ii) Puisque G est un groupe fini, G+ est également fini. Notons m ∈ N∗ son
ordre. Comme les éléments de G+ sont des isométries directes, ce sont des rotations
car aucune translation de vecteur non nul ne peut appartenir à G+ . Un élément
de G+ est de plus d’ordre divisant m : il s’agit donc de la rotation d’angle 2kπ/m
pour un k ∈ J1, mK. Puisqu’il n’y a que m telles rotations, ce sont exactement
les éléments de G+ , qui est donc le groupe cyclique d’ordre m engendré par la
rotation r d’angle 2π/m.
(iii) Si G est réduit à des isométries directes, si bien que G est cyclique d’après
la question précédente.
Supposons désormais qu’il existe une isométrie indirecte h ∈ G\G+ . Il s’agit donc
d’une réflexion (par rapport à une droite vectorielle). De plus, les isométries rk
et rk h, où r est la rotation mentionnée précédemment et où 0 6 k < |G+ |, sont
des éléments de G tous distincts et sont au nombre de 2|G+ | = |G| : ce sont donc
exactement les éléments de G, qui est alors le groupe diédral d’ordre n.
Ainsi, soit G est composé d’isométries directes, auquel cas il est cyclique, soit il
contient des isométries indirectes, auquel cas il est diédral.
b) (i) Le groupe G ne contient aucune translation de vecteur non nul ni de
réflexion glissée donc les isométries constituant G sont des rotations et possèdent
donc chacune un axe. Chacun de ces axes coupe la sphère unité en deux points,
appelés pôles de la rotation (voir Figure 1). L’ensemble Ω est donc exactement
l’ensemble des pôles des rotations de G.

Figure 1.18 – Axe d’une rotation r et ses deux pôles sur la sphère unité.

252
Formes quadratiques et géométrie

Pour tout i ∈ J1, nK, chaque vecteur u ∈ Ωi possède un stabilisateur Gu de cardinal


égal à si = n/|Ωi |. Introduisons
X = {(f, u) ∈ (G\{Id}) × Ω : f (u) = u}.
Chacun des n − 1 éléments de G\{Id} est une rotation donc fixe exactement deux
vecteurs unitaires : ses deux pôles. On en déduit donc que |X| = 2(n − 1). D’un
autre côté, pour tout i ∈ J1, kK, l’élément u ∈ Ωi est la deuxième composante
d’exactement |Gxi \{Id}| = si − 1 éléments de X, de sorte que
k
X k
X
|X| = (si − 1)|Ωi | = (n − |Ωi |).
i=1 i=1

On a donc
k
X
2(n − 1) = (n − |Ωi |)
i=1
d’où, en divisant par n, l’identité fondamentale
k
2 X 1
 
2− = 1− . (1)
n i=1 si

(ii) Puisque chaque élément de Ω est fixé par une rotation non triviale de G
(par définition de Ω) et par l’identité, on en déduit que les stabilisateurs des u ∈ Ω
sont de cardinal supérieur à 2, c’est-à-dire que les si sont supérieurs à 2. On en
tire en particulier que 1 − s−1
i > 1/2 pour tout i ∈ J1, kK. L’identité (1) implique
alors
k 
2 X 1 k

2>2− = 1− > ,
n i=1 si 2
ce qui implique que k ∈ {1, 2, 3}.
Il est par ailleurs immédiat de voir que l’équation (1) n’a pas de solution dans le
cas où k = 1. On en déduit que k ∈ {2, 3}.
c) (i) Supposons que k = 2. Alors l’identité (1) donne
2 1 1 2
2− =2− − 62− ,
n s1 s2 s1
de sorte que s1 > n. Comme par ailleurs s1 6 s2 6 n, on a nécessairement
s1 = s2 = n et donc |Ω1 | = |Ω2 | = 1. Cela prouve que Ω (qui est Ω1 ∪ Ω2 ) est
constitué de deux vecteurs unitaires. Ces vecteurs sont nécessairement opposés,
car Ω est stable par l’application x 7→ −x (rappelons que ce sont les intersections
des axes de rotation avec la sphère unité) ; on les note donc x1 = u et x2 = −u.
Par ailleurs, comme les stabilisateurs de u et −u sont de cardinal n, tous les
éléments de G stabilisent u et −u, donc tous sont des rotations d’axe Vect(u).
Le groupe d’isométries de R2 formé par les restrictions des isométries de G au
plan Vect(u)⊥ est alors un groupe fini d’isométries directes du plan, qui est donc
cyclique d’après la question a)(ii).
Ainsi, G est le groupe des rotations de R3 d’un polygone régulier dans le plan
orthogonal à Vect(u).

253
45. Isométries directes des solides de Platon

(ii) L’identité fondamentale (1) donne


2 1 1 1
1+ = + + . (2)
n s1 s2 s3
En particulier on en tire, puisque s1 > s2 > s3 > 2, que
2 3
1<1+ 6 ,
n s3
ce qui implique s3 = 2. L’identité (2) entraîne alors que
1 1 2 1 1 2
< + = + 6 ,
2 2 n s1 s2 s2
ce qui implique s2 ∈ {2, 3}.
(iii) Supposons s2 = 2. Comme s2 > s3 > 2, on a nécessairement s2 = s3 = 2.
La relation fondamentale (1) implique alors que n = 2s1 . Tous les éléments de Gx1
fixent Vect (x1 ), donc Gx1 s’identifie à un groupe de s1 isométries directes du
plan orthogonal à cet axe et, par la question a)(ii), est donc un groupe cyclique.
Notons g une rotation engendrant Gx1 . Les points g u (x2 ), pour u ∈ J0, s1 − 1K,
sont alors les sommets d’un polygone régulier à s1 côtés.
De plus, |Gx2 | = 2 donc l’élément non trivial de Gx2 est d’ordre 2, c’est donc
une rotation d’angle π, autrement dit une symétrie orthogonale r par rapport à
une droite. Comme elle fixe x2 , il s’agit de la symétrie orthogonale par rapport à
l’axe Vect (x2 ). Son action sur le polygone régulier formé par les g r (x2 ) est donc
une symétrie axiale.
Ainsi le groupe hr, gi engendré par r et g est un groupe diédral de cardinal 2s1 = n.
Les restrictions des isométries de G au plan Vect (x1 )⊥ forment le groupe diédral
d’ordre n.
(iv) Supposons que s2 = 3. L’identité fondamentale (1) donne
1 2 1 1
< + = , (3)
6 n 6 s1
de sorte que s1 ∈ {3, 4, 5}. La relation (1) détermine par ailleurs entièrement
les |Ωi | dans chacun des trois cas possibles. Traitons le cas s1 = 3, qui implique
les égalités |Ω1 | = 4, |Ω2 | = 4 et |Ω3 | = 6, d’où n = 12 (les deux autres cas sont
détaillés dans les commentaires suivant ce développement).
• Supposons que s1 = s2 = 3 et s3 = 2. On obtient par l’équation (1) que n = 12.
L’orbite Ω1 est par ailleurs composée de n/s1 = 4 éléments. Le groupe Gx1 est
de cardinal 3 et est donc le groupe engendré par la rotation d’angle 2π 3 et d’axe
Vect (x1 ), que l’on note g. Soit u = 6 x1 un élément de Ω1 . L’orbite Ω1 est alors
formée des éléments x1 , u, g(u) et g 2 (u). Or, u, g(u) et g 2 (u) sont les sommets d’un
triangle équilatéral. On obtient de la même manière que x1 , u et g(u) forment un
autre triangle équilatéral (ces points constituent l’orbite de l’élément non trivial
du stabilisateur de g 2 (u)), et de même pour les deux autres combinaisons de trois
points parmi x1 , u, g(u) et g 2 (u) (qui forment l’orbite de l’élément non trivial du
stabilisateur du quatrième). Ainsi, les points de Ω1 forment un tétraèdre régulier.

254
Formes quadratiques et géométrie

x1

g 2 (u)

u
g(u)

Figure 1.19 – Tétraèdre régulier.

Il est par ailleurs classique de montrer que le groupe d’isométries du tétraèdre


isomorphe au groupe alterné A4 , qui est d’ordre 12. Puisque le groupe de rota-
tions G obtenu est aussi d’ordre 12 et stabilise Ω1 , on en déduit que G est le
groupe d’isométries directes de ce tétraèdre.

Commentaires.
© Les arguments mobilisés dans ce développement reposent sur des relations de
comptage telles que la formule obtenue à la question c). Lors de la présentation
au tableau, une fois la stratégie de la preuve expliquée, il est tout à fait possible
d’escamoter quelques détails de calcul de sorte à ajuster le temps disponible
ou à insister sur les points que l’on estime cruciaux. Toutefois, il est important
que certains des passages techniques soient présentés dans le détail de sorte à
convaincre les examinateurs, et il est bien sûr important de savoir compléter
l’argument au besoin. Plus de précisions sont fournies dans [Arm88], d’où a été
tiré ce développement.
Nous proposons par exemple de présenter les questions a) et b) pour un dévelop-
pement très élémentaire, de niveau F. Les questions b) ainsi que c)(i), concluant
à l’existence d’un nombre fini de types de groupes finis d’isométries et donnant
leur description dans le cas des groupes de rotations, est une belle illustration
de la combinatoire mise au service de la théorie des groupes et constitue égale-
ment un développement de niveau F. Le traitement plus géométrique des solides
platoniciens, donné par la question c), peut être présenté en se réduisant aux
groupes diédraux (cas s2 = 2) et à l’un des solides platoniciens (cas s2 = 3, le plus
simple étant alors le tétraèdre, correspondant à s1 = 4). Le développement obtenu
est alors de niveau FF. Pour illustrer des arguments plutôt géométriques, il est
possible d’admettre l’identité fondamentale (1) en donnant l’idée principale de sa
preuve, puis se concentrer sur la description des solides platoniciens détaillée à la
question c).

255
45. Isométries directes des solides de Platon

© Les deux autres cas pour s1 dans la question c)(iv) se traitent de la même
manière, en exploitant la relation (3). On obtient les trois situations suivantes
(voir commentaires ci-après pour leur description géométrique) :

s1 s2 s3 |Ω1 | |Ω2 | |Ω3 | n


3 3 2 4 4 6 12
4 3 2 6 8 12 24
5 3 2 12 20 30 60

Traitons les deux cas restants, que le candidat pourra tout à fait substituer lors
de sa présentation à celui du tétraèdre détaillé dans la correction.
• Supposons que s1 = 4, s2 = 3 et s3 = 2. On obtient par l’équation (1) que
n = 24. L’orbite Ω1 est alors composée de n/s1 = 6 éléments. Notons g un
générateur de Gx1 ; il est d’ordre 4. Soit u un élément de Ω1 distinct de ±x1 .
L’orbite Ω1 contient donc x1 , u, g(u), g 2 (u) et g 3 (u). Puisque cette orbite est de
cardinal 6, il reste un seul élément à déterminer ; on le note y. L’élément g(y)
est alors distinct de x1 (qui est fixe) et des g k (u) (sinon y serait parmi eux).
Nécessairement y est fixe par g, il s’agit donc de l’autre pôle de g, à savoir −x1 .
L’orbite Ω1 sous l’action de G est donc formée des éléments x1 , −x1 , u, g(u), g 2 (u)
et g 3 (u). Puisque g est une isométrie fixant x1 , les vecteurs unitaires distincts
u, g(u), g 2 (u) et g 3 (u) sont équidistants de x1 et forment un carré. On obtient de
la même manière, en notant que nécessairement g 2 (u) = −u, que les éléments
x1 , g(u), −x1 , g 3 (u) forment un carré dans le plan orthogonal à Vect (u), en consi-
dérant un générateur de Gu . Ainsi, les points de Ω1 sont les sommets d’un octaèdre
régulier.

x1

g 3 (u)

g 2 (u)
g(u)

−x1

Figure 1.20 – Octaèdre régulier.

Il est par ailleurs classique de montrer que le groupe d’isométries de l’octaèdre


est isomorphe au groupe symétrique S4 , qui est d’ordre 24. Puisque le groupe de
rotations G obtenu est aussi d’ordre 24 et stabilise Ω1 , on en déduit que G est le
groupe d’isométries directes de cet octaèdre.

256
Formes quadratiques et géométrie

On aurait pu raisonner de même avec les autres orbites : l’orbite Ω2 , peut être
interprétée comme les centres des faces de l’octaèdre (ou, de manière équivalente,
des sommets d’un cube) ; l’orbite Ω3 peut être interprétée comme les centres des
arêtes de l’octaèdre (ou du cube). On retrouve ici que l’octaèdre et le cube sont
des solides duaux.
• Supposons que s1 = 5, s2 = 3 et s3 = 2. On obtient par l’équation (1) que
n = 60. L’orbite Ω1 est alors composée de n/s1 = 12 éléments. Notons g un
générateur de Gx1 . Soient u, v des éléments de Ω1 qui ne sont ni fixes ni dans
la même orbite sous l’action de Gx1 . Ainsi, Ω1 est formé de l’élément x1 ainsi
que u, g(u), g 2 (u), g 3 (u), g 4 (u) et v, g(v), g 2 (v), g 3 (v), g 4 (v). Puisque Ω1 est de
cardinal 12, il reste un seul élément à déterminer. Comme précédemment, celui-ci
est nécessairement fixe par g, il s’agit donc de −x1 . Quitte à permuter x1 et −x1 ,
on peut supposer que u et v vérifient 0 < |x1 − u| < |x1 − v| < 2. En effet, si ce
n’était pas le cas, tous ces points seraient sur un plan orthogonal à l’axe Vect (x1 ),
et Gx1 serait alors d’ordre 10, contrairement à l’hypothèse.
Puisque g est une isométrie, les éléments u, g(u), g 2 (u), g 3 (u), g 4 (u) forment un
pentagone régulier, et il en va de même pour les éléments v, g(v), g 2 (v), g 3 (v), g 4 (v).
En usant du même argument sur d’autres axes, on constate comme précédemment
que les points de Ω1 sont les sommets d’un icosaèdre régulier.

x1

g(u)

−x1

Figure 1.21 – Icosaèdre régulier.

Il est par ailleurs classique de montrer que le groupe d’isométries directes de


l’icosaèdre est isomorphe au groupe alterné S5 , qui est d’ordre 60. Puisque le
groupe de rotations G obtenu est aussi d’ordre 60 et stabilise Ω1 , on en déduit
que G est le groupe d’isométries directes de cet icosaèdre.
On aurait pu raisonner de même avec les autres orbites : l’orbite Ω2 , peut être
interprétée comme les centres des faces de l’icosaèdre (ou, de manière équivalente,
des sommets d’un dodécaèdre) ; l’orbite Ω3 peut être interprétée comme les centres

257
45. Isométries directes des solides de Platon

des arêtes de l’icosaèdre (ou du dodécaèdre). On retrouve ici que l’icosaèdre et le


dodécaèdre sont des solides duaux.
© Les solides platoniciens fascinent depuis l’Antiquité : ce sont les cinq seuls
polyèdres réguliers convexes de l’espace euclidien. Le langage des actions de
groupes introduit par Klein et le langage des espaces vectoriels permettent de
traduire les questions de géométrie affine dans un formalisme accessible au calcul.
Ces langages puissants et des outils élémentaires des théories associées permettent
de réduire le développement à des arguments de combinatoire et d’exhaustion de
cas. Pour de nombreux détails sur cette géométrie dans l’esprit du programme
d’Erlangen.
© Les isométries considérées dans ce développement sont traditionnellement ap-
pelées symétries des solides platoniciens. Une symétrie d’un ensemble (ici, un
polygone ou un polyèdre) est une transformation isométrique de l’espace qui le
laisse globalement invariant. Cette notion de symétrie est à ne pas confondre avec
celle d’involution en algèbre linéaire, aussi appelée symétrie ; nous avons pour cela
évité cette terminologie pour ne pas induire le lecteur en erreur, et préféré le terme
d’isométrie. La question posée dans ce développement est donc de déterminer tous
les sous-groupes finis du groupe des isométries directes de R3 , et de les identifier
comme groupes de symétrie de polyèdres. On retrouve ainsi, via la théorie des
groupes, les solides platoniciens.
© Une bonne vision géométrique des polyèdres réguliers est souhaitable lors de la
préparation de ce développement, et le dessin d’un tétraèdre ou d’un octaèdre
au tableau au cours de l’exposé est évidemment bienvenu, d’autant qu’il permet
d’illustrer la réalisation des groupes considérés comme groupes d’isométries d’un
polyèdre explicite.
© Ce développement ne prouve pas à proprement parler que les polyèdres réguliers
sont les solides platoniciens, mais il détermine quels sont les sous-groupes finis
possibles d’isométries directes de l’espace. Considérons un polyèdre régulier de
l’espace, dans le sens où il existe des isométries permutant les faces, arêtes ou
sommets de toutes les manières possibles. Une fois connues les images des sommets
par une isométrie donnée, il est aisé de déterminer les images des arêtes et des faces,
puis de déterminer entièrement l’isométrie, de sorte que le groupe d’isométries du
polyèdre est fini et correspond donc à l’un des groupes déterminés ici.
© Nous avons dans ce développement raisonné dans le cadre vectoriel, plus
pratique, mais parfois adopté le langage de la géométrie affine (points et sommets)
pour interpréter les situations dans la dernière question. Tous les arguments
demeurent toutefois dans le cadre de la géométrie affine (voir questions suivant ce
développement).
© Il est possible d’utiliser la formule d’Euler pour déterminer les polyèdres réguliers
convexes de l’espace euclidien. En effet, en notant A le nombre d’arêtes, F le
nombre de faces et S le nombre de sommets, la formule d’Euler énonce que
S − A + F = 2.
Des arguments de combinatoire permettent alors de déterminer des relations entre
A, F et S et de retrouver les cinq solides platoniciens (voir Développement 115).

258
Formes quadratiques et géométrie

Questions.
1. Montrer que l’ensemble des pôles Ω est fini.
2. Justifier l’égalité |Gxi | = n/|Ωi | pour tout i ∈ J1, kK.
3. Rappeler pourquoi tous les éléments d’une même orbite sous l’action d’un
groupe ont des stabilisateurs de même cardinal.
4. Justifier que les si sont entiers.
5. Montrer qu’une rotation non triviale fixe exactement deux vecteurs unitaires.
6. Montrer que l’orthogonal d’un sous-espace vectoriel stable par une isométrie
l’est aussi.
7. Justifier que les stabilisateurs considérés à la question c)(iii)-(v) sont cycliques.
8. Justifier dans les différents cas de la question c) que si g est une rotation non
triviale d’ordre m et d’axe Vect (x1 ), et si u est unitaire et distinct de ±x1 , alors
les g k (u), pour k ∈ J1, m − 1K, sont deux à deux distincts.
9. Dans le cas de l’octaèdre décrit en commentaire, justifier que g 2 (u) = −u.
Indication : les isométries préservent les relations d’adjacence dans l’octaèdre.
10. Dans le cas de l’icosaèdre, montrer que les éléments u, g(u), g 2 (u), g 3 (u), g 4 (u)
et v, g(v), g 2 (v), g 3 (v), g 4 (v) sont deux à deux distincts.
11. Montrer que les groupes de symétrie de ces solides sont le groupe alterné A4
dans le cas du tétraèdre, S4 dans les cas du cube et de l’octaèdre, et A5 dans les
cas de l’icosaèdre et du dodécaèdre.
12. Détailler l’argument de la question c)(i) permettant de se ramener à un plan.
Indication : remarquer que les rotations de G commutent et conclure qu’elles sont
cotrigonalisables. Utiliser alors le fait que ce sont des isométries pour conclure
que le plan orthogonal à une droite propre commune est stable.
13. Montrer qu’une isométrie laissant globalement invariant un polyèdre permute
ses sommets.
14. Montrer que la restriction d’une isométrie directe à un sous-espace stable est
une isométrie directe. Que dire dans le cas d’isométries indirectes ?
15. Montrer que les résultats énoncés sont encore valables si l’on considère des
isométries affines et non plus vectorielles.
Indication : on pourra commencer par considérer le centroïde de G défini par,
pour un x ∈ Rk ,
1 X
c= g(x),
n g∈G

et montrer qu’il est fixé par tous les éléments de G.

259
46. Théorème d’Hermite

Développement 46 (Théorème d’Hermite F)

Soit n > 1. Soit une matrice symétrique réelle définie-positive S ∈ Sn++ (R).
Pour un vecteur x de Rn identifié à une matrice colonne de Mn,1 (R), on note
S[x] = t xSx ∈ R+ l’image de x par la forme quadratique associée à S.
a) Justifier que le minimum µ(S) de S sur Zn \{0} existe.
b) Justifier qu’un point x ∈ Zn pour lequel ce minimum est atteint est primitif,
c’est-à-dire que le pgcd de ses entrées vaut 1.
c) On dit que S et T sont congruentes s’il existe une matrice U ∈ GLn (Z)
telle que S = t U T U . Si S et T sont congruentes, montrer que µ(S) = µ(T ).
d) Conclure au théorème d’Hermite :

Il existe une constante cn > 0 telle que toute matrice symétrique


réelle définie-positive S ∈ Mn (R) vérifie µ(S) 6 cn det(S)1/n .

Leçons concernées : 158, 170

Ce développement permet d’illustrer l’utilisation des formes quadratiques sous


forme explicite (170) et l’appel aux propriétés de la matrice symétrique sous-
jacente. Le théorème spectral est un outil central pour expliciter les propriétés des
formes quadratiques, ce qui en fait une illustration pertinente de la leçon sur les
matrices symétriques réelles (158).

Correction.
a) Puisque S est symétrique réelle, elle est diagonalisable par le théorème spectral.
Il existe donc une matrice orthogonale P ∈ On (R) telle que
P −1 SP = diag(λ1 , . . . , λn ),
où λ1 6 · · · 6 λn sont les valeurs propres de S. Puisque S est définie-positive, ces
valeurs propres sont strictement positives. On a alors, pour tout x ∈ Rn ,
S[x] > λ1 t xx. (1)
En fixant un x0 ∈ Zn non nul, l’ensemble X = {x ∈ Zn \{0} : S[x] 6 S[x0 ]} est
non vide (car il contient x0 ) et borné (car inclus dans la boule de centre zéro et
de rayon (S[x0 ]/λ1 )1/2 par l’inégalité (1)). Puisque Zn est discret, X est donc fini,
et il existe donc un point x1 ∈ Zn \{0} tel que S[x1 ] est minimal sur X.
On a ainsi que S[x1 ] 6 S[x] pour tout x ∈ X. De plus, par définition de X, pour
tout élément Zn \{0} hors de X, on a S[x] > S[x0 ] > S[x1 ]. On en déduit que
S[x1 ] 6 S[x] pour tout x ∈ Z\{0}. Ainsi, le minimum µ(S) de S sur Zn \{0} existe
bien.
b) S’il existait un diviseur commun non trivial q > 2 des entrées de x, on pourrait
factoriser x sous la forme qy où y est entier. On aurait alors S[y] < q 2 S[y] = S[x]
et y non nul, contrairement à la minimalité de S[x]. Ainsi, x est nécessairement
un vecteur primitif de Zn .

260
Formes quadratiques et géométrie

c) Par définition des matrices congruentes, il existe une matrice U ∈ GLn (Z) telle
que S = t U T U . Soit x ∈ Zn tel que µ(S) = S[x], qui existe par la question a).
On a

µ(S) = S[x] = t xSx = t xt U T U x = t (U x)T (U x) = T [U x] > µ(T ).

De même, on peut conclure à l’inégalité renversée par symétrie des rôles de S et T .


En effet, si y ∈ Zn est tel que µ(T ) = T [y], qui existe par la question a), alors

µ(T ) = T [y] = t yT y = t y t U −1 SU −1 y = t (U −1 y)S(U −1 y) = S[U −1 y] > µ(S).

Ainsi, on a bien µ(S) = µ(T ).


d) Raisonnons par récurrence sur n, et introduisons pour n ∈ N∗ la propriété

P(n) : ∃cn > 0, ∀S ∈ Sn++ (R), µ(S) 6 cn det(S)1/n .

• Pour n = 1, soit S = (s) ∈ S1++ (R), où s > 0. Si x ∈ Z\{0}, on a sx2 > s


avec égalité pour x = 1. Ainsi, µ(S) = s = det(S), prouvant P(1) avec le
choix c1 = 1.
• Soit n > 2. Supposons P(n − 1) vraie et prouvons P(n). Soit x un vecteur
entier tel que S[x] = µ(S). Complétons x en une matrice U ∈ GLn (Z),
ce qui est possible puisque x est primitif. Alors T = t U SU admet comme
première entrée l’élément S[x] = µ(S). De plus, µ(S) = µ(T ) par la question
précédente, et det(S) = det(T ). On peut donc supposer sans perte de
généralité que la première entrée de S est s = µ(S).
• Notons que S admet une forme plus simple en changeant de base :
! ! ! !
s ty 1 0 s 0 1 s−1 · t y
S= =
y S1 s−1 · y In−1 0 W 0 In−1

où W = S1 − s−1 y t y. En particulier, det(S) = s det(W ). En écrivant le


vecteur x sous la forme x = t (x1 , t z) avec z ∈ Zn−1 , alors

S[x] = s(x1 + s−1t yz)2 + W [z]. (2)

La matrice définie-positive S et la matrice


!
0 s 0
S =
0 W

représentent ainsi la même forme quadratique, on en déduit que la matrice S 0


est définie-positive. On en déduit facilement que W et également définie-
positive. En effet, avec les notations précédentes x = t (0, t z) on a

S 0 [x] = W [z],

et par définie-positivité de S 0 on a S 0 [x] > 0 et S 0 [x] = 0 si et seulement


si x = 0. Cela se traduit dans l’équation ci-avant par W [z] > 0 et W [z] = 0
si et seulement si z = 0.

261
46. Théorème d’Hermite

• Ainsi, puisque W est une matrice symétrique réelle définie-positive qui est
de taille n − 1, on peut lui appliquer l’hypothèse de récurrence : il existe une
constante cn−1 > 0 tel que pour tout z ∈ Zn−1 ,
W [z] 6 cn−1 det(W )1/(n−1) . (3)
Il existe donc un z ∈ Zn−1 tel que W [z] = µ(W ) soit minimal. Soit alors un
élément x1 ∈ Z tel que
1 1
− 6 x1 + s−1 · t yz 6 , (4)
2 2
ce qui est possible puisque l’intervalle [−1/2, 1/2] est de longueur un. Ainsi,
par l’identité (2) et les majorations (3) et (4), on obtient
µ(S) 6 S[x] = (x1 + s−1 · t yz)2 µ(S) + W [z]
1
6 µ(S) + µ(W )
4
1
6 µ(S) + cn−1 det(W )1/(n−1) .
4
En utilisant le fait que det(W ) = det(S)/s = det(S)/µ(S), on en déduit
 n−1
4

n
µ(S) 6 cn−1 det(S)1/n ,
3
ce qui prouve la propriété de récurrence au rang n.
Cela conclut la récurrence et la preuve.

Commentaires.
© Le problème de minimiser une forme quadratique donnée est très présent en
mathématiques. En physique ou en analyse harmonique, les formes quadratiques
surviennent naturellement comme des normes de type L2 , autrement dit des fonc-
tionnelles d’énergie. Le théorème d’Hermite permet, au moins pour les problèmes
théoriques, de donner une borne en fonction du déterminant de la forme quadra-
tique dans le cas de la dimension finie. C’est en pratique un résultat souhaitable,
puisque l’optimisation est un problème difficile en général et souvent instable
numériquement, alors que le calcul d’un déterminant ne souffre pas du même
problème d’instabilité et est calculable algorithmiquement.
© La preuve implique que cn = (4/3)(n−1)/2 convient pour tout n. La valeur
optimale de cn demeure toutefois inconnue. On a p prouvé que c1 = 1 lors de
l’initialisation de la récurrence. Prouvons que c2 = 4/3. Considérons la forme
quadratique x2 + xy + y 2 et S la matrice symétrique associée. On a alors la
minoration S[x, y] > 1 = S[1, 0] pour tous x et y non simultanément nuls, de sorte
que µ(S) = 1. Puisque det(S) = 3/4, on obtient le résultat.
Le théorème de Minkowski pour les réseaux (voir Développement 89) permet de
déduire une meilleure borne que la précédente sur cn , à savoir
2/n
4 n

cn 6 Γ +1 . (5)
π 2

262
Formes quadratiques et géométrie

© L’argument utilisé à la question a) est très commun et plutôt utile : pour


minimiser une fonction continue qui croît rapidement dans toutes les directions
(par exemple des formes quadratiques coercives comme ici) : on se restreint à un
ensemble de « petites valeurs » de la forme {x ∈ Rn : f (x) 6 f (x0 )} qui est
compact, donc sur lequel la fonction atteint un minimum, puis on se sert de la
propriété de croissance pour montrer que ce minimum relatif est un minimum
global, car les valeurs hors de l’ensemble sont grandes par définition.

Questions.
1. Vérifier la relation (2) en utilisant la décomposition de S.
2. Écrire explicitement un x1 ∈ Z satisfaisant l’encadrement (4).
3. Parmi les matrices à coefficients entiers de GLn (R), caractériser celles qui sont
dans GLn (Z).
4. Compléter l’argumentation de la question d) : montrer que si x est un vecteur
primitif, il peut être complété en une matrice de GLn (Z).
5. Montrer que la majoration obtenue en (5) est meilleure asymptotiquement que
la majoration donnée par la preuve cn 6 (4/3)(n−1)/2 .
6. Soit S ∈ Sn+ (R). Montrer que S admet une unique racine carrée, autrement dit
qu’il existe une unique T ∈ Sn+ (R) telle que S = R2 .
7. Soit A ∈ Sn++ (R). Déduire de l’exercice précédent que la forme quadratique
donnée par x 7→ t xAx + t bx + c admet son minimum en
1
x = − A−1 b.
2
8. Soit q une forme quadratique sur un espace vectoriel E. Montrer que pour tout
x, y ∈ E, on a l’identité du parallélogramme

q(x + y) + q(x − y) = 2(q(x) + q(y)).

9. Soient S, T ∈ Sn+ (R). Montrer que det(A) + det(B) 6 det(A + B).


10. Soient S, T ∈ Sn+ (R). Montrer que ST est à valeurs propres réelles et positives.
11. En utilisant l’argument de minimisation de la question a), repris dans le
dernier commentaire ci-avant, montrer que dans un espace vectoriel de dimension
finie il existe un point minimisant la distance entre un vecteur donné et un
ensemble fermé.

263
47. Formes quadratiques semi-réduites

Développement 47 (Formes quadratiques semi-réduites FF)

Soit n > 2. Pour une matrice symétrique S ∈ Sn (R), on note S = (sij )i,j∈J1,nK
ses coefficients et en particulier s1 , . . . , sn ses coefficients diagonaux. Pour tout
vecteur x ∈ Rn , on pose S[x] = t xSx l’image de x par la forme quadratique
associée à S. On définit les propriétés
(I) s1 > 0 ;
(II) pour tout k ∈ J1, nK et pour tout vecteur entier w = (wi )i∈J1,nK ∈ Zn
tels que pgcd(wk , . . . , wn ) = 1, on a S[w] > sk .
a) Soit S ∈ Sn (R) qui vérifie (II).
(i) Montrer que s1 6 · · · 6 sn .
(ii) Montrer que pour tous k, ` ∈ J1, nK, avec k < `, on a

−sk 6 2sk` 6 sk .

(iii) Montrer qu’un vecteur x ∈ Zn \{0} minimisant S sur Zn \{0} est tel
que pgcd(w1 , . . . , wn ) = 1. Un tel vecteur est qualifié de primitif.
b) Soit S ∈ Sn (R) vérifiant (II).
(i) Montrer que S est de la forme par blocs
!
0 0
S=
0 S0

où, pour un certain k ∈ J1, nK, la matrice S 0 ∈ Sk (R) vérifie (II) et que
sa première entrée est non nulle.
(ii) Prouver le résultat suivant pour S ∈ Sn (R) :
• Si S vérifie (II) alors elle est positive.
• Si S vérifie (I) et (II) alors elle est définie-positive.

Leçons concernées : 158, 170, 171

Ce développement est l’archétype des raisonnements sur des classes particulières


de matrices ou sur des formes quadratiques, basés sur les décompositions ma-
tricielles mettant en exergue des propriétés spécifiques et permettant d’amorcer
des récurrences sur la dimension. Les résultats énoncés concernent une certaine
classe de matrices symétriques, à savoir les matrices semi-réduites qui sont celles
vérifiant les propriétés (I) et (II) de l’énoncé, dont on prouve la relation avec le
caractère positif ou défini-positif, en faisant un bon développement pour les leçons
sur les formes quadratiques et les matrices symétriques 158, 170 et 171.

264
Formes quadratiques et géométrie

Correction.
a) (i) Pour k ∈ J1, nK, un vecteur w = (wi )i∈J1,nK ∈ Zn est dit k-admissible si le
pgcd de (wk , . . . , wn ) vaut 1. Pour tout k ∈ J1, n − 1K, le vecteur ek+1 ∈ Zn de la
base canonique, donné par des entrées nulles sauf la (k + 1)-ième qui vaut 1, est
k-admissible. Il vient alors, par la condition (II) que pour tout k ∈ J1, k − 1K

sk+1 = S[ek+1 ] > sk ,


de sorte qu’une récurrence immédiate implique

s1 6 s2 6 · · · 6 sn .

(ii) Soient k, ` ∈ J1, nK avec k < `. Soit u = (ui )i∈J1,nK ∈ Zn un vecteur entier
tel que uk = 1, u` = 1 et les autres entrées sont nulles. Alors u est `-admissible et
on obtient alors par la condition (II) que

sk + 2sk` + s` = S[u] > s` .

Ainsi, −2sk` 6 sk . En utilisant le même argument pour le vecteur u avec uk = −1


et u` = 1, qui est également un vecteur `-admissible, on obtient 2sk` 6 sk .
Finalement, pour tous k, ` ∈ J1, nK avec k < `, on a

−sk 6 2sk` 6 sk .

(iii) Considérons un vecteur w ∈ Zn non nul qui minimise la valeur de la forme


quadratique S sur Zn \{0}. Supposons par l’absurde que w n’est pas primitif, de
sorte que d = pgcd(w1 , . . . , wn ) > 1.
Par définition du pgcd, il est possible de factoriser chaque entrée de w par d, autre-
ment dit d’écrire w = dw0 avec w0 ∈ Zn \{0}. On aurait alors, en prenant l’image
de w par la forme quadratique associée, S[w] = d2 S[w0 ] > S[w0 ], contredisant la
minimalité de S[w].
Ainsi, le vecteur w est nécessairement primitif.
b) (i) Supposons que s1 = 0. Alors par la question a)(ii), pour tout ` ∈ J2, nK
on a 0 = −s1 6 2s1` 6 s1 = 0, de sorte que S est de la forme par blocs
!
0 0
0 S1

où S1 ∈ Mn−1 (R). Montrons que S1 vérifie la propriété (II). Pour k ∈ J1, n − 1K,
si w0 = (w10 , . . . , wn−1
0 ) est un vecteur k-admissible de Zn−1 alors le vecteur
w = (w1 , . . . , wn ) := (0, w10 , . . . , wn−1
0 ) ∈ Zn défini en ajoutant une entrée nulle
0
à w est un vecteur (k + 1)-admissible de Zn . En effet, à cause du changement
d’indices on a

pgcd(wk+1 , . . . , wn ) = pgcd(wk0 , . . . , wn−1


0
) = 1.

La forme par blocs ci-avant prouve alors que S1 [w0 ] = S[w]. Puisque S vérifie la
propriété (II), on en déduit que S[w] > sk+1 , et donc S1 [w0 ] > sk+1 pour tout

265
47. Formes quadratiques semi-réduites

vecteur k-admissible. Puisque sk+1 est la k-ième entrée diagonale de S1 , on obtient


bien la propriété (II) pour la matrice S1 .
Si on a également s2 = 0, on obtient une décomposition analogue pour S1 en
itérant le même argument. Ainsi, par une récurrence immédiate, soit S = 0 soit il
existe un élément diagonal sk qui n’est pas nul pour un certain k ∈ J1, nK. Dans
ce dernier cas, S est de la forme
!
0 0
0 S0

où sk 6= 0 est le premier élément diagonal de la matrice S 0 ∈ Sn−k+1 (R). De plus,


S 0 vérifie également la propriété (II).
(ii) Notons que la question a)(ii) garantit que les sk sont positifs, car on a
l’inégalité sk > −sk . Ainsi, si la propriété (I) n’est pas vérifiée, alors s1 = 0 et
donc S se réduit à une matrice diagonale par blocs avec un bloc nul puis une
matrice S 0 plus petite satisfaisant (I) et (II) par la question b)(i). Ainsi il suffit
de prouver que si (I) et (II) sont vérifiées, alors S est définie-positive. En effet, si
le résultat est connu pour la matrice S 0 , celle-ci est symétrique définie-positive et
donc S est symétrique positive.
Raisonnons par récurrence sur la dimension n > 1. Le cas n = 1 est immédiat.
Supposons la propriété vraie au rang n − 1 pour un n > 2, et considérons une
matrice S ∈ Sn (R) qui satisfait les propriétés (I) et (II). Nous voulons prouver
qu’elle est définie-positive. Introduisons l’écriture
!
S1 q
S= tq (1)
sn

où q ∈ Mn−1,1 (R) et S1 ∈ Sn−1 (R). Montrons que la matrice S1 satisfait les


propriétés (I) et (II). Elle vérifie la propriété (I) car son premier élément diagonal
est le premier élément de S, que l’on a supposé vérifier la propriété (I). Vérifions la
propriété (II) en considérant un vecteur w0 = (wi )i∈J1,n−1K à coordonnées entières
tel que pgcd(wk , . . . , wn−1 ) = 1 pour un certain k ∈ J1, n − 1K. On peut alors
introduire le vecteur w = (wi )i∈J1,nK où l’on a posé wn = 0, qui vérifie également
pgcd(wk , . . . , wn ) = 1. On obtient par un calcul direct que

S[w] = S1 [w0 ] + wn (t qw0 + t w0 q) + sn wn2 = S1 [w0 ].

Par l’hypothèse (II) pour S, on a S[w] > wk , de sorte qu’on obtient S1 [w0 ] > wk .
Cela établit la propriété (II) pour la matrice S1 . Par hypothèse de récurrence, S1
est donc symétrique définie-positive.
Introduisons désormais la notation x = (y, z) ∈ Mn,1 (R) avec y ∈ Mn−1,1 (R)
ainsi que z ∈ R. Alors la décomposition ci-avant permet d’écrire

S[x] = S1 [y] + (t qy + t yq)z + sn z 2


h i  
= S1 y + S1−1 qz + sn − t qS1−1 q z 2 . (2)

266
Formes quadratiques et géométrie

Prouvons que sn − t qS1−1 q > 0. Notons qu’on a sn > s1 > 0 par la question a)(i).
Supposons l’inverse, i.e. que sn 6 t qS1−1 q. Alors pour tout ε > 0 et x = (y, z) non
nul, on a h i
S[x] 6 S1 y + S1−1 qz + εz 2 .

La propriété (I) implique que s1 est inférieur au minimum de la forme quadratique


associée à S sur les vecteurs primitifs. On en déduit que pour tout x = (y, z)
primitif,
h i
0 < s1 6 S[x] 6 S1 y + S1−1 qz + εz 2 . (3)

La forme quadratique du membre de droite est une forme quadratique sur Rn , posi-
tive et de déterminant det(S1 )ε. Par l’inégalité d’Hermite (voir Développement 46),
il existe donc une constante cn > 0 telle que
h i
S1 y + S1−1 qz + εz 2 6 cn det(S1 )1/n ε1/n .

En faisant tendre ε vers zéro et en utilisant la majoration (3), on en tire que s1


devrait être nul, ce qui contredit l’hypothèse (I). Ainsi, sn − t qS1−1 q > 0, autrement
dit S est définie-positive par (2). Par récurrence, cela clôt la preuve du théorème.

Commentaires.
© Une matrice vérifiant les propriétés (I) et (II) est dite semi-réduite.
© On peut prouver que dans toute classe de congruence de matrice positive il existe
une matrice semi-réduite, donnant un résultat de réduction a priori plus faible que
celui donné par le théorème spectral. Toutefois, il trouve toute sa puissance dans
les applications arithmétiques, car les matrices de passage peuvent être supposées
unimodulaires, c’est-à-dire dans GLn (Z). Cela motive l’étude autonome de ces
objets, ce qui est réalisé en partie dans ce développement. On peut aussi consulter
le théorème de Minkowski (voir Développement 89).

Questions.
1. Montrer que si S vérifie (II), alors la matrice S 0 vérifie (I) et (II).
h i
2. Montrer que la forme quadratique S1 y + S1−1 qz + εz 2 de la question b)(ii)
admet un vecteur minimisant sa valeur sur Zn \{0}.
3. Établir l’égalité (2).
h i
4. Montrer que la forme quadratique S1 y + S1−1 qz + εz 2 est de déterminant
égal à det(S1 )ε.
Indication : on pourra s’inspirer de (1).

267
48. Théorème de Minkowski pour les formes quadratiques

Développement 48 (Théorème de Minkowski FFF)

Soit n > 1. Soit S ∈ Sn (R) une matrice symétrique et s1 , . . . , sn ∈ R ses


éléments diagonaux. Nous noterons |S| = det(S).
a) Si S ∈ Sn (R) est symétrique définie-positive.
(i) Montrer que les matrices extraites de S obtenues en ne conservant que
les r premières lignes et colonnes, pour r ∈ J1, nK, sont aussi symétriques
définies-positives.
!
Sn−1 0
(ii) Montrer que S est congruente à une matrice avec ` 6 sn .
0 `
(iii) En déduire que
|S| 6 s1 · · · sn .

Une matrice S ∈ Sn (R) est dite semi-réduite si


(I) s1 > 0 ;
(II) pour tout k ∈ J1, nK et tout w = (w1 , . . . , wn ) ∈ Zn tel que
pgcd(wk , . . . , wn ) = 1, on a t wSw > sk .
b) Montrer le théorème de Minkowski :

Il existe une constante cn > 0 telle que pour toute matrice positive
semi-réduite S ∈ Sn (R), on a
s1 · · · sn
16 6 cn .
|S|

Leçons concernées : 151, 158, 170, 171

Ce développement traite de formes quadratiques et de matrices symétriques. Cela


en fait un résultat bienvenu dans les leçons associées (158, 170 et 171). La preuve
repose sur le théorème d’Hermite, un résultat classique de la théorie des formes
quadratiques présenté dans le Développement 46 et rappelé dans les commentaires
ci-après. Le formalisme explicite des matrices et les récurrences sur la dimension
utilisés dans la preuve illustrent l’atout important que constitue la dimension finie
dans l’étude des formes quadratiques, ce qui permet d’insérer ce développement
dans la leçon 151.
Correction.
a) (i) On vérifie aisément que toute matrice extraite obtenue en conservant
les r premières lignes et colonnes est définie-positive : il suffit d’écrire la propriété
de définie-positivité avec les vecteurs dont les n − r dernières coordonnées sont
nulles.
(ii) On peut écrire la matrice S sous la forme
!
Sn−1 y
S= ty (1)
sn

268
Formes quadratiques et géométrie

où Sn−1 ∈ Mn−1 (R) et y ∈ Mn,1(R) . On déduit du fait que S est symétrique


définie-positive que Sn−1 est également symétrique définie-positive, et en particu-
lier inversible. On peut alors écrire la décomposition
! ! !
−1 −1
In−1 Sn−1 y Sn−1 0 In−1 Sn−1 y
S=t (2)
0 1 0 ` 0 1

−1 −1
où ` = sn − t ySn−1 y 6 sn car Sn−1 est positive.
(iii) Raisonnons par récurrence sur la dimension n > 1. Le cas n = 1 est
immédiat : si S = (s) ∈ S1 (R) avec s > 0, alors |S| = s 6 s. Supposons la
propriété vraie au rang n − 1 pour un n > 2 et prouvons la propriété de récurrence
au rang n. Soit une matrice S ∈ Sn (R).
En utilisant la décomposition (2) prouvée à la question précédente, la matrice Sn−1
est définie positive, de sorte que l’hypothèse de récurrence garantit que toutes
les matrices extraites de Sn−1 en prenant les r premières lignes et colonnes,
1 6 r 6 n − 1, sont définies positives. De plus, |S| = |Sn−1 |` par l’égalité (2). Par
l’hypothèse de récurrence, il vient alors

|S| 6 s1 · · · sn−1 ` 6 s1 · · · sn .

Cela achève la récurrence.


b) Il ne reste que l’inégalité de droite à prouver, par la question a). Raisonnons
par récurrence forte sur la dimension n > 1, le cas n = 1 étant trivial avec c1 = 1.
Supposons donc que la propriété est vraie au rang n − 1 pour un certain n > 1.
Soit S appartenant à Sn (R) semi-réduite. Considérons les rapports
s2 sn
,..., . (3)
s1 sn−1

Pour tout k ∈ J1, n − 1K, puisque S est semi-réduite, en choisissant le vecteur


défini par w = ek+1 = (0, . . . , 1, . . . , 0) où le 1 est à la (k + 1)-ième place, l’image
par la forme quadratique associée est t wSw = sk+1 et donc sk+1 > sk par la
propriété (II). Ainsi, les fractions (3) sont supérieures à 1.
Soit γ = 14 n(n − 1). On est dans l’un des deux cas
sn sk+1 sk
< γ, . . . , < γ, > γ, pour un k ∈ J2, nK,
sn−1 sk sk−1

ou
s2 sn
,..., < γ.
s1 sn−1
• Supposons que le second cas est réalisé. On a alors, en multipliant les fractions
de manière télescopique, que sr /s1 < γ r−1 pour tout r ∈ J2, nK. On en tire alors
s1 · · · sn n(n−1)

n <γ 2 .
s1

269
48. Théorème de Minkowski pour les formes quadratiques

Or on peut écrire
s1 · · · sn s1 · · · sn sn1
= · .
|S| sn1 |S|
L’inégalité d’Hermite (rappelée en commentaire, voir également le Développe-
ment 46) assure qu’il existe une constante Cn > 0 telle que s1 6 Cn |S|1/n .
Cela permet alors de conclure car on obtient, en combinant les deux inégalités
précédentes,
s1 · · · sn n(n−1)
< Cn γ 2 .
|S|
• Supposons que le premier cas est réalisé pour un certain k ∈ J2, nK. On note la
forme quadratique associée S[x] = t xSx pour toute matrice S ∈ Sn (R) et tout
vecteur x ∈ Rn . On écrit la matrice S sous la forme
!
Sk−1 Q
S= tQ (4)
R

où Sk−1 ∈ Mk−1 (R), Q ∈ Mk−1,n−k+1 (R) et R ∈ Mn−k+1 (R). On a alors, pour


tout x ∈ Rn écrit sous la forme x = (y, z) où y ∈ Rk−1 et z ∈ Rn−k+1 , on a
h i
−1 −1
S[x] = Sk−1 y + Sk−1 Qz + (R − t QSk−1 Q)[z]. (5)

−1
Notons T = R − t QSk−1 Q. On reconnaît dans l’écriture (4) une décomposition
−1
diagonale par blocs : en notant y 0 = y + Sk−1 Qz, on constate en effet que (5) se
réécrit alors sous la forme S[x] = diag(Sk−1 , T )[y 0 , z]. On en déduit la relation
entre les déterminants |T | = |S|/|Sk−1 |.
−1
Notons que T est définie-positive. En effet, en prenant y = −Sk−1 Qz dans (5) on
obtient que, pour tout z ∈ R n−k+1 ,

T [z] > 0.

Considérons un vecteur z ∈ Zn−k+1 un vecteur qui minimise T [z]. Ses coordonnées


sont alors premières entre elles, sinon on pourrait les factoriser par leur pgcd
et obtenir un vecteur de Zn−k+1 d’image strictement inférieure (voir Développe-
ment 47 pour une preuve formelle de ce fait). Par le théorème d’Hermite et ce qui
précède, il vient alors
1/(n−k+1)
|S|

T [z] 6 Cn−k+1 . (6)
|Sk−1 |

−1
Notons w = y + Sk−1 Qz ∈ Rk−1 où y ∈ Rk−1 est un vecteur entier tel que les
composantes wi , pour i ∈ J1, k − 1K, de w soient dans [−1/2, 1/2]. Par le choix
de z fait précédemment, x = (y, z) est un vecteur entier dont les composantes
d’indices k, . . . , n sont premières entre elles. Ainsi, par la propriété (II), on a

sk 6 S[x].

270
Formes quadratiques et géométrie

Or Sk−1 = (sij )i,j∈J1,k−1K est semi-réduite, on peut alors utiliser 11 les deux
propriétés suivantes :
• on a les inégalités s1 6 · · · 6 sk−1 ;
• pour tous r, ` ∈ J1, k − 1K avec ` < r, on a 2|sr` | 6 s` .
Notons que la matrice S est symétrique de sorte que sr` = s`r pour tous les
indices r, ` ∈ J1, k − 1K. La seconde propriété ci-avant donne 2|sr` | 6 smin(r,`) pour
tout r = 6 `, et par la première propriété cette quantité est toujours inférieure
à sk−1 . En utilisant de plus la borne des coefficients |wi | 6 1/2 pour i ∈ J1, k − 1K,
k−1
X 1 k−1
X
Sk−1 [w] = sij wi wj 6 |sij |
i,j=1
4 i,j=1
 
k−1 k−1
11
X X 
6 sk−1 + sk−1 
4  2 i,j=1 i=1

i6=j
(k − 1)(k − 2) + 2(k − 1)
6 sk−1
8
k(k − 1)
6 sk−1 .
8

Puisqu’on est dans le premier cas, on a sk−1 6 γ −1 sk , d’où

k(k − 1) 4 1
Sk−1 [w] 6 · sk 6 sk .
8 n(n − 1) 2

Rappelons que sk 6 S[x] = Sk−1 [y] + T [z] 6 12 sk + T [z]. Par la borne (6) on en
déduit que
|S| 1/(n−k+1)
 
sk 6 2Cn−k+1 . (7)
|Sk−1 |
En écrivant la décomposition

s1 · · · sn s1 · · · sk−1 |Sk−1 | n−k+1 sk · · · sn


= · · sk · n−k+1 ,
|S| |Sk−1 | |S| sk

on peut borner les différents termes comme suit :


• le premier quotient est borné par ck−1 par l’hypothèse de récurrence ;
• le terme sk est borné par (7) ;
si
• le dernier quotient concerne les indices k, . . . , n pour lesquels si−1 < γ pour
tout i ∈ Jk, nK ; on peut alors utiliser le raisonnement du premier cas et
(n−k)(n−k+1)
borner le quotient par γ 2 .
11. Ces deux propriétés sont classiques pour les formes quadratiques semi-réduites, voir
Développement 47. Il suffit en effet d’appliquer la propriété (II) avec le vecteur de la base
canonique ei pour le premier point, et avec les vecteurs er ± el pour le second point.

271
48. Théorème de Minkowski pour les formes quadratiques

En multipliant ces majorants, on obtient alors la borne


s1 · · · sn (n−k)(n−k+1)
6 ck−1 (2Cn−k+1 )n−k+1 γ 2 .
|S|
En prenant pour cn le maximum de toutes les bornes précédentes, pour k ∈ J2, nK,
ainsi que celle obtenue pour le premier cas, on obtient l’inégalité voulue au rang n.
Par récurrence, cela achève la preuve du théorème de Minkowski.

Commentaires.
© Le développement repose sur l’utilisation de l’inégalité d’Hermite, présentée
dans le Développement 46, qui s’énonce comme suit :
Il existe une constante Cn > 0 telle que pour toute matrice symétrique
réelle définie-positive S ∈ Mn (R), on a
t
min xSx 6 Cn |S|1/n .
x∈Zn \{0}

© Il faut garder en tête que les matrices symétriques et les formes quadratiques
en dimension finie sont les mêmes objets. Ainsi, les résultats généraux gagnent
souvent à être prouvés par récurrence, sans pertre de vue l’interprétation des
décompositions matricielles en termes de formes, quadratiques : en effet, la symétrie
est une propriété qui se transmet aux sous-blocs diagonaux.
© La preuve du résultat énoncé en question a) ainsi que sa réciproque mentionnée
dans les exercices, peut faire l’objet d’un développement très élémentaire.

Questions.
1. Trouver la valeur optimale pour la constante c2 ?
Indication : considérer une forme quadratique semi-réduite générique de la forme
ax2 + 2bxy + cy 2 sur R2 , puis calculer le déterminant. Vérifier l’optimalité de la
constante avec la forme quadratique x2 + xy + y 2 .
2. Montrer que si toutes les matrices extraites de S ∈ Sn (R) obtenues en ne
conservant que les r premières lignes et colonnes, 1 6 r 6 n, sont définies-positives,
alors il en va de même pour S.
3. Montrer que si S ∈ Sn (R) est définie-positive est écrite sous la forme
!
S1 Y
S= tY S2

où S1 ∈ Mm (R), S2 ∈ Mn−m (R) et Y ∈ Mm,n−m (R), alors |S| 6 |S1 | · |S2 |.


4. Justifier la décomposition (2).
5. Montrer qu’il existe un vecteur entier z ∈ Zn−k+1 aux entrées premières entre
elles qui minimise T [z].
6. Dans la question b), justifier l’existence d’un vecteur y à coordonnées entières
tel que w ait ses coordonnées dans [−1/2, 1/2].

272
Développements d’analyse
Analyse fonctionnelle et topologie

La topologie est une géométrisation de l’espace, sans contrainte de dimension ou


de métrique, permettant de formaliser l’intuition et les arguments géométriques.
En géométrie classique ou dans les espaces de dimension finie, la topologie est déjà
présente comme conséquence de la métrique sous-jacente. Mais si les questions
portent sur la classification des nœuds dans un ensemble ou sur des espaces de
distributions, il n’est plus nécessairement possible d’avoir une métrique adaptée.
La notion fondamentale en topologie est celle de proximité, formalisée par la notion
de voisinage. Les objets peuvent être déformés (Dév. 53) tant qu’ils ne sont pas
déchirés, i.e. tant que les ouverts et les voisinages sont conservés : c’est la notion
d’homéomorphie. Cette notion de proximité peut être renforcée, en imposant de
plus des notions d’être « en un seul morceau » — la connexité (Dév. 79) — ou
d’avoir des descriptions ou des approximations finies — la compacité (Dév. 50).
L’objectif de la topologie est donc de remplacer les notions classiques de boules, de
distance, de limite, etc. par des notions plus générales, permettant de travailler sur
une plus grande classe d’espaces. D’une certaine manière, les espaces topologiques
sont les plus vastes permettant de donner un sens à la notion de continuité et de
limite. La topologie sous-tend donc toute l’analyse, notamment dans l’étude des
espaces de fonctions classiques, souvent de dimension infinie, parmi lesquels les
importants espaces de Lebesgue Lp (Dév. 54, 66, 67).
L’analyse fonctionnelle est le domaine particulier de ces espaces de fonctions et
de leurs propriétés topologiques. Ces propriétés peuvent être plus fines que la
seule notion d’ouverts, et les espaces peuvent se voir adjoindre des notions de
norme (les espaces normés), des propriétés de convergence (les espaces complets),
des propriétés géométriques (dans les espaces préhilbertiens), etc. Les espaces
de Hilbert (Dév. 50, 49, 51) sont ainsi l’archétype du succès de ces structures
générales, puisqu’il s’agit d’une synthèse entre la géométrie (donnée par un produit
scalaire) et l’analyse (effectuée dans un espace complet).
Analyse fonctionnelle et topologie

Développement 49 (Compacts d’un espace de Hilbert séparable FF)

Soit H un espace de Hilbert et h·, ·i le produit scalaire sous-jacent. On dit


qu’un sous-ensemble X de H admet des restes uniformément petits si pour
toute famille orthonormale complète (ek )k∈N de H, on a
X
∀ε > 0, ∃N ∈ N, ∀x ∈ X, |hx, ek i|2 6 ε. (1)
k>N

a) Montrer qu’une suite convergente admet des restes uniformément petits.


b) Montrer qu’un compact de H admet des restes uniformément petits.
c) Montrer que tout ensemble fermé et borné de H admettant des restes
uniformément petits est compact.
Nous avons ainsi prouvé la caractérisation des compacts hilbertiens :

Un sous-ensemble K de H est compact si, et seulement si, il est


fermé, borné et admet des restes uniformément petits.

Leçons concernées : 203, 205, 213

Les espaces de Hilbert sont le bon cadre pour faire de la géométrie euclidienne
dans des espaces de dimension infinie. Ce développement illustre la particularité
géométrique de ces espaces (205, 213), dans lesquels l’existence de systèmes
orthonormaux complets, ou familles totales, donnent une importance particulière
aux approximations par densité. Si de nombreux résultats d’algèbre linéaire et
de topologie ne demeurent plus en dimension infinie, la structure des espaces de
Hilbert séparables permet de remplacer l’existence des décompositions selon une
base par un développement en série selon une famille totale. En particulier, cela
permet ici de caractériser les ensembles compacts (203) en termes de convergence
uniforme des restes des décompositions en séries selon une famille totale.

Correction.
a) Soit (ek )k∈N une famille orthonormale complète de H. Considérons (un )n∈N
une suite de H convergeant vers une limite u. Par l’inégalité de Bessel on a, pour
tout u ∈ H, X
|hu, ek i|2 6 kuk2 .
k>0

La convergence de cette série implique en particulier la convergence des restes


associés vers zéro. Ainsi, pour tout ε > 0, il existe N1 ∈ N tel que
X ε
|hu, ek i|2 6 .
k>N
2
1

Soit F la fermeture de l’espace engendré par les ek avec k > N1 . Définissons la


projection orthogonale P sur cet espace, donnée par
X
Px = hx, ek iek , ∀x ∈ H.
k>N1

277
49. Compacts d’un espace de Hilbert séparable

La convergence de un vers u dans H et la continuité de P impliquent en particulier


la convergence de P un vers P u. À partir d’un certain rang N2 ∈ N, on a donc
kP un − P uk 6 2ε pour n > N2 . Cela implique que pour tout n > N2 , on a

kP un k 6 kP uk + kP un − P uk
X ε
6 |hu, ek i|2 +
k>N
2
1

6 ε.

Il ne reste alors qu’un nombre fini de valeurs de n 6 N2 pour lesquelles vérifier


que la majoration demeure. Pour chacune de ces valeurs, par l’inégalité de Bessel,
il existe N10 ∈ N assez grand tel que les restes à partir de N10 sont plus petits que ε.
Puisqu’il n’y a qu’un nombre fini de valeurs concernées, il est donc possible de
prendre N > N1 suffisamment grand tel que pour tout n ∈ N,
X
kP un k2 = |hun , ek i|2 6 ε.
k>N

Ainsi, (un )n∈N admet des restes uniformément petits.


b) Supposons que K est un compact de H ne vérifiant pas la propriété des restes
uniformément petits. En particulier, il existe une famille orthogonale (ek )k∈N
et ε > 0 tels que, pour tout p > 0, il existe up ∈ K tels que
X
|hup , ek i|2 > ε. (2)
k>p

Alors la suite (up )p∈N est une suite du compact K, de sorte qu’elle admet une
sous-suite convergente dans K, que nous pouvons noter (uϕ(p) )p∈N . Par la question
précédente, cela implique qu’elle admet des restes uniformément petits, autrement
dit X
∃N ∈ N, ∀p ∈ N, |huϕ(p) , ek i|2 6 ε.
k>N

En particulier, pour p tel que ϕ(p) > N , l’inégalité (2) n’est pas vérifiée. Ainsi, un
compact de H est un fermé, borné et satisfait la condition des restes uniformément
petits.
c) Soit K un ensemble fermé, borné et satisfaisant la condition des restes uni-
formément petits pour tout système orthonormé complet (ek )k∈N de H. On veut
prouver que K est compact. Soit (un )n∈N une suite de K. Il suffit de prouver
qu’elle admet une sous-suite convergente. Par complétude de H et puisque K est
fermé, il suffit de prouver que (un )n∈N admet une sous-suite de Cauchy.
Pour tout k > 1, la suite (hun , ek i)n∈N est une suite bornée de C. En effet, par
l’inégalité de Cauchy-Schwarz, on a |hun , ek i| 6 kun k qui est donc borné car K est
borné. Par le théorème de Bolzano-Weierstrass, la suite (hun , ek i)n∈N admet donc
une sous-suite convergente. Nous allons construire par récurrence une sous-suite
de (un )n∈N telle que les suites (hun , ek i)n∈N sont convergentes pour tout k ∈ N.

278
Analyse fonctionnelle et topologie

• La suite (hun , e1 i)n∈N est bornée, donc par compacité existe une sous-suite
(uϕ1 (n) )n∈N de (un )n∈N telle que (huϕ1 (n) , e1 i)n∈N converge.
• La suite (huϕ1 (n) , e2 i)n∈N est bornée, il existe donc une sous-suite (uϕ2 (n) )n∈N
de (uϕ1 (n) )n∈N telle que (huϕ2 (n) , e1 i)n∈N et (huϕ2 (n) , e2 i)n∈N convergent.
• En itérant le procédé, pour tout k > 1, on obtient ainsi une sous-suite (uϕk (n))n
de (un )n telle que (huϕk (n) , ei i)n converge pour tout i 6 k.
Considérons alors la suite diagonalement extraite vn = uϕn (n) de (un )n . Pour
tout k > 0, la suite (hvn , ek i)n converge puisqu’il s’agit d’une suite extraite à partir
d’un certain rang — à savoir k — de la suite (huϕk (n) , ek i)n qui est convergente
par construction.
Prouvons que la suite (vn )n est de Cauchy. Soit ε > 0. Considérons N ∈ N tel
que, pour tous n, ` > 0,
X ε2 X ε2
2 |hvn , ek i|2 6 et 2 |hvn+` , ek i|2 6 ,
k>N
3 k>N
3

ce qui est possible par la propriété des restes uniformément petits. De plus, pour
tout n ∈ N suffisamment grand on a, pour tout ` > 0,
X ε2
|hvn − vn+` , ek i|2 6 ,
k6N
3N

puisque les suites (hvn , ek i)n , pour k 6 N , sont convergentes donc de Cauchy et
en nombre fini. L’inégalité du parallélogramme donne alors, pour n suffisamment
grand et pour tout ` > 0,
X X
kvn − vn+` k2 = |hvn − vn+` , ek i|2 + |hvn − vn+` , ek i|2
k6N k>N
X X X
2
6 |hvn − vn+` , ek i| + 2 |hvn , ek i|2 + 2 |hvn+` , ek i|2
k6N k>N k>N
2
6ε .
Ainsi on obtient, pour tout n suffisamment grand,
∀` > 0, kvn − vn+` k 6 ε.
Ainsi la suite (vn )n est une sous-suite de Cauchy de (un )n , donc une sous-suite
convergente de H par complétude. Ainsi, K est compact.

Commentaires.
© Dans tout espace métrique, un compact est nécessairement fermé et borné, cela
demeure en particulier dans le cadre des espaces de Hilbert. Le théorème de Heine-
Borel donne une réciproque dans le cas des espaces vectoriels de dimension finie
sur R ou C. De plus, dans ce cadre des espaces de dimension finie, la convergence
d’une suite est équivalence à la convergence de la suite de ses composantes. Ces
propriétés tombent toutes en défaut en dimension infinie, et il est nécessaire
d’ajouter des propriétés supplémentaires aux caractères fermé et borné pour
assurer la compacité, ainsi que l’illustre ce développement.

279
49. Compacts d’un espace de Hilbert séparable

© Ce critère de compacité est un joli résultat théorique. Toutefois, il est fortement


dépendant de l’existence d’une famille orthonormale complète de H, ce qui est
équivalent à la séparabilité de H. C’est en quelque sorte peu satisfaisant, car il
n’existe que peu d’espaces de Hilbert séparables : ils sont soit de dimension finie,
soit isomorphes à l’espace
+∞
( )
X
2 N 2
` (N) = (un )n∈N ∈ C : |un | < +∞ ,
n=0

muni de la norme
+∞
X
k(un )n k2 = |un |2 .
n=0

Il existe une caractérisation des compacts valable pour tous les espaces de Hilbert,
généralisant le résultat prouvé dans ce développement :
Soit H un espace de Hilbert. Un ensemble K ⊂ H est compact si,
et seulement si, il est fermé, borné, et pour tout ε > 0 il existe un
sous-espace W de dimension finie de H tel que

sup inf ku − wk < ε.


u∈K w∈W

Cette dernière condition est en somme une condition d’approximabilité par la


dimension finie. Cela rappelle fortement la caractérisation des opérateurs compacts
comme étant ceux approchables par des opérateurs de rang fini.

Questions.
1. Montrer que la projection orthogonale P de H est continue.
2. Montrer que dans un espace métrique, l’ensemble des éléments d’une suite
convergente ainsi que sa limite forment un ensemble compact.
3. Donner une preuve de l’identité du parallélogramme :

∀x, y ∈ H, kx + yk2 + kx − yk2 = 2(kxk2 + kyk2 ).

4. Montrer qu’un espace vectoriel normé est préhilbertien si, et seulement si, sa
norme vérifie l’identité du parallélogramme (théorème de Fréchet-von Neumann-
Jordan).

280
Analyse fonctionnelle et topologie

Développement 50 (Opérateurs compacts d’un espace de Hilbert FF)

Soit H un espace de Hilbert séparable de dimension infinie. Un opérateur


linéaire borné K ∈ B(H) est dit compact si l’adhérence de K(B(0, 1)) est
compacte dans H, où B(0, 1) désigne la boule unité de H.
a) Montrer que K est limite d’opérateurs de rang fini.
b) Montrer qu’une limite K ∈ B(H) d’opérateurs de rang fini est compacte.

Leçons concernées : 201, 203, 208, 213

Ce développement donne une caractérisation des opérateurs compacts d’un espace


de Hilbert séparable comme limites d’opérateurs de rang fini. Cela en fait un
exemple de résultat pertinent pour la leçon sur les espaces de fonctions (201),
à condition qu’elle contienne une partie sur les opérateurs, et bien sûr pour la
leçon sur les espaces vectoriels normés et leurs applications linéaires (208). La
compacité est une propriété critique pour ce résultat, rendant le développement
pertinent pour la leçon associée (203). Enfin, le cadre principal dans lequel cette
preuve s’insère reste celui des espaces de Hilbert (213).

Correction.
a) Supposons que K est un opérateur compact, de sorte que K(B(0, 1)) est
relativement compacte, c’est-à-dire d’adhérence compacte. Cela est équivalent
à être inclus dans un compact de H. En particulier (voir les commentaires ci-
après ou le Développement 49), l’image K(B(0, 1)) vérifie la propriété des restes
uniformément petits : pour toute famille totale (ek )k∈N de H et tout ε > 0, il
existe un entier N ∈ N tel que pour tout u ∈ B(0, 1) on a
X
|hK(u), ek i|2 6 ε2 . (1)
k>N

Définissons les sommes partielles de la décomposition de K(u) selon (ek )k∈N en


posant, pour tout n > 0,
X
Kn (u) = hK(u), ek iek .
k6n

Les Kn sont des opérateurs linéaires de rang fini car, quel que soit n ∈ N, l’image
de Kn est contenue dans l’espace engendré par les ek pour k 6 n. Puisque (ek )k∈N
est un système orthogonal on a, par la propriété (1) des restes uniformément
petits, pour tout u ∈ B(0, 1) et tout n > N ,
X X
kK(u) − Kn (u)k2 = |hK(u), ek i|2 6 |hK(u), ek i|2 6 ε2 .
k>n k>N

En particulier on a, par définition de la norme d’opérateurs sur H,


kK − Kn kB = sup kK(u) − Kn (u)k 6 ε.
u∈B(0,1)

Ainsi, (Kn )n∈N converge vers K au sens de la norme d’opérateurs.

281
50. Opérateurs compacts d’un espace de Hilbert

b) Soit (Kn )n∈N une suite d’opérateurs de rang fini convergeant vers K. Il faut
prouver que K est un opérateur compact, autrement dit que K(B(0, 1)) est
relativement compacte. Puisque K est un opérateur borné par hypothèse, on a
en particulier K(B(0, 1)) est borné et il en va donc de même pour son adhérence,
qui est également fermée. Par la caractérisation des compacts dans les espaces
de Hilbert séparables (voir Développement 49), pour montrer que K(B(0, 1)) est
compact il suffit de prouver qu’il satisfait la propriété des restes uniformément
petits, autrement dit que pour toute famille orthonormale complète (ek )k∈N et
pour tout ε > 0, il existe N ∈ N tel que pour tout u ∈ B(0, 1),
X
|hK(u), ek i|2 6 ε. (2)
k>N

Soit PN la projection orthogonale sur l’orthogonal de l’espace engendré par les


vecteurs ek pour k 6 N , de sorte que pour tout u ∈ H on a
X
u= hu, ek iek + PN (u).
k6N

Alors kPN k = 1 pour tout N > 0 puisque H est de dimension infinie. Soit ε > 0.
On cherche N ∈ N tel que si u ∈ B(0, 1), alors l’inégalité (2) est vérifiée ; autrement
dit tel que la borne kPN (K(u))k 6 ε est vérifiée pour tout u ∈ B(0, 1). Or on a
par l’inégalité triangulaire, pour tout n,

kPN (K(u))k 6 kPN ((K − Kn )(u))k + kPN (Kn (u))k. (3)

Pour n suffisamment grand, on a kK − Kn kB 6 ε/2 par l’hypothèse que K est


limite de la suite (Kn )n∈N . Puisque kPN k = 1, il vient en particulier que pour
tout u ∈ B(0, 1) on a
kPN ((K − Kn )(u))k 6 ε/2.
De plus, les Kn sont des opérateurs compacts puisque de rang fini, donc pour
un certain N suffisamment grand la propriété (2) assure que, pour u ∈ B(0, 1),
on a la majoration kPN (Kn (u))k 6 ε/2. On obtient ainsi kPN (K(u))k 6 ε par
l’inégalité (3). Ainsi, K(B(0, 1)) est compacte, autrement dit K est un opérateur
compact, ce qu’il fallait démontrer.

Commentaires.
© On a prouvé la caractérisation suivante des opérateurs compacts d’un espace
de Hilbert séparable :
Soit H un espace de Hilbert séparable. Un opérateur linéaire borné
K ∈ B(H) est compact si, et seulement si, il est limite d’une suite
d’opérateurs de rang fini.
Autrement dit, l’ensemble des opérateurs compacts est la fermeture dans H de
l’ensemble des opérateurs de rang fini dans l’ensemble des opérateurs bornés.
C’est une caractérisation importante et utile en pratique, puisque les opérateurs

282
Analyse fonctionnelle et topologie

de rang fini sont plus faciles à manipuler. Toutefois, attention à ne pas oublier
l’hypothèse : la limite doit être bornée ; il existe en effet des suites d’opérateurs
de rang fini convergeant vers un opérateur non borné.
En voyant les opérateurs compacts comme limites d’opérateurs de rang fini, on
pourrait suggérer que la compacité d’un opérateur n’est pas une propriété très
forte. Toutefois il n’en est rien : dans un espace de Hilbert de dimension infinie,
la boule unité n’est pas compacte de sorte que l’identité elle-même n’est pas un
opérateur compact.
© Rappelons la propriété des restes uniformément petits, utilisée de manière
centrale dans ce développement et caractérisant les compacts de H. Elle est
prouvée dans le Développement 49 de cet ouvrage.
Soit H un espace de Hilbert séparable. Un ensemble X est compact
dans H si, et seulement si, il est fermé, borné et si pour toute famille
orthonormale complète (ek )k∈N de H, on a
X
∀ε > 0, ∃N ∈ N, ∀x ∈ X, |hx, ek i|2 6 ε.
k>N

© Rappelons l’un des grands faits concernant les opérateurs compacts autoad-
joints : il s’agit du théorème spectral. En dimension finie, puisque tous les opé-
rateurs linéaires sont compacts, il s’énonce sous la forme plus habituelle de
diagonalisabilité des opérateurs symétriques réels ou hermitiens complexes. Dans
le cas plus général des espaces de Hilbert, on a le théorème spectral suivant :
Pour tout opérateur auto-adjoint compact K d’un espace de Hilbert H,
il existe une famille totale de H formée de vecteurs propres de K. Plus
précisément, l’orthogonal de Ker(K) admet soit une base orthonormale
finie de vecteurs propres de K, soit une famille totale infinie (ek )k∈N
de vecteurs propres de K associés aux valeurs propres (λk )k∈N . De
plus, on a λk → 0 lorsque k → +∞.
Cette propriété admet par ailleurs une réciproque : un opérateur K défini par une
famille totale de vecteurs propres (ek )k∈N telle que K(ek ) = λk ek pour tout k > 0
et λk → 0 lorsque k → +∞ est compact. Cette équivalence illustre notamment
la contrainte forte qu’est la propriété de compacité. En excluant un nombre fini
de vecteurs ek , l’opérateur K n’a que des très petites valeurs propres, donnant
une lecture a posteriori plus limpide du théorème : les opérateurs compacts sont
« presque » des opérateurs de rang fini.

Questions.
1. Prouver que kPN k = 1 si H est de dimension infinie. Que se passe-t-il en
dimension finie ?
2. Prouver que dans un espace de Hilbert séparable, l’ensemble K(H) des opéra-
teurs compacts forment un idéal bilatère fermé dans B(H) et stable par passage à
l’adjoint.
Remarque : on peut montrer que K(H) est le seul idéal bilatère non trivial de
l’ensemble des opérateurs linéaires de H.

283
50. Opérateurs compacts d’un espace de Hilbert

3. Montrer qu’un opérateur compact ne peut avoir d’inverse borné sur un espace
de Hilbert séparable de dimension infinie.
4. Soit H = L2 ([0, 1]). Définissons l’opérateur M par, pour tout f ∈ H,

M (f ) : x ∈ [0, 1] 7→ xf (x).

Montrer que M est borné et auto-adjoint, mais pas compact.


5. Montrer qu’un opérateur K est compact si, et seulement si, pour toute suite
bornée (un )n∈N , alors la suite (K(un ))n∈N admet une sous-suite convergente.
6. Montrer que si K est un opérateur compact sur un espace de Hilbert H, alors
pour toutes suites (un )n∈N et (vn )n∈N on a, lorsque n tend vers l’infini,

un * u, vn * v =⇒ hK(un ), vn i → hK(u), vi.

284
Analyse fonctionnelle et topologie

Développement 51 (Décomposition de Mityagin FF)

Soit H un espace de Hilbert séparable de dimension infinie. Considérons une


famille orthonormale totale (en )n∈N∗ de H.
a) Soient B un opérateur linéaire borné de H et ε > 0.
(i) Montrer qu’il existe une partition de N∗ en K t L t R avec K, L et R
infinis et tels que
ε
∀k ∈ K, ∀` ∈ L, |hB(ek ), e` i| 6 . (1)
2`

(ii) Montrer qu’il existe une décomposition H = EK ⊕ EL ⊕ ER , avec trois


sous-espaces fermés EK , EL , ER de H, de dimension infinie, deux à
deux orthogonaux et tels que si PK , PL , PR désignent les projections
orthogonales associées à cette décomposition, on a

|||PL ◦ B ◦ PK ||| 6 ε.

b) Soit B ∈ GL(H). Montrer qu’il existe un chemin dans GL(H) reliant B à


un opérateur A ∈ GL(H) tel que PL ◦ A ◦ PK = 0.

Leçons concernées : 208, 213

Le cadre des espaces de Hilbert est très agréable pour faire de l’algèbre linéaire,
puisqu’il se rapproche grandement de celui de la dimension finie : tout vecteur se
décompose suivant une « base » hilbertienne, et la convergence de la série associée
est donnée par l’inégalité de Bessel. Ainsi, ce résultat est un développement
bienvenu dans la leçon sur les espaces de Hilbert (213), et une illustration de la
leçon sur les espaces vectoriels normés (208).

Correction.
a) (i) On construit par récurrence deux suites strictement croissantes (ki )i∈N∗
et (`j )j∈N∗ à valeurs dans N∗ vérifiant la propriété
ε
∀i, j ∈ N∗ , |hB(eki ), e`j i| 6 , (2)
2`j

et telles que
∀j > 1, 2kj < `j < kj+1 .

Posons k1 = 1. Puisque (en )n∈N∗ est une famille totale de H, n |hB(e1 ), en i|2
P

converge d’après l’inégalité de Bessel, donc hB(e1 ), en i tend vers zéro lorsque n
tend vers +∞. En particulier, il existe un indice `1 tel que |hB(e1 ), e` i| 6 ε/4
pour tout ` > `1 . On peut supposer sans perte de généralité que `1 > 2k1 .
Par construction, on a
ε
|hB(ek1 ), e`1 i| 6 `1 . (3)
2

285
51. Décomposition de Mityagin

Soit N ∈ N∗ . On suppose construits k1 , ..., kN et `1 , ...`N vérifiant


ε
∀i, j ∈ J1, N K , |hB(eki ), e`j i| 6 , (4)
2`j

et tels que
∀j > 1, 2kj < `j < kj+1 .

On construit maintenant kN +1 et `N +1 .

• Notons B ∗ l’opérateur adjoint de B, qui existe car B ∈ B(H) est continu.


Alors, pour tout j ∈ J1, N K on a par définition hB(en ), e`j i = hB ∗ (e`j ), en i.
Puisque la famille (en )n∈N∗ est totale dans H, pour tout j ∈ J1, N K on sait
que hB ∗ (e`j ), en i tend vers 0 lorsque n → +∞ par l’inégalité de Bessel. Il
existe donc kN +1 > `N tel que |hB(ekN +1 ), e`j i| < ε/2`j pour tout j ∈ J1, N K.
Cette propriété est également vraie en remplaçant kN +1 par n’importe lequel
des ki pour i ∈ J1, N K d’après (4).
• De même, par l’inégalité de Bessel, pour tout i ∈ J1, N + 1K la suite des
hB(eki ), e` i tend vers 0 lorsque ` → +∞. Il existe donc `N +1 > 2kN +1 tel
que |hB(eki ), e`N +1 i| < ε/2`N +1 pour tout i ∈ J1, N + 1K. Cette propriété est
également vraie en remplaçant `N +1 par n’importe lequel des indices `j pour
j ∈ J1, N K d’après la construction du point précédent.

On a donc bien construit kN +1 et `N +1 vérifiant les propriétés attendues au


rang N + 1, d’où, par récurrence, l’existence des deux suites (ki )i∈N∗ et (`j )j∈N∗
croissantes et disjointes vérifiant la propriété (1).
On pose
K = {ki }i>1 et L = {`j }j>1 .

Pour tout i ∈ N∗ , les éléments 2ki ne sont dans aucune des suites (ki )i∈N∗
ou (`j )j∈N∗ par construction. Or les 2ki sont tous distincts, donc l’ensemble
R = N∗ \ (K ∪ L) est infini, d’où la propriété attendue.
(ii) Il suffit de considérer la partition de N∗ en K, L et R telle que construite
à la question précédente et de définir EK (resp. EL et ER ) comme l’adhérence
dans H du sous-espace de H engendré par la famille (ek )k∈K (resp. par les familles
(e` )`∈L et (er )r∈R ).
Pour tout u ∈ H, on peut écrire le projeté PK (u) ∈ EK sous la forme
X
PK (u) = hPK (u), ek iek ,
k∈K

et, de manière analogue pour le projeté sur EL ,


X
PL (u) = hPL (u), e` ie` .
`∈L

286
Analyse fonctionnelle et topologie

On obtient alors pour tout u ∈ H, par les décompositions précédentes ainsi que
par bilinéarité et continuité du produit scalaire,
X
PL ◦ B ◦ PK (u) = PL (B ◦ PK (u)) = hB ◦ PK (u), e` ie`
`∈L
*   +
X X
= B hPK (u), ek iek , e` e`
`∈L k∈K
XX
= hB(ek ), e` ihPK (u), ek ie` .
`∈L k∈K

On obtient ainsi, pour tout u ∈ H, par la propriété (1) et l’inégalité de Bessel,


XX
kPL ◦ B ◦ PK (u)k2 = |hB(ek ), e` ihPK (u), ek i|2
`∈L k∈K
X X
= |hPK (u), ek i|2 |hB(ek ), e` i|2
k∈K `∈L
X X ε2
6 |hPK (u), ek i|2
k∈K `∈L
22(`+1)
X
2 2
6ε |hPK (u), ek i|
k∈K
6 ε2 kPK (u)k2
6 ε2 kuk2 .

Ainsi, |||PL ◦ B ◦ PK ||| 6 ε comme voulu.


b) Soit ε > 0 tel que ε2 < |||B −1 |||−1 . Considérons les ensembles L, K et R
associés à ε construits à la question a)(i). Introduisons la courbe

γ : [0, 1] −→ GL(H)
s 7−→ B − sPL ◦ B ◦ PK .

Montrons que cette courbe est d’image contenue dans GL(H). En effet, puisque
B ∈ GL(H) on peut écrire, pour tout s ∈ [0, 1],

γ(s) = B − sPL ◦ B ◦ PK = B ◦ (Id − sB −1 ◦ PL ◦ B ◦ PK ).

Ainsi, γ(s) est inversible dès que Id − sB −1 ◦ PL ◦ B ◦ PK l’est. Comme GL(H)


est un ouvert et comme Id ∈ GL(H), cela est le cas dès que sB −1 ◦ PL ◦ B ◦ PK
est de norme strictement inférieure à 1. Or la question précédente et l’hypothèse
sur ε impliquent que |||PL ◦ B ◦ PK ||| 6 ε < |||B −1 |||−1 . Par sous-multiplicativité
de la norme d’opérateur, on a alors

|||B −1 ◦ PL ◦ B ◦ PK ||| 6 |||B −1 ||| · |||PL ◦ B ◦ PK ||| < 1,

de sorte que γ(s) ∈ GL(H) pour tout s ∈ [0, 1]. Ainsi, l’image de la courbe γ est
bien contenue dans GL(H).

287
51. Décomposition de Mityagin

En notant A = B(1), on voit donc que γ est un chemin continu reliant B à A


dans GL(H).
Vérifions pour finir que PL ◦ A ◦ PK = 0. Comme PK et PL sont des projecteurs,
on en déduit que PL2 = PL et PK 2 = P , et donc que
K

PL ◦ A ◦ PK = PL ◦ B ◦ PK − PL2 ◦ B ◦ PK
2
= 0,

ce qu’il fallait démontrer.

Commentaires.
© Ce développement donne un résultat de décomposition partielle d’un espace
de dimension infinie en la somme de trois sous-espaces de dimension infinie
également, vérifiant la propriété PL ◦ B ◦ PK = 0. Les projections construites
lors de ce développement, à savoir PK , PL et PR , donnent une identification
entre H et la somme directe externe H ⊕ H ⊕ H, permettant de réduire l’étude
de l’opérateur B à l’étude de matrices par blocs de taille 3 × 3 dont les blocs
sont eux-mêmes des matrices représentatives d’opérateurs sur H. La condition
PL ◦ B ◦ PK = 0 signifie en particulier que dans ce formalisme, l’application
linéaire B admet une « matrice » de la forme
 
∗ ∗ ∗
 0 ∗ ∗ .
 
∗ ∗ ∗

C’est donc un début de réduction de l’endomorphisme B.


© Il est possible d’aller plus loin dans cette réduction. Considérons

P1 = B ◦ PK ◦ B −1 ◦ (Id − PK ) et P2 = Id − PL − PK .

On vérifie alors aisément les relations


PL ◦ P1 = PL ◦ P2 = P2 ◦ PL = P1 ◦ PL = 0, P12 = P1 ,
P2 ◦ P1 = P1 ◦ P2 , P22 = P2 .

Ainsi, P1 et P2 sont des projecteurs qui commutent. En introduisant P3 = Id − PL ,


on vérifie également que

P1 ◦ B ◦ PK = B ◦ PK , P2 ◦ B ◦ PK = 0 et P3 ◦ B ◦ PK = 0.

On en tire une décomposition de H en H = Im(P1 ) ⊕ Im(P2 ) ⊕ Im(P3 ). Il vient


alors que B se réduit sous la forme
 
P1 ◦ B ◦ PK ? ?
0 ? ? .
 

0 ? ?

© Des manipulations assez élémentaires permettent alors de relier la matrice B à


l’identité par un chemin continu. En poursuivant ce raisonnement dû à Mityagin,
on obtient le surprenant théorème de Kuiper :

288
Analyse fonctionnelle et topologie

Si H est un espace de Hilbert séparable de dimension infinie, alors tout


compact de GL(H) est contractile dans GL(H), i.e. peut se déformer
continûment en un point.

Ce résultat dit essentiellement que la géométrie de GL(H) est triviale lorsque H


est de dimension infinie : GL(H) est en particulier simplement connexe, i.e. « sans
aucun trou », c’est-à-dire que tous les lacets peuvent se déformer continûment en
un point (notons toutefois que cette dernière condition n’est pas suffisante pour
assurer le caractère contractile d’un ensemble : par exemple, on peut montrer
que la sphère unité de R3 est simplement connexe mais non contractile). Cela
est loin de la situation de la dimension finie, où les groupes linéaires GLn (C) ne
sont pas contractiles, ni même simplement connexes ; plus précisément, le groupe
fondamental des GLn (C) est isomorphe à Z.

Questions.
1. Justifier l’existence de l’adjoint d’un opérateur continu d’un espace de Hilbert.
2. Détailler les calculs sur les sommes effectués dans la question a)(ii).
3. Montrer qu’un espace de Hilbert est séparable si et seulement s’il possède une
famille totale.
4. Expliquer pourquoi deux espaces de Hilbert séparables sont isomorphes.
5. Montrer que GL(H) est ouvert dans L(H).
6. Soit B ∈ GL(H). Montrer que A − B est inversible si |||A||| < |||B −1 |||−1 . Cette
inégalité est-elle également une condition nécessaire ?
7. Montrer que la norme d’opérateur est sous-multiplicative, autrement dit que
pour tous A, B ∈ B(H), on a |||AB||| 6 |||A||| · |||B|||.
8. Montrer que le théorème de Kuiper est faux en dimension finie : il existe un
lacet de GLn (C) qui ne se déforme pas continûment en un point.
Indication : si un lacet γ de matrices se déforme continûment en un point, alors il
en va de même du lacet det ◦ γ dans C.

289
52. Une isométrie de L2 (R+ ) non surjective

Développement 52 (Une isométrie de L2 (R+ ) non surjective FF)

Pour tout f ∈ L2 (R+ ), on définit la fonction gf : R+ → C par


Z x
gf (x) = f (x) − 2e−x et f (t)dt
0

pour presque tout x ∈ R+ .


a) Montrer que si f ∈ L2 (R+ ), alors en définissant la fonction ϕf sur R+ par
Z x
ϕf (x) = et f (t)dt,
0

on a, pour tout x ∈ R+ ,
Z x Z x
1

2
e ϕf (t) dt = − e−2x |ϕf (x)|2 + Re
−t −t
e ϕf (t)f (t)dt . (1)
0 2 0

b) En déduire que si f ∈ L2 (R+ ), alors gf ∈ L2 (R+ ) et kgf k2 = kf k2 .


c) Montrer que l’application

T : L2 (R+ ) −→ L2 (R+ )
f 7−→ gf

est une isométrie non surjective de L2 (R+ ).

Leçons concernées : 201, 202, 208, 213, 234

Ce développement relativement élémentaire utilise l’intégration par parties et


des arguments d’approximation de fonctions de carré intégrable par des fonctions
continues pour obtenir un exemple non trivial d’isométrie non surjective de L2 (R+ ).
Il trouve bien entendu sa place dans les leçons traitant des espaces de Sobolev Lp
(201, 208, 234), mais aussi dans la leçon sur la densité (202). En traitant la
question b) par la méthode indiquée en commentaire, on peut en outre illustrer
la leçon sur les espaces de Hilbert (213) — on remarquera que seul le caractère
préhilbertien de l’espace L2 (R+ ) est utilisé, et non sa complétude.

Correction.
a) Soit x ∈ R+ . Supposons tout d’abord que f ∈ L2 (R+ ) est continue. Alors ϕf
est de classe C 1 sur R+ , et ϕ0f (t) = et f (t) pour tout t > 0. En intégrant la fonction
continue t 7→ e−2t et en dérivant |ϕf |2 , on a par intégration par parties
Z x Z x
2
e−t ϕf (t) dt = e−2t |ϕf (t)|2 dt
0 0
Z x
1

= − e−2x |ϕf (x)|2 + Re e−t ϕf (t)f (t)dt ,
2 0

ce qui est l’identité (1).

290
Analyse fonctionnelle et topologie

Revenons à présent au cas général f ∈ L2 (R+ ). On considère une suite (fn )n∈N
de fonctions de L1 (R+ ) ∩ L2 (R+ ) continues sur R+ et convergeant dans L1 (R+ )
vers la fonction tronquée f 1[0,x] , ce qui est possible par exemple par densité de
l’ensemble des fonctions de classe C ∞ à support compact dans L2 (R+ ). Le cas des
fonctions continues traité précédemment donne, pour tout n ∈ N :
Z x Z x
1

2
e−t ϕfn (t) dt = − e−2x |ϕfn (x)|2 + Re e−t ϕfn (t)fn (t)dt . (2)
0 2 0

Or (ϕfn )n∈N converge uniformément vers ϕf sur [0, x] puisque

|ϕfn (t) − ϕf (t)| 6 ex kfn − f k1

pour tout t ∈ [0, x] et tout n ∈ N. Par ailleurs, l’inégalité triangulaire implique

e−t ϕfn (t)fn (t) − e−t ϕf (t)f (t) = e−t ϕfn (t)fn (t) − ϕf (t)f (t)

6 ϕfn (t)fn (t) − ϕf (t)f (t)

6 ϕfn (t)fn (t) − ϕfn (t)f (t) + ϕfn (t)f (t) − ϕf (t)f (t)

6 fn (t) − f (t) sup |ϕfn | + f (t) sup |ϕfn − ϕf |


[0,x] [0,x]

pour tout t ∈ [0, x], d’où


Z x Z x
−t
e ϕfn (t)fn (t)dt − e−t ϕf (t)f (t)dt
0 0
6 kfn − f k1 sup |ϕfn | + kf k1 sup |ϕfn − ϕf | .
[0,x] [0,x]

Comme les ϕfn et ϕf sont continues, on a sup[0,x] |ϕfn | → sup[0,x] |ϕf | < +∞. On
en déduit Z x Z x
−t
e ϕfn (t)fn (t)dt −−−−−→ e−t ϕf (t)f (t)dt.
0 n→+∞ 0
On obtient alors (1) en faisant tendre n vers +∞ dans l’identité (2).
b) Soit f ∈ L2 (R+ ). Posons hf (x) = e−x ϕf (x) pour tout x ∈ R+ . Montrons dans
un premier temps que hf ∈ L2 (R+ ) et hf f ∈ L1 (R+ ). On remarque que
Z x Z x Z x
1

2
|hf | 6 − |hf (x)|2 + Re hf f 6 |hf f |
0 2 0 0

pour tout x > 0 d’après la question a). Or l’inégalité de Cauchy-Schwarz donne


Z x Z x  1 Z x 1
2 2
2 2
|hf f | 6 |hf | |f |
0 0 0

d’où
Z x Z x  1 Z x 1
2 2
|hf |2 6 |hf |2 |f |2
0 0 0

291
52. Une isométrie de L2 (R+ ) non surjective

R 1
et donc, en simplifiant l’inégalité par 0x |hf |2 2 dans le cas où 0x |hf |2 6= 0 (dans
R

le cas contraire, l’inégalité est évidemment vraie) puis en élevant au carré,


Z x Z x
|hf |2 6 |f |2
0 0

pour tout x > 0. En faisant tendre x vers l’infini, on trouve finalement que
Z +∞
|hf |2 6 kf k22 < +∞,
0

donc hf ∈ L2 (R+ ). Comme hf et f (et donc f ) sont dans L2 (R), on obtient alors
bien que hf f ∈ L1 (R+ ).
Réécrivons à présent l’identité (1) sous la forme suivante :
 Z x  Z x 
∀x ∈ R+ , |hf |2 (x) = 2 Re hf f − |hf |2 . (3)
0 0

Comme |hf |2 et hf f sont intégrables, la relation (3) implique que |hf |2 admet une
limite finie en +∞. Cette limite ne peut être que 0 puisque |hf |2 est intégrable,
donc en passant à la limite dans (3) on obtient
Z +∞ Z +∞ 
2
|hf | = Re hf f .
0 0

On a donc les égalités suivantes :


Z +∞ Z +∞
2
|gf | = |f − 2hf |2
0 0
Z +∞ Z +∞  Z +∞
2
= |f | − 4Re hf f +4 |hf |2
0 0 0
Z +∞
= |f |2 ,
0

la première égalité ayant lieu a priori dans R+ ∪ {+∞} et la deuxième étant


justifiée par la linéarité de l’intégrale puisque |f |2 , hf f et |hf |2 sont intégrables.
On en déduit comme attendu que gf ∈ L2 (R+ ) et kgf k2 = kf k2 .
c) L’application T est bien définie d’après la question b), et elle est clairement
linéaire. Pour montrer qu’elle n’est pas surjective, on va montrer que les éléments
de l’image de T vérifient des conditions nécessaires que ne remplissent pas tous
les éléments de L2 (R+ ). Considérons g ∈ L2 (R+ ) et supposons qu’il existe f dans
L2 (R+ ) telle que g = gf . Alors, pour tout t ∈ R+ , g(t) = f (t) − 2e−t ϕf (t), et
donc e−t g(t) = e−t f (t) − 2e−2t ϕf (t). Si x ∈ R+ , en intégrant cette égalité sur le
segment [0, x] on obtient
Z x Z x Z x
e−t g(t) dt = e−t f (t) dt − 2 e−2t ϕf (t)dt. (4)
0 0 0

292
Analyse fonctionnelle et topologie

On intègre par parties l’expression e−2t ϕf (t) (en dérivant ϕf et en primitivant la


fonction t 7→ e−2t ) pour trouver
Z x Z x
1 1
e−2t ϕf (t)dt = − e−2x ϕf (x) + e−t f (t)dt (5)
0 2 2 0
pour tout x ∈ R+ . La relation (4) se simplifie alors en
Z x Z x
−t −2x
e g(t) dt = e et f (t) dt,
0 0
soit Z x Z x
ex e−t g(t) dt = e−x et f (t) dt.
0 0
Comme g = gf , on obtient enfin, pour presque tout x ∈ R+ ,
Z x
f (x) = g(x) + 2e−x et f (t) dt
0
Z x
= g(x) + 2e x
e−t g(t) dt.
0

Une fonction g dans l’image de T est donc nécessairement telle que la fonction
f : R+ → R définie par
Z x
f (x) = g(x) + 2e x
e−t g(t) dt (6)
0

soit dans L2 (R+ ). Ce n’est évidemment pas le cas si g est telle que lim+∞ f = +∞,
ce qui est vérifié dès que g est positive et non presque partout nulle (par exemple
lorsque g : t 7→ e−t ). L’application T n’est donc pas surjective.

Commentaires.
© Tout au long de ce développement, on a commis l’abus de langage consistant
à considérer comme des fonctions les classes d’équivalence de fonctions pour
l’égalité sur presque tout R+ . Il est cependant bon de garder à l’esprit que les
quantités f (x) et gf (x) ne sont bien définies que pour presque tout x ∈ R+ . Les
fonctions φf et hf sont quant à elles définies sur R+ tout entier.
© On peut établir le résultat de la question b) en utilisant le produit scalaire
hermitien h·, ·i de L2 (R+ ). Pour ce faire, on procède en cinq étapes :
1. On établit tout d’abord que si f1 et f2 sont dans L2 (R+ ), alors
Z x
1
e−2t ϕf1 (t)ϕf2 (t)dt = − e−2x ϕf1 (x)ϕf2 (x)
0 2
1 x −t 
Z 
+ e ϕf1 (t)f2 (t) + f1 (t)ϕf2 (t) dt (7)
2 0
pour tout x ∈ R+ .
Cette identité peut être obtenue soit par un calcul direct comme dans
la question a) (auquel cas son énoncé et sa preuve peuvent remplacer la
question a)), soit en utilisant la question a) et l’identité de polarisation
ϕf1 (t)ϕf2 (t) = |ϕf1 +f2 (t)|2 − |ϕf1 −f2 (t)|2 + i |ϕf1 −if2 (t)|2 − i |ϕf1 +if2 (t)|2 .

293
52. Une isométrie de L2 (R+ ) non surjective

2. On calcule hg1A , g1B i pour tous A et B boréliens bornés de R+ :


Z +∞
hg1A , g1B i = g1A (t)g1B (t)dt
0
Z +∞ Z +∞
= 1A (t)1B (t)dt − 2 1A (t)e−t ϕ1B (t)dt
0 0
Z +∞ Z +∞
−t
−2 1B (t)e ϕ1A (t)dt + 4 e−2t ϕ1A (t)ϕ1B (t)dt
0 0
Z +∞
= λ(A ∩ B) − 2 1A (t)e−t ϕ1B (t)dt
0
Z +∞ Z +∞
−t
−2 1B (t)e ϕ1A (t)dt + 4 e−2t ϕ1A (t)ϕ1B (t)dt,
0 0
(8)
où λ est la mesure de Lebesgue sur R+ . Or
Z x
e−2t ϕ1A (t)ϕ1B (t)dt
0
Z x
1 1  
= − e−2x ϕ1A (x)ϕ1B (x) + e−t 1A (t)ϕ1B (t) + ϕ1A (t)1B (t) dt (9)
2 2 0

pour tout x ∈ R+ d’après (7), et ϕ1A et ϕ1B sont bornées puisque A et B


sont bornés, d’où, en passant à la limite dans (9),
Z +∞ Z +∞
1  
e−2t ϕ1A (t)ϕ1B (t)dt = e−t 1A (t)ϕ1B (t) + ϕ1A (t)1B (t) dt.
0 2 0

On déduit alors de (8) que


hg1A , g1B i = λ(A ∩ B).
En particulier, on a kg1A k22 = λ(A), et si A et B sont disjoints, alors g1A
et g1B sont orthogonales dans L2 (R+ ).
3. On montre que T préserve la norme des fonctions étagées.
Pour α1 , . . . , αn ∈ C et A1 , . . . , An des intervalles bornés disjoints de R+ ,
n
! 2 n 2
X X
T αk 1Ak = αk g1Ak
k=1 2 k=1 2
n
X
= |αk |2 kg1Ak k22
k=1
Xn
= |αk |2 λ(Ak )
k=1

d’après le point précédent puisque les g1Ak sont deux à deux orthogonales.
On en déduit
n
! 2 n 2
X X
T αk 1Ak = αk 1Ak ,
k=1 2 k=1 2
ce qu’il fallait démontrer.

294
Analyse fonctionnelle et topologie

4. On montre que T est continue.


Ce point résulte du fait que Id − T est la fonction f 7→ 2hf , où h est définie
comme dans la question b). On peut alors montrer que f 7→ hf est continue
en établissant la relation khf k22 6 kf k22 comme au début de la question b).
5. On obtient enfin que T est une isométrie en rappelant que l’ensemble des
fonctions étagées est dense dans L2 (R+ ) et que T est continue.

Questions.
1. Pourquoi la fonction |ϕf |2 est-elle dérivable lorsque f ∈ L2 (R+ ) est continue ?
2. Détailler les intégrations par parties effectuées dans le développement.
3. Si f ∈ L2 (R+ ) et x ∈ R+ , définir une suite (fn )n∈N de fonctions continues de
L1 (R+ ) ∩ L2 (R+ ) convergeant vers f 1[0,x] dans L1 (R+ ).
4. Donner un exemple de fonction f : R+ → C continue appartenant à L2 (R+ )
mais pas à L1 (R+ ).
5. Donner un exemple de fonction f : R+ → C continue appartenant à L1 (R+ )
mais pas à L2 (R+ ).
6. Dans la réponse à la question a), aurait-on pu simplement considérer une suite
(fn )n∈N de L2 (R+ ) continue sur R+ et convergeant vers f 1[0,x] dans L2 (R+ ) ?
7. Rappeler pourquoi, si f1 , f2 ∈ L2 (R+ ), alors f1 f2 ∈ L1 (R+ ).
8. Établir l’égalité (5) en utilisant le théorème de Fubini.
9. Si g ∈ L2 (R+ ) et si f est définie par (6), justifier que la limite de f en +∞ est
égale à +∞ lorsque g est positive et non presque partout nulle.
10. Une isométrie d’un espace vectoriel de dimension finie dans lui-même peut-elle
être non surjective ?
11. Montrer que la transformation de Fourier est une isométrie bijective de L2 (R).
12. Donner d’autres exemples d’isométries non surjectives d’un espace vectoriel
dans lui-même.
13. Détailler l’argument de densité qui clôt la preuve de la question b) donnée en
commentaire.
14. Est-il suffisant de savoir qu’une application linéaire préserve la norme sur un
sous-espace vectoriel dense de L2 (R+ ) pour déduire qu’il s’agit d’une isométrie ?

295
53. Logarithme et théorème de Brouwer

Développement 53 (Logarithme et théorème de Brouwer FF)

On se propose de démontrer le résultat suivant :


Soit n > 1. Soit K un compact de Rn étoilé par rapport à 0. Alors
toute fonction f ∈ C(K, C∗ ) admet un logarithme continu, i.e. il
existe une fonction g ∈ C(K, C) telle que f = exp(g).

a) Existence d’un logarithme.


Rappelons qu’un groupe topologique (G, ·) est un ensemble muni d’une to-
pologie et d’une structure de groupe telles que les opérations (a, b) 7−→ a · b
de G × G dans G et a 7−→ a−1 de G dans G sont continues. On notera 1G
l’élément neutre de G.
(i) Montrer que si (G, ·) est un groupe topologique connexe, alors il est
engendré par tout voisinage de 1G .
(ii) On note (F(K, C∗ ), ·) le groupe formé par l’ensemble des fonctions de K
dans C∗ muni du produit de fonctions. Vérifier que C(K, C∗ ) est un
sous-groupe de F(K, C∗ ), et qu’il s’agit d’un groupe topologique pour la
topologie de la convergence uniforme sur K.
(iii) Montrer que C(K, C∗ ) est connexe par arcs.
(iv) Soit G l’ensemble des fonctions continues de K dans C∗ admettant un
logarithme continu. Vérifier que G est un sous-groupe de C(K, C∗ ).
(v) Montrer que G contient un voisinage de 1G dans C(K, C∗ ). Conclure.
b) Théorème de Brouwer en dimension 2.
En guise d’application on démontre le théorème de Brouwer en dimension 2 :
Toute fonction continue de D dans D admet un point fixe, où D
désigne le disque unité fermé de R2 .
On suppose qu’il existe une application continue de D dans D n’admettant
pas de point fixe.
(i) Construire une application continue r de D dans ∂D dont la restriction
à ∂D est l’identité.
(ii) Montrer que r admet un logarithme continu induisant un homéomor-
phisme entre ∂D et un segment I de R. En déduire une contradiction.

Leçons concernées : 101, 204, 267

Ce développement est une preuve de l’existence du logarithme continu de fonctions


ainsi que du théorème de Brouwer en dimension 2. Il utilise très fortement la
connexité et illustre ainsi parfaitement la leçon 204. Les arguments employés ne
présentent en réalité que peu de difficulté et mettent en avant la puissance et
l’élégance de la notion de connexité. Il a également toute sa place dans la leçon 267,

296
Analyse fonctionnelle et topologie

pour laquelle « le concept de connexité par arcs, le théorème du relèvement [...] sont
des sujets d’investigation pertinents » (extrait du rapport du jury de l’agrégation
2019). Il peut enfin être proposé pour illustrer la leçon 101, dans laquelle une partie
consacrée aux actions topologiques est tout à fait cohérente. Si le développement
semble long en termes de rédaction, on peut passer assez rapidement sur des
vérifications simples, voire moduler le développement en omettant la question b)(ii)
et le théorème de Brouwer, quitte à uniquement mentionner en commentaire qu’il
s’en déduit alors facilement de la question b)(i), laquelle est déjà un résultat
intéressant en soi (voir commentaire sur le rétract ci-après).

Correction.
a) (i) Soient V un voisinage ouvert de 1G et GV le groupe engendré par V .
Alors
• 1G ∈ GV car 1G ∈ V ; en particulier GV n’est pas vide.
• GV est un ouvert de G. En effet, puisque V ⊂ GV , on peut écrire
[
GV = g · V,
g∈GV

et chaque g · V est un ouvert, car g · V = f −1 (V ) où f : h 7→ g −1 · h est


une fonction continue et V est ouvert. Ainsi GV est ouvert comme réunion
d’ouverts.
• GV est un fermé de G. En effet, pour tout g ∈ G \ GV , on a g · V ⊂ G \ GV .
On peut alors écrire [
G \ GV = g · V,
g∈G\GV

où pour tout g ∈ G \ GV , l’ensemble g · V est un ouvert pour les mêmes


raisons que précédemment, de sorte que G \ GV est un ouvert de G, i.e. GV
est un fermé de G.
Ainsi GV est à la fois un ouvert et un fermé non vide de G. Par connexité de G,
nécessairement GV = G.
(ii) On sait que l’ensemble F(X, G) des fonctions d’un ensemble X dans un
groupe G est toujours un groupe pour la loi produit. Or C∗ est un groupe pour la
multiplication, donc F(K, C∗ ) est un groupe pour la multiplication de fonctions,
de surcroît commutatif par commutativité de C∗ . De plus on sait que 1F (K,C∗ ) est
un élément de C(K, C∗ ), et que C(K, C∗ ) est stable par produit et par inversion.
Ainsi C(K, C∗ ) est un sous-groupe de F(K, C∗ ).
Reste à montrer la continuité des opérations de groupe. La loi produit est bien
une application continue de C(K, C∗ )2 dans C(K, C∗ ). En effet, soient g et h des
éléments de C(K, C∗ ) et (gn )n∈N et (hn )n∈N des suites de C(K, C∗ ) convergeant
uniformément respectivement vers g et h. Alors en utilisant l’inégalité triangulaire,
on a
kgn · hn − g · hk∞ = kgn · (hn − h) + (gn − g) · hk∞
6 kgn k∞ khn − hk∞ + khk∞ kgn − gk∞ −−−−−→ 0,
n→+∞

297
53. Logarithme et théorème de Brouwer

car kgn k∞ tend vers kgk, et khn − hk∞ et kgn − gk∞ tendent vers 0, ce qui montre
la continuité de la loi produit.
Enfin, pour la continuité de l’inverse, considérons une suite (gn )n∈N d’éléments de
C(K, C∗ ) convergeant uniformément vers une fonction g ∈ C(K, C∗ ). En vertu de
la continuité des fonctions |gn | et de |g|, de la compacité de K et du fait que les
fonctions gn et g ne s’annulent pas, on a

∀n ∈ N, inf |gn (x)| = min |gn (x)| > 0,


x∈K x∈K

et
inf |g(x)| = min |g(x)| > 0.
x∈K x∈K

Ainsi

1 1 |gn (x) − g(x)|


gn−1 − g −1 = sup − = sup
∞ x∈K gn (x) g(x) x∈K |gn (x)g(x)|
kgn − gk∞
6 ,
(minK |gn |) (minK |g|)

Puisque (gn )n∈N converge uniformément vers g, la suite (minK |gn |)n∈N converge
vers minK |g|, donc le majorant de l’inégalité précédente converge bien vers 0
lorsque n tend vers l’infini, ce qui montre la continuité de l’opération d’inversion.
Finalement C(K, C∗ ) est bien un groupe topologique.
(iii) On montre que toute application g ∈ C(K, C∗ ) peut être reliée par un arc à
l’application constante x 7→ g(0), laquelle peut elle-même être reliée à l’application
1C(K,C∗ ) . Pour g ∈ C(K, C∗ ), on pose l’application

γ : [0, 1] −→ C(K, C∗ )
t 7−→ γt := (x 7→ g(tx)),

qui est bien définie ; en effet, quels que soient t ∈ [0, 1] et x ∈ K, on a tx ∈ K


car K est étoilé par rapport à 0. Montrons que γ est une application continue
de [0, 1] dans C(K, C∗ ). Puisque g est continue sur K, qui est un compact, g est
uniformément continue sur K d’après le théorème de Heine. Ainsi, en notant ωg
le module de continuité de g, on a, pour tous t1 , t2 ∈ [0, 1] et tout x ∈ K,

|(γt1 − γt2 )(x)| = |g(t1 x) − g(t2 x)| 6 ωg (|t1 − t2 | · |x|) 6 ωg (M |t1 − t2 |),

où M := maxx∈K |x|, d’où la continuité de γ. Or γ0 = g(0) et γ1 = g, donc γ est


un arc joignant g et l’application identiquement égale à g(0). Il est alors facile de
voir que x 7→ g(0) peut-être reliée à 1C(K,C∗ ) par un chemin continu (d’applications
constantes) dans C(K, C∗ ), car C∗ est connexe par arcs. Ainsi n’importe quelle
application g ∈ C(K, C∗ ) peut être reliée par un arc à 1C(K,C∗ ) , ce qui montre
que C(K, C∗ ) est connexe par arcs.

298
Analyse fonctionnelle et topologie

(iv) Il s’agit de vérifier que les propriétés d’un sous-groupe sont satisfaites :
• L’élément neutre du groupe C(K, C∗ ), noté 1C(K,C∗ ) , qui est la fonction iden-
tiquement égale à 1, admet évidemment un logarithme continu, car 1 = exp(0),
donc 1C(K,C∗ ) ∈ G.
• Si g1 , g2 ∈ G, alors par définition il existe des fonctions h1 et h2 ∈ C(K, C) telles
que g1 = exp(h1 ) et g2 = exp(h2 ). Donc g1 g2 = exp(h1 +h2 ), où h1 +h2 ∈ C(K, C),
donc g1 · g2 admet un logarithme continu, i.e. g1 · g2 ∈ G.
• Si g ∈ G, il existe h ∈ C(K, C) tel que g = exp(h), donc g −1 = exp(−h),
donc g −1 admet un logarithme continu, i.e. g −1 ∈ G.
Ainsi, G est un sous-groupe de C(K, C∗ ).
(v) Soit g ∈ B(1G , 1/2), où B(1G , 1/2) désigne la boule ouverte dans C(K, C∗ )
de rayon 1/2 et centrée en 1G . Posant f := g − 1G , on a f ∈ C(K, C), g = 1G + f
et kf k∞ < 1/2. Étant donné que |f (x)| < 1/2 pour tout x ∈ K, on peut définir
l’application
h : K −→ C
+∞
X (−1)k
x 7−→ f (x)k = ln(1 + f (x)),
k=1
k

où ln désigne la détermination principale du logarithme sur



z ∈ C : |z − 1| < 1/2 ,

de sorte que h est continue et exp(h(x)) = 1 + f (x) = g(x) quel que soit x ∈ K.
Ainsi g admet un logarithme continu, d’où B(1G , 1/2) ⊂ G, et par conséquent G
contient un voisinage de 1G , qu’on note V . Notons GV le groupe engendré par V .
Alors on a bien évidemment GV ⊂ G ⊂ C(K, C∗ ), mais également C(K, C∗ ) = GV ,
car C(K, C∗ ) est engendré par tout voisinage de son élément neutre d’après les
questions a)(i) et a)(iii), d’où

C(K, C∗ ) = GV ⊂ G ⊂ C(K, C∗ ).

Ainsi G = C(K, C∗ ), c’est-à-dire que tout élément de C(K, C∗ ) admet un logarithme


continu.
b) (i) Si f ∈ C(D, D) n’admet pas de point fixe, on a x − f (x) 6= 0 quel que
soit x ∈ D, de sorte qu’on peut définir une application r : D → ∂D comme suit.
On définit r(x) comme l’unique intersection de ∂D avec la demi-droite ouverte
d’origine f (x) et menée par x − f (x) (voir Figure 2.1), i.e.

r(x) = f (x) + t(x)(x − f (x)),

où t(x) > 0 est tel que |r(x)| = 1. Remarquons que pour tout x ∈ ∂D, par
définition r(x) = x, donc r est bien égale à l’identité sur ∂D. Il suffit ensuite de
voir que r est continue, et pour cela il suffit de montrer que x 7→ t(x) est continue.
À un point x ∈ D fixé, cherchons t = t(x) tel que |r(x)|2 = 1. On obtient

|r(x)|2 = 1 ⇐⇒ Px (t) := |x − f (x)|2 t2 + 2t[f (x) · (x − f (x))] + |f (x)|2 − 1 = 0.

299
53. Logarithme et théorème de Brouwer

r(x)
1 x •

f (x) •

0 1

Figure 2.1 – Construction d’une rétraction.

Remarquons que Px est un trinôme du second degré en t dont le coefficient


dominant est strictement positif, où
Px (0) = |f (x)|2 − 1 6 0 et Px (1) = |x|2 − 1 6 0,
donc nécessairement Px admet une racine négative ou nulle, et une racine supé-
rieure ou égale à 1 (celle qu’on recherche). Ainsi le discriminant
h i
∆(x) := 4 |f (x) · (f (x) − x)|2 + (1 − |f (x)|2 ) |x − f (x)|2
est strictement positif et continu, et on a
p
2(f (x) · (f (x) − x)) + ∆(x)
t(x) = .
2 |f (x) − x|2
p
Puisque le discriminant est strictement positif et continu, x 7→ ∆(x) est une
fonction continue, donc x 7→ t(x) est continue. Ainsi r est une fonction continue
de D dans ∂D telle que sa restriction à ∂D est l’identité.
(ii) Soit r la fonction construite dans la question précédente. En assimilant R2
au plan complexe, r est un élément de C(D, C∗ ) et D est un compact étoilé par
rapport à 0, donc d’après la question a), la fonction r admet un logarithme continu,
i.e. il existe f ∈ C(D, C) telle que r = exp(f ). Comme r est à valeurs dans le cercle
unité, on a Re(f ) = 0, donc en notant ϕ := Im(f ) ∈ C(D, R) on a r = exp(iϕ).
De plus, la restriction de r à ∂D est l’identité, d’où
∀x ∈ ∂D, x = r(x) = exp(iϕ(x)).
Remarquons que la restriction de ϕ à ∂D est injective, car pour tous x, y ∈ ∂D
on a
ϕ(x) = ϕ(y) =⇒ exp(iϕ(x)) = exp(iϕ(y))
⇐⇒ r(x) = r(y)
⇐⇒ x = y.

300
Analyse fonctionnelle et topologie

Posant I = ϕ(∂D) ⊂ R, on conclut que ϕ|∂D est une bijection continue entre ∂D
et I, et comme ∂D est un compact, ϕ|∂D est un homéomorphisme. Par ailleurs I est
un compact connexe comme image d’un compact connexe par une application conti-
nue, donc I est un segment. Mais alors le fait que ϕ réalise un homéomorphisme
entre ∂D et I est absurde. En effet, on peut voir que le segment I = [a, b] ne peut
être homéomorphe à ∂D en raisonnant par connexité : introduisons x = ϕ|−1 ∂D (a)
et y = ϕ|−1∂D (b) les antécédents par ϕ| ∂D de a et b respectivement, alors d’une part
−1
l’ensemble ϕ|∂D (]a, b[) est connexe comme image d’un connexe par l’application
continue ϕ|−1 −1
∂D , mais d’autre part on remarque que ϕ|∂D (]a, b[) = ∂D \ {x, y} n’est
pas connexe, car x 6= y. En conclusion toute application continue de D dans D
admet un point fixe.

Commentaires.
© Dans la question b)(ii) on montre en réalité que ∂D n’est pas un rétract de D.
En effet, étant donné un espace topologique X et un ensemble A ⊂ X, on dit
que A est un rétract de X si l’application identité de A dans A se prolonge en
une application continue r ∈ C(X, A). L’application r est appelée une rétraction
de X sur A.
© Remarquons que si l’identité Id : ∂D → ∂D ne peut s’étendre en une application
continue de D dans ∂D, elle peut néanmoins s’étendre en une application continue
de D dans C en appliquant le théorème de Tietze-Urysohn aux parties réelle et
imaginaire de l’identité.
© Le théorème de Brouwer est également vrai en dimension finie supérieure, et
se généralise même à tout espace euclidien : toute application continue de la
boule unité fermée d’un espace euclidien dans elle-même admet un point fixe.
Les démonstrations de ce résultat font alors généralement appel à des notions
de calcul différentiel, et pas uniquement des arguments de continuité. À noter
également l’existence du théorème du point fixe de Schauder, qui généralise encore
le théorème de Brouwer pour des espaces de Banach quelconques.
© Une alternative pour montrer dans la question a)(v) que G contient un voisinage
de 1G est d’utiliser le théorème d’inversion locale pour déduire que l’exponentielle
réalise un difféomorphisme entre un voisinage de 0 dans C et un voisinage de 1
dans C∗ . L’avantage de cette méthode est qu’elle permet de généraliser facilement
l’existence d’un logarithme continu pour toute fonction de C(K, GLn (C)), où K
est un compact étoilé par rapport à 0 de Mn (C) (voir questions ci-après). On
pourrait même généraliser le résultat à C(K, G) où K est un compact étoilé par
rapport à 0 de g, l’algèbre de Lie associée à un groupe de Lie connexe G, puisqu’il
existe un voisinage U de 0 dans g et un voisinage V de 1G dans G tels que
exp : U → V est un difféomorphisme d’après le théorème de Cartan-von Neumann
(voir Développement 55).

301
53. Logarithme et théorème de Brouwer

Questions.
1. Soit (G, ·) un groupe topologique, et soit V un voisinage de 1G . On considère GV
le groupe engendré par V . Justifier que pour tout g ∈ G \ GV , l’ensemble g · V
est inclus dans G \ GV .
2. Montrer que C∗ est connexe par arcs.
3. Montrer le théorème de Brouwer en dimension 1, i.e. que toute fonction continue
de [0, 1] dans [0, 1] admet un point fixe.
4. Montrer que si f est une bijection continue d’un espace topologique com-
pact K dans un espace topologique séparé, alors f −1 est continue, i.e. f est un
homéomorphisme.
Indication : montrer que f est fermée, et que ceci implique la continuité de f −1 .
5. Montrer que si un espace topologique est localement connexe par arcs et
connexe, alors il est connexe par arcs.
6. Montrer que si K est un compact quelconque, l’ensemble G défini dans la
question a)(iv) est égal à G0 , où G0 désigne la composante connexe de 1C(K,C∗ ) .
Indication : on pourra se servir de la question précédente pour déduire que G0 est
en fait la composante connexe par arcs de 1C(K,C∗ ) . Montrer alors que G0 est un
sous-groupe de C(K, C∗ ) contenant G.
7. Montrer que GLn (K) est un groupe topologique, pour K = R ou C.
8. Montrer que le groupe GLn (C) est connexe. En déduire qu’il est engendré
par n’importe quel voisinage de la matrice identité In . Le groupe GLn (R) est-il
également engendré par n’importe quel voisinage de In ?
9. Pour K = R ou C, on rappelle que l’exponentielle de matrices est l’application

exp : Mn (K) −→ GLn (K)


+∞
X Ak
A 7−→ exp(A) := .
k=0
k!

Montrer que cette application est bien définie et continue sur Mn (K).
10. Soit K un compact de Mn (C) étoilé par rapport à 0. Montrer que toute
fonction f ∈ C(K, GLn (C)) admet un logarithme continu, i.e. il existe une fonc-
tion g ∈ C(K, Mn (C)) telle que f = exp(g).
Indication : on pourra se servir des questions 7 à 9 et du dernier point en
commentaire en étudiant la différentiabilité de l’exponentielle, en particulier au
voisinage de 0.

302
Analyse fonctionnelle et topologie

Développement 54 (Théorème de Riesz-Fischer F)

Soient n ∈ N∗ , p ∈ [1, ∞] et Ω un ouvert de Rn . Considérons la norme de


Lebesgue sur l’espace des fonctions à valeurs complexes Lp (Ω), définie par
 Z 1
p
|f |p

si p < +∞,


kf kp = Ω
sup|f | si p = +∞.



a) Supposons p = +∞. Montrer que Lp (Ω) est complet.


b) Supposons p < +∞.
(i) Montrer qu’une suite de Cauchy d’un espace vectoriel normé (E, k · k)
qui admet une valeur d’adhérence est convergente dans E.
(ii) Montrer que Lp (Ω) est complet (théorème de Riesz-Fischer).

Leçons concernées : 201, 205, 208, 234, 241

Les espaces Lp (Ω) sont des espaces de fonctions (201, 234) fondamentaux en ana-
lyse fonctionnelle, notamment en raison de leur complétude (205) qui constitue le
sujet principal de ce développement. L’argumentation repose sur des manipulations
élémentaires de suites de Cauchy ainsi que sur le théorème de convergence dominée
et ses variations, faisant de ce développement une bonne illustration des leçons
sur les espaces vectoriels normés (208) et sur les suites et séries de fonctions
Lebesgue-intégrables (241).

Correction.
a) Soit (fn )n∈N une suite de Cauchy dans L∞ (Ω). Montrons que (fn )n∈N est une
suite qui converge dans L∞ (Ω). Puisque c’est une suite de Cauchy, pour tout k > 1
il existe un nk ∈ N tel que
1
∀q, r > nk , kfr − fq k∞ 6 .
k
Cela signifie que, pour tout entier k > 1 et pour tous q, r > nk , il existe un
sous-ensemble de Ω de mesure nulle Ek,q,r tel que
1
∀x ∈
/ Ek,q,r , |fr (x) − fq (x)| 6 . (1)
k
Introduisons [
E= Ek,q,r ,
k>1
q,r>nk

qui est un ensemble de mesure nulle comme union dénombrable d’ensembles de


mesures nulles. On a alors
1
∀k > 1, ∀q, r > nk , ∀x ∈
/ E, |fr (x) − fq (x)| 6 .
k

303
54. Théorème de Riesz-Fischer

Il s’ensuit que (fn (x))n∈N est une suite de Cauchy pour tout x ∈/ E. Par complétude
de C, pour tout x ∈ / E la suite (fn (x))n∈N converge donc vers une limite que nous
notons f (x) pour tout x ∈ / E. En laissant r tendre vers l’infini dans le critère de
Cauchy (1) il vient alors que, pour tout x ∈ / E et tout k > 1,

1
∀q > nk , |f (x) − fq (x)| 6 , (2)
k

donc f est essentiellement bornée d’après l’inégalité triangulaire. Puisque l’inéga-


lité (2) est valable pour tout x ∈ Ω\E, elle est valable presque partout, de sorte
que l’on a f − fq ∈ L∞ (Ω) et kf − fq k∞ 6 k1 pour tout q > nk . Cela prouve la
convergence de la suite (fn )n∈N vers f dans l’espace L∞ (Ω), qui est donc bien
complet.
b) (i) Soit (fn )n∈N une suite de Cauchy dans E. Supposons qu’il existe une
sous-suite (fφ(n) )n∈N qui converge dans E et notons f sa limite. Soit ε > 0. Alors,
il existe n1 ∈ N tel que
ε
∀n > n1 , kfφ(n) − f kp 6 .
2

De plus, par le critère de Cauchy, pour tout ε > 0 il existe n2 ∈ N tel que
ε
∀r, s > n2 , kfr − fs kp 6 .
2

Pour tout n > n2 , puisque φ est une extractrice, on a φ(n) > n > n2 . Il vient
alors, par inégalité triangulaire et les inégalités ci-avant,

∀n > max (n1 , n2 ) , kfn − f kp 6 kfn − fφ(n) kp + kfφ(n) − f kp 6 ε,

donc (fn )n∈N converge vers f dans E.


(ii) Soit (fn )n∈N une suite de Cauchy dans Lp (Ω). D’après la question précédente,
pour établir la convergence de (fn )n∈N , il suffit de prouver l’existence d’une sous-
suite de (fn )n∈N convergente dans Lp (Ω). Par le critère de Cauchy, pour tout n ∈ N
il existe φ(n) ∈ N tel que

∀r, s > φ(n), kfr − fs kp 6 2−n . (3)

Introduisons la suite extraite (hn )n∈N définie par hn = fφ(n) pour tout n ∈ N. Les
inégalités (3) garantissent alors que khn − hn+1 kp 6 2−n pour tout n ∈ N. Pour
presque tout x ∈ Ω et pour tout n ∈ N, on pose alors
n
X
gn (x) = |hk+1 (x) − hk (x)|.
k=0

La suite (gn )n∈N est alors bien définie presque partout, elle est croissante et
uniformément dominée par 1. Par le théorème de convergence monotone, la suite

304
Analyse fonctionnelle et topologie

(gn )n∈N converge simplement presque partout vers une limite g ∈ Lp (Ω). D’après
l’inégalité triangulaire on a, pour presque tout x ∈ Ω et tout entier r ∈ N :
s−1
X
∀s > r, |hr (x) − hs (x)| = (hn+1 (x) − hn (x))
n=r
s−1
X
6 |hn+1 (x) − hn (x)|
n=r
= gs−1 (x) − gr−1 (x)
6 g(x) − gr−1 (x). (4)

Or, pour presque tout x ∈ Ω, on a g(x) − gr−1 (x) → 0 quand r → +∞. Ainsi,
pour presque tout x ∈ Ω la suite de nombres complexes (hn (x))n∈N est de Cauchy,
donc converge vers une certaine limite que l’on note h(x).
En passant à la limite dans (4) pour s → +∞, il vient donc que pour tout r ∈ N et
presque tout x ∈ Ω on a |hr (x)−h(x)| 6 g(x)−gr−1 (x) 6 g(x). Deux conséquences
s’ensuivent :
• Pour tout r ∈ N et pour presque tout x ∈ Ω, l’inégalité triangulaire donne

|h(x)| 6 g(x) + |hr (x)|.

Cela prouve que h ∈ Lp (Ω), car g et hr sont dans Lp (Ω).


• Le théorème de convergence dominée s’applique pour (hn )n∈N . En effet, on a
montré que |hn (x)−h(x)|p tend vers 0 presque partout, et |hn −h| est dominée
par g ∈ Lp (Ω) qui est indépendante de n. Ainsi, l’intégrale de |hn − h|p tend
donc vers 0, autrement dit il y a convergence de (hn )n∈N vers h dans Lp (Ω).
Ainsi, la sous-suite (hn )n∈N de (fn )n∈N converge, donc la suite (fn )n∈N converge par
la question b)(i), car c’est une suite de Cauchy admettant une valeur d’adhérence.
Nous avons donc prouvé que toute suite de Cauchy de Lp (Ω) converge dans Lp (Ω).
Autrement dit, l’espace Lp (Ω) est complet.

Commentaires.
© Il est possible d’affiner la question b)(i) pour prouver qu’une suite convergeant
vers f dans Lp (Ω) admet une sous-suite convergente presque partout vers f .
En effet, supposons que (fn )n∈N converge pour la norme de Lp (Ω). Alors (fn )n∈N
est une suite de Cauchy dans Lp (Ω). Le même raisonnement que celui utilisé dans
la question b)(ii) permet donc d’en extraire une sous-suite (hn )n∈N convergeant
presque partout vers une fonction notée h, a priori différente de f dans Lp (Ω). Il
reste à montrer que h = f .
Conservons les mêmes notations qu’à la question b)(ii). Pour presque tout x ∈ Ω
et pour tout r ∈ N, on a
|h(x) − hr (x)| 6 g(x).
En particulier, par l’inégalité triangulaire il vient que |h(x)| 6 g(x) + |hr (x)| pour
presque tout x ∈ Ω. Puisque g et hr sont des fonctions de Lp (Ω), on a h ∈ Lp (Ω).

305
54. Théorème de Riesz-Fischer

De plus cette majoration, indépendante de r, permet d’appliquer le théorème de


convergence dominée pour obtenir que (hr )r∈N converge vers f dans Lp (Ω). Par
unicité de la limite dans Lp (Ω), on a donc h = f presque partout, terminant la
preuve. Ce commentaire peut être intégré dans le développement en fonction du
temps disponible.
© Nous avons prouvé que Lp (Ω) est un espace de Banach pour tout p ∈ [1, ∞]. Les
espaces de Lebesgue Lp (Ω) sont des espaces importants en analyse fonctionnelle,
et leur complétude est, d’une certaine manière, la raison du succès de l’intégrale
de Lebesgue. En effet, l’espace des fonctions qui sont Riemann-intégrables n’est
pas complet pour les normes intégrales associées, par exemple les espaces Lp (R1 )
associés. Les espaces de Lebesgue Lp forment un cadre usuel pour les théories des
équations aux dérivées partielles et des probabilités.
© Les fonctions des espaces de Lebesgue Lp (Ω) sont définies seulement presque
partout, autrement dit hors d’un ensemble de mesure nulle. C’est la raison pour
laquelle l’ensemble E est introduit dans la question a). Les candidats à l’aise
avec ce formalisme pourront se dispenser de ces précisions et raisonner avec des
« presque partout ». Ils doivent toutefois être prêt à répondre à des demandes de
clarifications de la part du jury.
© Le théorème de Riesz-Fischer a été énoncé dans la forme présentée ici par
Fischer en 1907 et concernait uniquement le cas de l’espace L2 . La même année,
Riesz publia le résultat suivant :

Soit (φk )k∈N une famille orthogonale dans L2 ([a, b]). Soit (ck )k∈N une
suite de scalaires telle que c2k < +∞. Alors il existe f ∈ L2 ([a, b])
P

telle que
Z b
∀k > 0, ck = f (t)φk (t)dt.
a

On ne sait pas si les deux théorèmes sont équivalents, dans le sens où ils se
déduiraient de manière élémentaire l’un de l’autre sans utiliser des avatars du
théorème de représentation de Riesz. La version de Riesz est une conséquence de
la version de Fischer, mais la réciproque n’est pas connue. En 2000, Császár a
prouvé que la version de Fischer est une conséquence de la propriété plus forte
suivante :
Soit (φk )k∈N une famille orthogonale dans L2 ([a, b]). Soit (ck )k∈N une
suite de scalaires telle que c2k < +∞. Alors k ck φk est sommable
P P

dans L2 ([a, b]).

© La complétude des espaces Lp est notamment importante dans le cas L2 ,


puisqu’elle permet de définir une isométrie entre les espaces L2 et `2 (N).

306
Analyse fonctionnelle et topologie

Questions.
1. Rappeler pourquoi une union dénombrable d’ensembles de mesure nulle est un
ensemble de mesure nulle.
2. Montrer que l’inégalité (2) pour tout x ∈
/ E permet de déduire que la fonction f
est essentiellement bornée.
3. Justifier que la réunion définissant l’ensemble E de la question a) est une union
dénombrable.
4. Prouver que si φ est une extraction, alors φ(n) > n pour tout n ∈ N.
5. Justifier que la fonction φ dans (3) peut être choisie strictement croissante.
6. Soient (X, µ) un espace mesuré et des réels 1 6 p < q 6 +∞. Montrer qu’on a
l’inclusion Lq (X, µ) ⊆ Lp (X, µ) si et seulement si µ(X) est finie.
7. Soit E un espace vectoriel de dimension finie sur R. Montrer que Lp (E) est
séparable pour 1 6 p < +∞. Qu’en est-il de L∞ (E) ?
8. Rappeler pourquoi la somme de deux fonctions dans Lp (Ω) est dans Lp (Ω).
9. Montrer que l’espace R1 (]0, +∞[) des fonctions Riemann intégrables n’est pas
un espace complet.
Indication : considérer les fonctions définies, pour tout n ∈ N et tout x > 0, par

gn (x) = min (n, − ln x) .

Vérifier que les gn sont Riemann-intégrables pour tout n ∈ N. Vérifier que (gn )n∈N
est une suite de Cauchy pour la norme k · k1 . Constater que toutefois il n’y a pas
de limite dans R1 (]0, +∞[), car une éventuelle limite devrait être égale presque
partout à la fonction − ln qui n’est pas bornée.
10. Montrer que la propriété de Császár implique celle de Riesz.

307
Calcul différentiel, équations
différentielles et EDP

Le calcul différentiel est la branche des mathématiques considérant les concepts de


dérivation, et s’en servant comme moyen d’étudier les fonctions. Le développement
du calcul différentiel est intimement lié à celui du calcul intégral, tous deux
omniprésents en sciences physiques et naturelles, mais aussi en économie et en
sciences humaines.
L’introduction des variables en mathématiques remonte essentiellement à Descartes
et est le principal terreau dans lequel peut mûrir un calcul différentiel. Le calcul
différentiel et intégral est alors amené par Leibniz et Newton à la fin du XVIIe
siècle. Toutefois, il demeure longtemps une heuristique formelle qui ne trouve de
justification rigoureuse qu’à partir de Cauchy au XIXe siècle. Si le calcul différentiel
naît d’une volonté d’étudier les fonctions d’une ou de plusieurs variables réelles,
il étend rapidement ses concepts à des problèmes plus globaux : géométrie et
topologie différentielles, groupes de Lie, etc.
Le concept central du calcul différentiel est le cœur de toute l’analyse : il s’agit
d’approcher des quantités que l’on ne connaît pas parfaitement. Ainsi, la dérivation
et la différentiabilité sont des outils permettant de remplacer l’étude d’une fonction
par l’étude d’un polynôme d’approximation (son approximation affine au premier
ordre, son développement limité plus généralement), ce qui permet d’établir des
propriétés très fines même en l’absence de connaissance exacte des fonctions
étudiées. Cette même idée est utilisée pour approcher des solutions d’équations
différentielles ordinaires (ou EDO, voir Dév. 56) ou encore pour étudier des variétés
différentielles (Dév. 55).
Les équations différentielles, ainsi que les équations aux dérivées partielles (ou
EDP), modélisent des phénomènes variés : propagation d’un son (Dév. 65), évo-
lution de la chaleur dans un domaine, diffusion d’un gaz, mécanique des fluides,
gravitation, mécanique quantique, comportements économiques (Dév. 59), dyna-
miques de populations (Dév. 60, 61, 62, 63, 64), etc.
Les méthodes d’approche des EDP sont très variées, et dépendent de la nature
et des propriétés de l’équation considérée. En effet, si le problème de l’existence
et de l’unicité des solutions d’une équation différentielle est entièrement résolu
par les théorèmes de Cauchy-Lipschitz ou de Cauchy-Peano (Dév. 58), il n’en est
rien pour les équations aux dérivées partielles. Aucun résultat général n’existe
ni pour l’unicité ni pour l’existence de solutions à une EDP ; certaines EDP aux
coefficients indéfiniment dérivables n’ont aucune solution, ou des solutions ayant
des singularités. C’est la raison pour laquelle une idée puissante dans ce domaine
est de considérer la notion de solution faible (ou solution au sens des distributions)
de manière à s’autoriser plus de flexibilité et obtenir des solutions (faibles) aux
meilleures propriétés (Dév. 66, 67).

La terminologie mobilisée lors de l’étude des équations et systèmes différentiels


présente d’un ouvrage à l’autre des variations susceptibles d’engendrer une certaine
confusion chez le lecteur ; aussi nous a-t-il semblé de bon ton de redéfinir quelques
concepts mobilisés dans les Développements 56, 59, 60, 61, 62 et 64. Le choix des
notions abordées ici est strictement utilitaire ; on pourra se reporter au chapitre 10
de [Dem06] pour un exposé plus complet.

Points d’équilibre d’un système différentiel autonome


On considère un ouvert non vide U de Rn (avec n ∈ N∗ ) et un champ de vecteurs
f : U → Rn de classe C 1 . On s’intéresse à l’équation différentielle ordinaire
autonome
y 0 = f (y) (5)

et on suppose que toutes les solutions maximales cette équation sont définies sur
des intervalles de type ]a, +∞[ avec a < 0 (éventuellement a = −∞).

Définition 1 (Points d’équilibre d’un système différentiel autonome)


On appelle point d’équilibre du système associé à l’équation (5) tout point
x0 ∈ U tel que f 0 (x0 ) = 0, c’est-à-dire tel que la fonction constante égale à x0
soit solution de (5).
Soit x0 ∈ U un point d’équilibre du système associé à (5). On a alors les
définitions suivantes, les boules étant considérées pour une norme quelconque
sur Rn :
• On dit que x0 est stable s’il existe r, r0 ∈ R∗+ avec r 6 r0 et B(x0 , r0 ) ⊂ U
tels que toute solution maximale y de (5) issue de B(x0 , r) (au sens où
y(0) ∈ B(x0 , r)) vérifie y(t) ∈ B(x0 , r0 ) pour tout t > 0.
• On dit que x0 est instable s’il n’est pas stable.
• On dit que x0 est attractif (ou asymptotiquement stable) s’il est stable et
s’il existe r > 0 tel que toute solution maximale y de (5) issue de B(x0 , r)
vérifie limt→+∞ y(t) = x0 .

La Figure 2.2 illustre les différentes notions de stabilité sur des exemples issus
d’équations différentielles linéaires à coefficients constants. Il est utile de connaître,
au moins dans le cas n = 2, la classification des comportements qualitatifs de
telles équations en fonction du signe des valeurs propres de la matrice associée,
ainsi que l’allure des portraits de phase correspondants (voir [Dem06] p. 290).

310
Calcul différentiel, équations différentielles et EDP

Figure 2.2 – Représentation de deux champs de vecteurs sur R2 . À gauche :


l’origine est un point d’équilibre attractif (donc stable). À droite : l’origine est un
point d’équilibre instable.

Un point d’équilibre stable n’est pas nécessairement attractif, comme on peut


s’en convaincre en considérant le portrait de phase donné sur la Figure 2.2 ou en
consultant le Développement 64.

−1

−2

−3
−π − π2 0 π
2
π 3π
2
2π 5π
2

 
Figure 2.3 – Représentation du champ de vecteurs F : (x, y) 7→ y, − 12 sin(x) ,
dont le système différentiel associé admet des points d’équilibre stables mais non
attractifs.

311
Sous-solutions et sur-solutions d’une EDO
Soient J un intervalle ouvert de R et U un ouvert de R, tous deux non vides. On
se donne un champ de vecteurs F : J × U → R continu et on considère l’équation
différentielle
y 0 = F (t, y). (6)

Définition 2 (Sous-solutions et sur-solutions d’une EDO)


Si I ⊂ J est un intervalle ouvert, une fonction dérivable z : I → U est appelée
sous-solution (resp. sur-solution) de l’équation (6) sur I si z 0 (t) < F (t, z(t))
(resp. z 0 (t) > F (t, z(t)) pour tout t ∈ I.

Le résultat principal sur les sous-solutions et les sur-solutions est le suivant :

Proposition 1
Si z est une sous-solution (resp. sur-solution) de l’équation (6) et y une solution
de (6) sur un même intervalle ouvert I ⊂ J et si z(t0 ) = y(t0 ) pour un certain
t0 ∈ I, alors z(t) < y(t) (resp. z(t) > y(t)) pour tout t ∈ I tel que t > t0 .

La Figure 2.4 illustre la notion de sous-solution ainsi que la Proposition 1.

y y(t)

z(t)

Figure 2.4 – Représentation graphique du champ de vecteurs F , d’une


solution y et d’une sous-solution z de l’équation différentielle y 0 = F (y, t).

312
Calcul différentiel, équations différentielles et EDP

Développement 55 (Théorème de Cartan-von Neumann F)

Soit n > 1. Soit G un sous-groupe fermé de GLn (R), et son algèbre de Lie

g = {X ∈ Mn (R) : ∀t ∈ R, exp(tX) ∈ G}.

a) Soit m un supplémentaire de g dans Mn (R).


(i) Soit (gk )k∈N une suite d’éléments de G\{In } convergeant vers l’identité.
Montrer que les points d’accumulation de la suite définie par
ln gk
∀k ∈ N, xk = ,
k ln gk k

sont dans g.
(ii) Montrer qu’il existe un voisinage V de 0 dans m avec exp(V ) ∩ G = {In }.
b) Pour deux sous-espaces E et F supplémentaires dans Mn (R), considérons

Φ: E×F −→ GLn (R)


(x, y) 7−→ exp(x) exp(y).

(i) Montrer que Φ est différentiable en (0, 0) et y donner sa différentielle.


(ii) Justifier qu’il existe un voisinage U de 0 dans g, un voisinage V de 0
dans m et un voisinage W de In dans GLn (R) tels que Φ : U × V → W
soit un difféomorphisme.
(iii) Déduire qu’il existe un voisinage U de 0 dans g et un voisinage W de In
dans GLn (R) tels que exp(U ) = W ∩ G. Conclure que exp : U → W ∩ G
est un difféomorphisme d’un voisinage de 0 dans g dans un voisinage de
l’identité dans G.
c) En déduire le théorème de Cartan-von Neumann :

Tout sous-groupe fermé de GLn (R) est une sous-variété différentielle


de Mn (R) de même dimension que son algèbre de Lie.

Leçons concernées : 106, 156, 214, 215

Ce développement ne doit pas rebuter par son formalisme : derrière des énoncés qui
utilisent des groupes et algèbres de Lie — ce qui peut être évité, voir commentaires
suivant le développement — il s’agit de manipuler des suites ainsi que les propriétés
de l’exponentielle et du logarithme de matrices, en faisant une bonne illustration
de la leçon sur l’exponentielle de matrices (156). Cela permet d’atteindre l’un des
grands résultats de la théorie des groupes de Lie, énonçant que les groupes de Lie
linéaires sont des variétés différentielles, dévoilant une dimension nouvelle des
groupes linéaires (106). Ce résultat rend le développement pertinent pour les leçons
de calcul différentiel (214, 215).

313
55. Théorème de Cartan-von Neumann

Correction.
a) (i) Soit x un point d’accumulation de la suite (xk )k∈N . Quitte à extraire,
on peut supposer que xk converge vers x. Notons yk = ln gk , qui est bien défini
pour k suffisamment grand de sorte que kgk − In k < 1. Pour t ∈ R, introduisons
la suite tk = tkyk k−1 , de sorte que txk = tk yk . En notant b·c la partie entière ainsi
que {·} la partie fractionnaire, il vient
bt c
exp(txk ) = exp(tk yk ) = exp(btk cyk ) exp({tk }yk ) = gk k exp({tk }yk ).

Puisque (gk )k∈N converge vers l’identité, la suite yk converge vers zéro. De plus,
puisque la suite des {tk } est bornée et que celle des yk converge vers 0, la suite des
{tk }yk converge vers zéro. Par continuité de l’exponentielle, on déduit donc que
la suite des exp({tk }yk ) converge vers l’identité. Comme le groupe G est fermé,
on obtient ainsi
bt c
exp(tx) = lim gk k ∈ G.
k→+∞

Puisque cela est valable pour tout t ∈ R, cela signifie que x ∈ g par définition.
(ii) Raisonnons par l’absurde et supposons qu’il existe une suite (zk )k∈N de m
qui converge vers zéro et telle que exp(zk ) 6= In pour tout k > 1. Tout point
d’accumulation z de la suite (zk /kzk k)k∈N = (ln(exp(zk ))/k ln(exp(zk ))k)k∈N est
dans g par la question précédente. Mais puisque m est un sous-espace vectoriel de
dimension finie, il est fermé et on a donc également z ∈ m. Ainsi, on aurait z = 0
puisque g et m sont supplémentaires, mais cela n’est pas possible puisque z est de
module 1. Ainsi, il existe un voisinage V de 0 dans m tel que exp(V ) ∩ G = {In }.
b) (i) En revenant à la définition de l’exponentielle comme somme de série on
a, pour tout h, k ∈ Mn (R),
+∞
X hn +∞
X kn
Φ(0 + h, 0 + k) =
n=0
n! n=0 n!
= In + (h + k) + O(khkk).

L’application (h, k) 7→ h + k est linéaire continue et O(khkk) = O(k(h, k)k2 ) en


vertu de l’équivalence des normes dans l’espace de dimension finie Mn (R). Ainsi,
l’application Φ est différentiable en (0, 0) et sa différentielle est (h, k) 7→ h + k.
(ii) C’est une conséquence immédiate de la question précédente avec E = g
ainsi que F = m : puisque la différentielle de Φ est localement inversible en (0, 0),
le théorème d’inversion locale garantit que Φ est un difféomorphisme local. En
particulier, il existe un voisinage de (0, 0) dans m × g, i.e. un voisinage U de 0
dans g et un voisinage V de 0 dans m, ainsi qu’un voisinage W de In dans GLn (R)
tels que la restriction Φ : U × V → W soit un difféomorphisme.
(iii) Par la question a)(ii), on peut choisir un voisinage V 0 de 0 dans m de sorte
que exp(V 0 ) ∩ G = {In }. Par la question b)(ii), on peut choisir un voisinage U
de 0 dans g, un voisinage V de 0 dans m et un voisinage W de In dans GLn (R) tels
que Φ : U × V → W soit un difféomorphisme. Quitte à considérer l’intersection de

314
Calcul différentiel, équations différentielles et EDP

V et V 0 et à restreindre W , on peut supposer que V = V 0 . Il reste donc à prouver


que Φ(U × {0}) = exp(U ) = W ∩ G.
Soit g ∈ W ∩ G. Par la question précédente, il existe x ∈ U et y ∈ V tels qu’on
puisse écrire g = exp(x) exp(y). En particulier, exp(x) ∈ G car x ∈ g, d’où

exp(y) = exp(−x)g ∈ G ∩ exp(V ) = {In },

ce qui signifie que exp(y) = In , autrement dit que g = exp(x) ∈ G. Ainsi, tout
élément de W ∩ G est bien l’exponentielle d’un élément de U , ce qui achève de
prouver que exp : U → W ∩ G est surjective, et donc un difféomorphisme. Ainsi,
on a prouvé que exp : U → W ∩ G est un difféomorphisme d’un voisinage de 0
dans g dans un voisinage de l’identité dans G.
c) L’idée est de translater la propriété prouvée lors des questions précédentes,
qui concerne le voisinage de l’identité, en tout autre point du groupe. Pour g ∈ G,
introduisons l’application de translation

Lg : G −→ G
h 7−→ gh

Par la question b)(ii), il existe un voisinage U de 0 dans g et un voisinage W


de In dans G tels que exp : U → W est un difféomorphisme. Or, l’application de
translation Lg est un difféomorphisme, donc Lg ◦ exp réalise un difféomorphisme
de U sur Lg (W ) = gW , qui est un voisinage de g dans G. Ainsi, tout point de G
admet un voisinage difféomorphe à un ouvert de g, c’est donc une sous-variété
différentielle de même dimension que g.

Commentaires.
© L’exponentielle est un difféomorphisme local, mais toutefois cela ne suffit pas
à trivialiser l’exercice. En effet, cela assure qu’il existe un voisinage U de 0
dans Mn (R) et un voisinage V de In dans GLn (R) tels que exp : U → V est un
difféomorphisme. On ne peut pas pour autant en déduire que exp : U ∩ g → V ∩ G
est un difféomorphisme : même si exp : U ∩ g → V ∩ G est bien définie et injective,
rien ne garantit qu’elle est surjective. C’est tout l’enjeu du développement, atteint
à la question b)(iii) après une application fine du théorème d’inversion locale.
© Un sous-groupe fermé de GLn (R) est appelé un groupe de Lie linéaire. Ce
développement se propose de montrer l’importante correspondance entre groupes et
algèbres de Lie dans ce cadre : les deux sont isomorphes au voisinage de leur élément
neutre. En particulier, l’algèbre de Lie d’un groupe de Lie linéaire G détermine
sa composante connexe principale. Ainsi, si plusieurs groupes de Lie peuvent
avoir la même algèbre de Lie, il n’y en a qu’un qui est connexe et simplement
connexe, à isomorphisme près. La classification des groupes de Lie connexes et
simplement connexes se ramène donc à celle des algèbres de Lie associées, et
celles-ci se répertorient en quatre grandes familles d’algèbres de Lie ainsi que cinq
algèbres de Lie exceptionnelles, se traduisant par une classification analogue pour
les groupes de Lie. Beaucoup plus précisément, le théorème fondamental de la
théorie de Lie est le suivant :

315
55. Théorème de Cartan-von Neumann

La catégorie des algèbres de Lie de dimensions finies est équivalente à


la catégorie des groupes de Lie connexes et simplement connexes.
© Un groupe de Lie est défini plus généralement comme groupe muni d’une
structure de variété différentielle et dont les opérations sont également infiniment
différentiables. Une grande partie des groupes de Lie peut se réaliser comme
groupes de Lie linéaires, faisant de ce développement un cadre suffisamment
général pour une première étude des groupes de Lie. Voir par exemple [Far18]
dont est inspiré ce développement. Le résultat prouvé dans ce développement est
que tout sous-groupe fermé de GLn (R) est un groupe de Lie en ce sens.
© En pratique, cette correspondance est très puissante et permet de ramener
l’étude d’une structure de groupe, dans nombre de ses aspects, à celle d’un espace
vectoriel : son algèbre de Lie, i.e. son espace tangent en l’identité. C’est toute
l’idée de la géométrie différentielle, qui se retrouve ici entrelacée avec l’algèbre
des groupes.
© Il peut être bon d’avoir en tête les exemples classiques de groupes de Lie
linéaires et d’algèbre de Lie associées, c’est une question naturelle qui peut suivre
le développement. La définition d’une algèbre de Lie associée à un groupe est
relativement simple à traduire, grâce aux bons effets de l’exponentielle sur le
produit, la trace, la conjugaison, la transposition, etc. Nous donnons quelques
sous-groupes classiques avec leurs algèbres de Lie associées, et laissons le lec-
teur comprendre précisément pourquoi la définition de l’algèbre de Lie donne
exactement ces ensembles :
• Le groupe linéaire GLn (R) = {g ∈ GLn (R) : det(g) 6= 0} admet pour
algèbre de Lie l’espace de dimension n2 donné par

gln (R) = Mn (R).

• Le groupe spécial linéaire SLn (R) = {g ∈ GLn (R) : det(g) = 1} admet pour
algèbre de Lie l’espace de dimension n2 − 1 donné par

sln (R) = {x ∈ gln (R) : tr(x) = 0}.

• Le groupe orthogonal On (R) = {g ∈ GLn (R) : t gg = In } admet pour


algèbre de Lie l’espace de dimension 21 n(n − 1) donné par

on (R) = {x ∈ gln (R) : x + t x = 0} = An (R).

• Le groupe unitaire Un (C) = {g ∈ GLn (C) : t gg = In } admet pour algèbre


de Lie l’espace de dimension 12 n(n − 1) donné par

un (R) = {x ∈ gln (R) : x + t x = 0}.

• Le groupe symplectique Sp2n (R) = {g ∈ GL2n (R) : t gJn g = Jn }, où J est


la matrice définie par blocs
!
0 In
Jn = ,
−In 0

316
Calcul différentiel, équations différentielles et EDP

admet pour algèbre de Lie l’espace de dimension n(2n + 1) donné par

sp2n (R) = {x ∈ gl2n (R) : Jx + t xJ = 0}.

Questions.
1. Montrer que g est un sous-espace vectoriel de Mn (R).
2. Rappeler la définition de l’exponentielle d’une matrice, ainsi que de son loga-
rithme lorsqu’il est bien défini.
3. Si A, B ∈ Mn (R) commutent, montrer que exp(AB) = exp(A) exp(B).
4. Comment réduire exp(M ) en fonction de la réduction de M ∈ Mn (R) ?
Indication : penser à la décomposition de Dunford, rendue possible par la commu-
tativité entre M et exp(M ).
5. Donner l’image de l’ensemble des matrices symétriques réelles, Sn (R), par
l’exponentielle. Et des matrices hermitiennes ?
Indication : voir Développement 34, sur la décomposition polaire matricielle.
6. Si deux sous-groupes fermés de GLn (R) ont même algèbre de Lie, montrer
qu’ils ont même composante connexe de l’identité.
Indication : montrer que tout élément de la composante connexe de l’identité est
dans un exp(g)k , pour un certain k > 1.
7. Pourquoi l’application Lg est-elle un difféomorphisme ?
8. Vérifier les correspondances entre les groupes classiques et les algèbres de Lie
décrites dans les commentaires.

317
56. Théorème de stabilité de Liapounov

Développement 56 (Théorème de stabilité de Liapounov F)

Soient n > 1 et x ∈ Rn . On assimile Mn,1 (C) à Cn et Mn,1 (R) à Rn , et on


note respectivement h·, ·i et k·k le produit scalaire hermitien usuel et la norme
hermitienne standard sur Cn .
Soit f ∈ C 1 (Rn ) telle que f (0) = 0. Considérons le problème de Cauchy
constitué du système différentiel

y 0 = f (y), (1)

d’inconnue y ∈ C 1 (R+ , Rn ) ainsi que de la condition initiale y(0) = x.


Soit A la jacobienne de f en 0. Considérons le problème de Cauchy constitué
du système linéarisé
z 0 = Az, (2)
muni de la condition initiale z(0) = x.
a) Soit z une solution du système différentiel linéarisé (2). Supposons que les
valeurs propres de A sont à parties réelles strictement négatives. Montrer qu’il
existe a, C > 0 telles que

∀t > 0, kz(t)k 6 Ce−at kxk.

b) Introduisons la forme bilinéaire symétrique b définie par


Z +∞ D E
n
∀u, v ∈ R , b(u, v) = etA u, etA v dt,
0

et notons q(u) = b(u, u) la forme quadratique associée à b. Montrer que


∀u ∈ Rn , h∇q(u), Aui = 2b(u, Au) = −kuk2 .

c) Soit y une solution maximale du problème de Cauchy initial, définie sur


un intervalle I ⊂ R+ . On note r(y(t)) = f (y(t)) − Ay(t) pour tout t ∈ I.
(i) Montrer qu’il existe α, β > 0 tels que, si t ∈ I est tel que q(y(t)) < α,
d
q(y(t)) 6 −βq(y(t)).
dt
(ii) Montrer que si q(x) < α, on a I = R+ et q(y(t)) 6 α pour tout t > 0.
(iii) Conclure au théorème de Liapounov :
Si la matrice A a toutes ses valeurs propres de parties réelles
strictement négatives, alors 0 est un point d’équilibre attractif du
système différentiel (1). Plus précisément, pour toute condition
initiale x assez proche de 0, la solution est définie sur un intervalle
contenant R+ et tend exponentiellement vite vers 0 lorsque t tend
vers +∞.

Leçons concernées : 153, 154, 156, 157, 215, 220, 221

318
Calcul différentiel, équations différentielles et EDP

Ce développement est un résultat classique de stabilité des solutions d’équations


différentielles ; il permet de décrire le comportement asymptotique des solutions
d’un système différentiel en étudiant celui des solutions du système linéarisé
correspondant. Les arguments reposent essentiellement sur du calcul différentiel
élémentaire, ce qui permet au développement de s’intégrer naturellement à la
leçon sur les applications différentiables (215) et également aux leçons dédiées aux
équations différentielles (220), en particulier linéaires (221). L’approximation de f
à l’aide de sa jacobienne A permet de réduire l’étude à celle de la solution explicite
d’une équation différentielle linéaire, décrite explicitement par une exponentielle
de matrice (156) étudiée au préalable par le biais de résultats d’algèbre linéaire
sur la réduction matricielle (153, 154, 157).

Correction.
a) Notons λ1 , . . . λk ∈ C les valeurs propres de A, où k 6 n. La décomposition en
sous-espaces caractéristiques de A s’écrit, pour certains m1 , . . . , mk ∈ N∗ :
k
M
Cn = où Ej = Ker (A − λj In )mj .

Ej , (3)
j=1

La solution du système différentiel linéarisé est explicitement connue et s’écrit


z(t) = etA x pour tout t > 0.
Soit j ∈ J1, kK. Pour tout xj ∈ Ej , on a
mj −1 p
X t
etA xj = etλj et(A−λj In ) xj = etλj (A − λj In )p xj .
p=0
p!

Notons |||·||| la norme subordonnée à k·k. On peut majorer la norme de (A−λj In )p xj


par |||A − λj In |||p · kxj k par sous-multiplicativité de la norme subordonnée. Il est
alors possible de majorer les |||A − λj In |||p par une constante Cj > 0 indépendante
de l’exposant p ∈ J1, mj − 1K puisqu’il n’y en a qu’un nombre fini. En posant
Pmj −1 tp
Pj : t 7→ p=0 p! , on a alors pour tout xj ∈ Ej :

mj −1 p
X t
tA tλj
∀t > 0, ke xj k 6 e Cj kxj k 6 etRe(λj ) Pj (t)Cj kxj k. (4)
p=0
p!

D’après la décomposition (3) en sous-espaces caractéristiques, le vecteur x ∈ Cn


s’écrit comme somme de vecteurs xj ∈ Ej , pour j ∈ J1, kK, d’où
k
X k
X
∀t > 0, kz(t)k = ketA xk 6 M (t) max kxj k etRe(λj ) 6 M (t)kxk etRe(λj ) ,
16j6k
j=1 j=1
(5)
où on a posé M (t) = max16j6k Cj Pj (t) pour tout t > 0.
La fonction M est à croissance au plus polynomiale puisque les Pj sont polyno-
miales et en nombre fini. Comme Re(λj ) < 0 pour tout j ∈ J1, kK, le théorème
319
56. Théorème de stabilité de Liapounov

des croissances comparées montre que pour tout a < − maxj Re(λj ) avec a > 0, il
existe C > 0 vérifiant
∀t > 0, kz(t)k 6 Ce−at kxk,
d’où le résultat attendu.
b) On peut donner explicitement la différentielle d’une forme quadratique en
fonction de sa forme bilinéaire associée : pour tout u ∈ Rn ,
Z +∞ D E
h∇q(u), Aui = 2b(u, Au) = 2 etA u, AetA u dt
0
Z +∞
d D tA E
= e u, etA u dt
0 dt
h i+∞
= ketA uk2
0
2
= −kuk ,
d’après la question a) qui assure que etA u tend vers zéro lorsque t → +∞.
c) (i) Par définition, on a y 0 (t) = f (y(t)) = Ay(t) + r(y(t)) pour tout t ∈ I. Il
vient alors, par bilinéarité de b et par le résultat de la question précédente,
d
q(y(t)) = 2b y(t), y 0 (t)

∀t ∈ I,
dt  
= 2b y(t), Ay(t) + 2b y(t), r(y(t))
= −ky(t)k2 + 2b y(t), r(y(t)) .

(6)
p
Par l’inégalité de Cauchy-Schwarz pour la norme k · kq = q(·) associée à la forme
quadratique définie positive q, on a

∀t ∈ I, b y(t), r(y(t)) 6 ky(t)kq kr(y(t))kq . (7)
Constatons que r(u) = f (u) − f (0) − df (0) · u pour tout u ∈ Rn , de sorte que la
définition de la différentielle permet de borner r(u) en norme k · kq . En effet, la
formule de Taylor-Young assure que r(u) = o(kukq ), donc il existe α > 0 tel que
pour tout u ∈ Rn vérifiant q(u) < α on ait
1
kr(u)kq 6 kukq .
4
L’inégalité (7) donne alors
1
∀t ∈ I : q(y(t)) < α, |b(y(t), r(y(t)))| 6 ky(t)k2q .
4
Par équivalence des normes en dimension finie, il existe une constante C > 0 telle
que Ckukq 6 kuk, c’est-à-dire C 2 q(u) 6 kuk2 , pour tout u ∈ Rn .
D’après la relation (6), on a alors :
d
∀t ∈ I : q(y(t)) < α, q(y(t)) = −ky(t)k2 + 2b(y(t), r(y(t)))
dt
1
6 − ky(t)k2 6 −βq(y(t))
2
en posant β = 21 C 2 > 0.

320
Calcul différentiel, équations différentielles et EDP

(ii) Supposons que q(x) < α. Si la quantité q(y(t)) ne restait pas toujours
inférieure à α, il existerait par continuité de q et de y un premier instant t0 > 0
tel que q(y(t0 )) = α, c’est-à-dire

t0 = inf {t ∈ I : q(y(t)) > α} > 0.

On aurait alors, par la question précédente,

q 0 (y(t0 )) 6 −βq(y(t0 )) < 0,

de sorte que, pour t < t0 suffisamment proche de t0 , on a q(y(t)) > α, ce qui


est contraire à la définition de t0 . Ainsi, la solution y demeure bornée sur I
pour la norme k · kq , et donc pour la norme k · k ; on déduit alors du théorème
d’explosion que R+ ⊂ I, et par suite que I = R+ . Ainsi, y est bien définie sur R+
et q(y(t)) 6 α pour tout t > 0.
(iii) Supposons que q(x) < α. D’après la question précédente, cela implique que
l’on a q(y(t)) < α pour tout t > 0. On en déduit

d  βt d
  
e q(y(t)) = eβt q(y(t)) + βq(y) 6 0
dt dt

grâce à la question b)(i). Ainsi, la fonction t 7→ etβ q(y) est décroissante, et donc
inférieure à sa valeur initiale. Puisque y(0) = x, il vient que, pour tout t > 0,

q(y(t)) 6 e−βt q(x),

autrement dit ky(t)k2q 6 e−βt kxk2q pour tout t > 0. En particulier, par équivalence
des normes en dimension finie, la solution y du système tend exponentiellement
vers zéro, d’où le théorème de Liapounov.

Commentaires.
© Ce développement illustre la méthode de linéarisation : on approche le compor-
tement de la solution y du système par celui de la solution du système linéarisé
défini par z 0 = Az avec la condition initiale z(0) = x, qui a pour solution explicite
la fonction z(t) = etA x. Le comportement de cette solution approchée n’est pas
très éloigné de celui de la solution originale par définition de la différentielle. C’est
là l’esprit de l’analyse : remplacer l’étude de l’objet voulu par celle d’un objet
approché (étude réalisée en question a)) tout en contrôlant suffisamment l’erreur
pour en déduire des informations sur l’objet initial (conclusion atteinte dans la
question c)). Les mots de Dieudonné « majorer, minorer, approcher » synthétisent
parfaitement cette approche de l’analyse.
© Ce développement est essentiellement adapté de [Rou03], qui est un excellent
livre de préparation à l’agrégation, apportant un grand recul sur le programme de
calcul différentiel en général, de nombreuses remarques heuristiques et intuitives
ainsi que des exemples très pertinents traités en détail.

321
56. Théorème de stabilité de Liapounov

© Une version plus complète du théorème de Liapounov permet de montrer que 0


est un équilibre instable (voir définition page 310) du système différentiel y 0 = f (y)
lorsque les valeurs propres de A sont de parties réelles strictement positives. Elle
stipule que l’équilibre n’est ni stable, ni instable dans le cas où certaines valeurs
propres de A ont des parties réelles strictement positives et d’autres strictement
négatives. Dans le cas où elles sont toutes de partie réelle nulle, il est impossible de
conclure à l’aide du théorème de linéarisation, et tous les cas peuvent se présenter
(équilibre attractif, stable non attractif ou instable).
Une méthode permettant souvent de conclure dans le cas de tels systèmes est
d’exhiber une fonction de Liapounov. Il s’agit typiquement d’une fonction dif-
férentiable h : Rn → R+ définie en fonction de f et vérifiant (h ◦ y)0 6 0 ; la
décroissance de la fonction h ◦ y permet alors d’obtenir des propriétés de bornitude
sur la solution y, voire de convergence de cette solution vers un point d’équilibre
minimisant le « potentiel » h. La preuve présentée dans ce développement procède
exactement du même raisonnement, avec q comme fonction de Liapounov.
© Le modèle de Lotka-Volterra présenté dans le Développement 64 admet par
exemple un point d’équilibre stable non attractif correspondant à une jacobienne
dont les valeurs propres sont imaginaires pures. Le même modèle avec immigration
de proies, présenté dans les commentaires qui suivent le Développement 64, admet
quant à lui un point d’équilibre attractif qui correspond pourtant au même système
linéarisé. Ces modèles sont étudiés en introduisant une fonction de Liapounov,
constante dans le premier cas et strictement décroissante dans le second.

Questions.
1. Rappeler comment obtenir la décomposition d’un espace vectoriel de dimension
finie en somme de sous-espaces caractéristiques.
2. Justifier l’égalité etA xj = etλj et(A−λj In ) xj utilisée à la question a).
3. Détailler le calcul donnant la différentielle d’une forme quadratique.
4. Justifier que b est bien définie et que q est définie positive.
5. Montrer que le t0 défini en question c)(ii) satisfait q(y(t0 )) = α.
6. Justifier l’inégalité max16j6k kxj k 6 kxk, où x = x1 + · · · + xk est l’écriture
du vecteur x associée à la décomposition Cn = kj=1 Ej .
L

7. Aurait-on pu avoir recours à la notion de sous-solution (voir page 312) pour se


dispenser du début de la preuve de la question c)(ii) ?
8. Montrer que si les valeurs propres de A sont de parties réelles strictement
négatives, la conclusion du théorème de Liapounov est cette fois valide en −∞.
9. Étudier la stabilité des points d’équilibre du système différentiel
(
x0 = y
y 0 = −y − sin(x).

Indication : on pourra pour certains points utiliser la forme générale du théorème


de Liapounov donnée en commentaire.

322
Calcul différentiel, équations différentielles et EDP

Développement 57 (Des extrema liés au consommateur FF)

Soient p, n ∈ N∗ tels que p 6 n. On se donne un ouvert U de Rn et des


fonctions f, g1 , . . . , gp : U → R de classe C 1 , et on définit

Γ = {x ∈ U : ∀i ∈ J1, pK , gi (x) = 0} .

On suppose que la restriction de f à Γ admet un extremum local en a ∈ Γ et


que (dg1 (a), . . . , dgp (a)) est une famille libre de L (Rn , R).
a) (i) On suppose tout d’abord que p < n. Montrer qu’il existe une applica-
tion de permutation des coordonnées π : Rn → Rn telle qu’en écrivant
le point a0 = π −1 (a) sous la forme (α, β) avec α ∈ Rn−p et β ∈ Rp , il
existe un voisinage V de α dans Rn−p , un voisinage W de a dans U et
une application φ : V → Rp de classe C 1 tels que

Γ ∩ W = {π(z, φ(z)), z ∈ V } .

(ii) Désormais, on suppose seulement que p 6 n. Démontrer le résultat


suivant, appelé théorème des extrema liés :
Il existe des réels λ1 , . . . , λp ∈ R, appelés multiplicateurs de La-
grange, tels que
p
X
df (a) = λi dgi (a).
i=1
b) Un consommateur disposant d’une somme d’argent R > 0 a la possibilité
de consommer n types de biens x1 , . . . , xn , dont les quantités sont encore
notées x1 , . . . , xn . On suppose que le bien xi a pour prix unitaire pi > 0, et que
l’utilité (c’est-à-dire le niveau de satisfaction) engendrée par la consommation
d’un panier de biens x = (x1 , . . . , xn ) ∈ Rn+ est donnée par la quantité u(x),
où u : Rn+ → R+ est une fonction vérifiant les hypothèses suivantes :
n
• u est de classe C 1 sur R∗+ et continue sur Rn+ ;
• u(x) = 0 s’il existe i ∈ J1, nK tel que xi = 0 ;
n ∂u
• pour tout i ∈ J1, nK et tout x ∈ R∗+ , on a (x) > 0.
∂xn
On suppose qu’il existe un panier de biens x∗ = (x∗1 , . . . , x∗n ) ∈ Rn+ maximisant
l’utilité du consommateur sous la contrainte de budget suivante :

x1 p1 + . . . + xn pn = R.

Montrer que
∂u ∗ ∂u ∗ pi

∀i, j ∈ J1, nK , (x ) (x ) = .
∂xi ∂xj pj

Leçons concernées : 151, 159, 214, 215, 219, 267

323
57. Des extrema liés au consommateur

Ce développement (FFF) consiste en la démonstration d’un théorème classique


d’optimisation sous contrainte, suivi d’une application élémentaire mais fonda-
mentale en sciences économiques. En raison des nombreuses considérations sur le
rang présentes dans ce développement, il est possible de l’utiliser pour illustrer la
leçon 151. Il trouve aussi sa place dans les leçons 159 et 267 lorsque le théorème
est démontré avec la méthode indiquée en commentaire (FF), qui utilise des
arguments de dualité et de géométrie différentielle. Enfin, il est parfaitement
adapté aux leçons d’analyse sur le théorème des fonctions implicites (214), sur les
fonctions différentiables (215) et sur la caractérisation d’extrema (219).

Correction.
a) Posons g = (g1 , . . . , gp ) ; on a alors Γ = {x ∈ U : g(x) = 0}. La matrice
jacobienne de g en a
 
∂g1 ∂g1
 ∂x1 (a) ··· ∂xn (a)
.. .. ..
 
Dg(a) =  .
 
 . . 

 
∂gp ∂gp
∂x1 (a) ··· ∂xn (a)

est de rang p par hypothèse, donc on peut extraire de la famille (C1 , . . . , Cn ) de ses
vecteurs colonnes une famille libre à p éléments 12 (Cσ(n−p+1) , . . . , Cσ(n) ) pour une
certaine permutation σ de J1, nK. Notons à présent (e1 , . . . , en ) la base canonique
de Rn et considérons l’endomorphisme π ∈ L(Rn ) défini par π(ei ) = eσ(i) pour
tout i ∈ J1, nK ; alors π est bien une application de permutation des coordonnées.
Par ailleurs, on sait par construction que
 
∂g1 ∂g1
(a) · · · (a)
 ∂xσ(n−p+1) ∂xσ(n) 


.. .. ..
 
J = .
 
 . . 


∂gp ∂gp 
(a) · · · (a)
 
∂xσ(n−p+1) ∂xσ(n)
est inversible, or J est la matrice jacobienne dans la base canonique de Rp de
l’application partielle y 7→ g(π(α, y)) en β. Comme cette application s’annule en β,
le théorème des fonctions implicites donne alors l’existence d’un voisinage V de α
dans Rn−p , d’un voisinage W 0 de (α, β) = a0 dans π −1 (U ) ainsi que d’une fonction
φ : V → Rp de classe C 1 tels que
n o
x ∈ π −1 (U ) : g(π(x)) = 0 ∩ W 0 = (z, φ(z)) , z ∈ V 0 ,


ce qui se reformule exactement en

π −1 (Γ) ∩ W 0 = {(z, φ(z)) , z ∈ V }.


12. La notation (Cσ(n−p+1) , . . . , Cσ(n) ) au lieu de (Cσ(1) , . . . , Cσ(p) ) peut sembler quelque peu
extravagante mais permet de se ramener à la formulation classique du théorème des fonctions
implicites.

324
Calcul différentiel, équations différentielles et EDP

En définissant W = π(W 0 ) (qui est bien un voisinage de a dans U ) et en utilisant


la bijectivité de π, on obtient alors

π −1 (Γ) ∩ π −1 (W ) = {(z, φ(z)), z ∈ V },

puis
π −1 (Γ ∩ W ) = {(z, φ(z)), z ∈ V },
et enfin
Γ ∩ W = {π(z, φ(z)), z ∈ V }, (1)
ce qu’il fallait démontrer.
b) Si p = n, les dgi (a) forment une base de l’espace des formes linéaires sur Rn ,
donc df (a) s’exprime bien comme combinaison linéaire des dgi (a). On suppose
donc à présent que p < n. Comme le rang de la matrice Dg(a) est égal à p par
hypothèse, il suffit pour conclure de montrer que la matrice
!
Df (a)
Dg(a)

est de rang au plus égal à p.


Notons g̃ = g ◦ π et f˜ = f ◦ π. La fonction x 7→ g̃(x, φ(x)) est constante (nulle)
sur V , donc sa différentielle en α est nulle. Comme g̃ et φ sont différentiables, on
obtient donc, d’après la formule de différentiation d’une composée d’applications,

Dx (g̃)(α, φ(α)) + Dy (g̃)(α, φ(α)) · Dφ(α) = 0, (2)

où Dx (g̃)(α, φ(α)) (resp. Dy (g̃)(α, φ(α))) est la matrice dans la base canonique
de Rn−p (resp. Rp ) de la différentielle de l’application x 7→ g̃(x, φ(α)) (resp. de
l’application y 7→ g̃(α, y)). On a φ(α) = β d’après la question a)(i) puisque
a = π(α, β) ∈ Γ ∩ W , donc l’équation (2) donne

Dx (g̃)(a0 ) + Dy (g̃)(a0 ) · Dφ(α) = 0. (3)

Par ailleurs, la fonction x 7→ f˜(x, φ(x)) définie sur V est différentiable en α et


admet un maximum local en α puisque π(α, φ(α)) = a, d’où, comme f˜ et φ sont
différentiables :
Dx f˜(a0 ) + Dy f˜(a0 ) · Dφ(α) = 0 (4)
avec des notations similaires. On a donc
     
˜ 0 ˜ 0 ˜ 0 ˜ 0 ˜ 0
D f (a ) Dx f (a ) Dy f (a ) −Dy f (a ) · Dφ(α) Dy f (a )
 = = ,
Dg̃(a0 ) Dx g̃(a0 ) Dy g̃(a0 ) −Dy g̃(a0 ) · Dφ(α) Dy g̃(a0 )

où la deuxième égalité provient de (3) et (4), et donc


   
˜ 0 ˜ 0 
D f (a ) Dy f (a )

 =  −Dφ(α) Ip .
Dg̃(a0 ) Dy g̃(a0 )

325
57. Des extrema liés au consommateur

!
Df˜(a0 )
Le rang de est donc inférieur au rang minimal des matrices
Dg̃(a0 )
!
Dy f˜(a0 )  
∈ Mp+1,p (R) et −Dφ(α) Ip ∈ Mp,n (R),
Dy g̃(a0 )

qui est au plus égal à p. On conclut alors en remarquant que

Df˜(a0 ) = D(f ◦ π)(a0 ) = Df (π(a0 )) · Π = Df (a) · Π

où Π est la matrice de π dans la base canonique de Rn , et que l’on a de même

Dg̃(a0 ) = Dg(a) · Π.

Cela implique que ! !


Df (a) Df˜(a0 )
= Π
Dg(a) Dg̃(a0 )
est de rang au plus égal à p, ce qu’il fallait démontrer.
c) L’hypothèse de stricte positivité des dérivées partielles de u nous permet
d’affirmer que la contrainte budgétaire est nécessairement saturée 13 à l’optimum,
c’est-à-dire que ni=1 pi x∗i = R. Par ailleurs, cette même hypothèse et le fait
P

que u(x) = 0 dès lors que l’une des coordonnées de x est nulle assurent que
si R > 0 on a x∗i > 0 pour tout i ∈ J1, kK. Les hypothèses du théorème des extrema
liés sont donc vérifiées avec p = 1, g1 : x 7→ ni=1 pi xi− R (dont la différentielle
P
n
en tout point est bien non nulle), f = u et U = R∗+ . On peut donc conclure
qu’il existe λ ∈ R tel que du(x∗ ) = λdg1 (x∗ ), c’est-à-dire tel que :

∂u ∗
∀i ∈ J1, nK , (x ) = λpi .
∂xi
Or λ ne peut être nul du fait des hypothèses sur les dérivées partielles de u, d’où
le résultat attendu.

Commentaires.
© La formulation de la question a) est assez lourde, mais l’idée qu’elle recouvre
est très simple : elle revient à montrer qu’à permutation des coordonnées près, Γ
est, au voisinage de a, le graphe d’une fonction de classe C 1 de Rn−p dans Rp .
Cette idée est plutôt naturelle puisqu’intuitivement, l’hypothèse de liberté des
différentielles dg1 (a), . . . , dgp (a) correspond au fait que les contraintes gi (x) = 0
ne sont pas redondantes et se traduisent bien par la perte de p degrés de liberté
par la variable x qui en possède initialement n.
13. Cela signifie que la somme disponible est entièrement utilisée. En effet, la consommation
d’une quantité supplémentaire de n’importe quel bien est toujours associée à un accroissement
de la satisfaction du consommateur, si bien que celui-ci consomme nécessairement l’intégralité de
son revenu lorsque son comportement est optimal.

326
Calcul différentiel, équations différentielles et EDP

© Commentons succinctement les hypothèses faites sur la fonction d’utilité dans


l’énoncé de la question b).
• L’hypothèse
n
de régularité consistant à supposer que u est de classe C 1 sur

R+ et continue sur Rn+ est essentiellement pratique. Elle permet de définir
∂u
l’utilité marginale ∂xj
du bien xj pour le consommateur, grandeur essentielle
de la théorie microéconomique et cœur de l’application présentée ici.
• L’hypothèse selon laquelle u(x) = 0 s’il existe i ∈ J1, nK tel que xi = 0
implique qu’un panier de biens fournissant au consommateur une utilité
strictement positive contient nécessairement une quantité non nulle de chaque
bien. Une hypothèse plus forte souvent adoptée en microéconomie est celle
de stricte convexité des préférences selon laquelle u est strictement concave ;
cette hypothèse correspond à un goût du consommateur pour la diversité.
∂u
• L’hypothèse de non-satiété selon laquelle ∂xn
(x) > 0 pour tout i ∈ J1, nK et

n
tout x ∈ R+ signifie que la consommation d’un bien additionnel permet
toujours au consommateur d’augmenter son utilité.
© L’application proposée dans la question b) consiste à démontrer un résultat
fondamental de la théorie microéconomique : la caractérisation du panier optimal
de consommation par l’égalisation du rapport des prix et du taux marginal de
substitution. Ce dernier est défini comme le rapport des utilités marginales

∂u ∂u

TMSi,j =
∂xi ∂xj

et représente la quantité de bien xj nécessaire pour compenser, en termes d’utilité,


la perte d’une unité de bien xi . L’égalité démontrée est alors tout à fait intuitive,
puisque ppji représente la quantité de bien xj que peut acheter le consommateur
en renonçant à acheter une unité de bien xi .
© On peut démontrer le théorème avec une méthode plus synthétique, bien adaptée
à la leçon sur les formes linéaires (159) et à celle sur l’utilisation des courbes en
dimension 2 ou supérieure (267). Cette méthode réduit en outre la technicité des
notations et raccourcit la présentation du développement, qui devient alors de
difficulté FF.
On montre d’abord le lemme classique suivant :

Soient ϕ, ϕ1 , . . . , ϕp ∈ L(Rn , R) des formes linéaires. Alors


p
\
ϕ ∈ Vect (ϕ1 , . . . , ϕp ) ⇐⇒ Ker (ϕi ) ⊂ Ker (ϕ).
i=1

L’implication directe est claire. Pour obtenir l’implication réciproque, on suppose


que ri=1 Ker (ϕi ) ⊂ Ker (ϕ) et on en déduit
T

p !⊥
⊃ Ker (ϕ)⊥ ,
\
Ker (ϕi )
i=1

327
57. Des extrema liés au consommateur

où le signe ⊥ représente l’orthogonal au sens de la dualité, soit


p
Ker (ϕi )⊥ ⊃ Ker (ϕ)⊥ .
X
(5)
i=1

Or pour toute forme linéaire u ∈ L(Rn , R), l’orthogonal Ker (u)⊥ est la droite
Vect (u) : en effet, Ker (u)⊥ est constitué des formes linéaires sur Rn ayant le
même noyau que u, c’est-à-dire colinéaires à u. On déduit alors de (5) que
p
X
Vect (ϕ) ⊂ Vect (ϕi ),
i=1

ce qui conclut. 
On procède alors à la démonstration du théorème des extrema liés. Soit v un
vecteur de l’espace Ta Γ = Ker (dg(a)) tangent à Γ au point a (on rappelle que
l’on note g = (g1 , . . . , gp )). Il existe alors ε > 0 et une courbe γ : ] − ε, ε[ → Γ de
classe C 1 telle que γ(0) = a et γ 0 (0) = v. En différenciant f ◦ γ en 0, on obtient

(f ◦ γ)0 (0) = Df (γ(0)) · (γ 0 (0)) = Df (a) · v.

Or f |Γ admet un extremum en a par hypothèse donc f ◦ γ admet un extremum


en 0, d’où Df (a) · v = 0. Le vecteur v étant choisi de façon quelconque dans Ta Γ,
la différentielle df (a) est donc nulle sur Ta Γ = Ker (dg(a)) = ri=1 Ker (dgi (a)).
T

On utilise alors le lemme pour conclure.


© Lorsque les contraintes associées à un problème d’optimisation s’expriment
sous la forme gi (x) > 0 et non plus seulement gi (x) = 0, le théorème de Kuhn-
Tucker stipule que les multiplicateurs de Lagrange existent encore et que les
multiplicateurs associés aux contraintes non saturées à l’optimum sont nuls. On
se réfèrera aux commentaires suivant le Développement 41 pour un énoncé de ce
théorème.

Questions.
1. Rappeler pourquoi le rang d’une matrice s’exprime à la fois comme son nombre
maximal de lignes linéairement indépendantes et comme son nombre maximal de
colonnes linéairement indépendantes.
2. Montrer que l’ensemble W = π(W 0 ) est bien un voisinage de a.
3. Justifier l’égalité π −1 (Γ) ∩ π −1 (W ) = {(z, φ(z)), z ∈ V }. Peut-on écrire l’éga-
lité f −1 (f (A)) = A pour toute application f ?
4. Justifier le passage de l’égalité

π −1 (Γ ∩ W ) = {(z, φ(z)), z ∈ V }

à l’égalité
Γ ∩ W = {π(z, φ(z)), z ∈ V }
dans la question a)(i).

328
Calcul différentiel, équations différentielles et EDP

5. Dans la question a)(ii), pourquoi suffit-il pour conclure de vérifier que le rang
de la matrice !
Df (a)
Dg(a)
est au plus égal à p ?
6. Justifier que si A et B sont des matrices réelles de formats compatibles, alors on
a rg(AB) 6 min(rg(A), rg(B)). Dans quel cas cette inégalité est-elle une égalité ?
7. Rappeler la définition de l’orthogonal d’un sous-espace de L(Rn , R) pour la
dualité. Si F1 et F2 sont des sous-espaces vectoriels de L(Rn , R), montrer que

F1 ⊂ F2 ⇒ F1⊥ ⊃ F2⊥

et que
(F1 ∩ F2 )⊥ = F1⊥ + F2⊥ .

8. Donner une interprétation géométrique du théorème des extrema liés.


Indication : on pourra montrer que le théorème est équivalent au fait qu’au point a,
le gradient de f est orthogonal à l’hyperplan tangent a + Ker (dg(a)) à la courbe Γ.
On rappellera ensuite pourquoi le gradient de f en a correspond à la « direction
de plus grande pente de f ». On en déduira enfin pourquoi, sur la Figure 2.5,
la fonction f2 n’atteint pas d’extremum en a, ce qui donnera la justification
graphique recherchée.

a + Ker (dg(a)) ∇f1 (a)

ya
∇f2 (a)

xa x

Figure 2.5 – Illustration graphique du théorème des extrema liés en dimension 2.


La fonction f1 admet un maximum en a = (xa , ya ) sous la contrainte g(x, y) = 0
(représentée graphiquement par (x, y) ∈ Γ), mais ce n’est pas le cas de la
fonction f2 : en se déplaçant le long de Γ dans la direction indiquée par le
gradient ∇f2 (a), on augmente la valeur de f2 .

329
57. Des extrema liés au consommateur

9. Utiliser le théorème des extrema liés pour déterminer le triangle d’aire maximale
ayant un périmètre p > 0 fixé.
Indication : on pourra utiliser la formule de Héron stipulant que l’aire A d’un
triangle ayant des côtés de longueur a, b, c ∈ R∗+ est égale à
1q 2
A= (a + b2 + c2 )2 − 2(a4 + b4 + c4 ).
4
10. En utilisant les fonctions f et g définies sur Rn+ par f : (x1 , . . . , xn ) 7→ ni=1 xi
Q

et g : (x1 , . . . , xn ) 7→ ni=1 xi − s pour un s > 0, établir l’inégalité arithmético-


P

géométrique suivante :
n
!1 n
n
Y 1X
∀(x1 , . . . , xn ) ∈ Rn+ , xi 6 xi ,
i=1
n i=1

et caractériser le cas d’égalité.


11. Montrer en utilisant le théorème des extrema liés que pour tout n-uplet
(v1 , . . . , vn ) de vecteurs de Rn on a
n
Y
| det(v1 , . . . , vn )| 6 kvi k2 .
i=1

Indication : on pourra chercher à maximiser l’application det sur

S = {(v1 , . . . , vn ) ∈ (Rn )n : ∀i ∈ J1, nK , kvi k2 = 1},

utiliser le théorème des extrema liés en un vecteur (v1 , . . . , vn ) ∈ S maximisant


det pour montrer qu’il existe λ1 , . . . , λn tel que
n
X n
X
det(v1 , . . . , vi−1 , hi , vi+1 , . . . , vn ) = 2λi hvi , hi i
i=1 i=1

pour tout i ∈ J1, nK et tout vecteur hi ∈ Rn , puis évaluer cette égalité pour des
vecteurs hi bien choisis pour montrer que (v1 , . . . , vn ) est une famille orthonormale
de Rn et conclure.
12. Vérifier que les hypothèses du théorème des extrema liés sont bien satisfaites
dans la question b).
13. Si n = 2 et α, β ∈ R∗+ , calculer le panier de biens optimal dans le cas où u est
la fonction de Cobb-Douglas définie par :

∀x, y ∈ R, u(x, y) = xα y β .

Remarquer que la fraction du revenu allouée à chacun des deux biens est indépen-
dante de R.
14. Interpréter économiquement le fait que seul le prix relatif pi /pj intervienne
dans la détermination du panier de biens optimal à revenu donné. Cela implique-t-il
qu’un doublement des prix laisse le panier optimal de consommation inchangé ?

330
Calcul différentiel, équations différentielles et EDP

15. Montrer que si n = 2 et si le panier de biens optimal (x∗1 , x∗2 ) est une fonction
dérivable du prix relatif p = ppxy et de R, alors l’accroissement du niveau d’utilité
optimal associé à un relâchement infinitésimal de la contrainte budgétaire est λ,
c’est-à-dire que
∂u (x∗1 (p, R), x∗2 (p, R))
= λ.
∂R
Remarque : cette propriété vaut au multiplicateur de Lagrange λ le nom de shadow
value associée à l’allègement de la contrainte budgétaire. On voit alors pourquoi ce
multiplicateur est nul dans le cas d’une contrainte non saturée sous les hypothèses
du théorème de Kuhn-Tucker (voir commentaires suivant le Développement 41).
16. En écrivant la contrainte budgétaire sous la forme
R X pi
xj = − xi ,
pj i6=j pj

proposer une démonstration élémentaire de la relation démontrée en b).

331
58. Théorème de Cauchy-Peano

Développement 58 (Théorème de Cauchy-Peano FF)

Soit n ∈ N∗ . Soit f : R × Rn → R continue sur un voisinage Ω du point


(t0 , y0 ) ∈ R × Rn . Considérons le système d’équations différentielles ordinaires
(
y0 = f (t, y),
(1)
y(t0 ) = y0 .

a) Montrer qu’il existe des constantes a, b > 0 telles que le champ de vec-
teurs donné par (t, y) 7→ f (t, y) est borné sur [t0 , t0 + a] × B(y0 , b) par une
constante M , où B(y0 , b) désigne la boule fermée de centre y0 et de rayon b.
b) Soit F l’espace des fonctions z d’un intervalle I de R à valeurs dans Rn ,
qui sont M -lipschitziennes et telles que z(t0 ) = y0 . Pour z ∈ F, on définit
Z t
F (z) = max z(t) − y0 − f (s, z(s))ds .
t∈I t0

Montrer qu’il existe un choix de I non trivial tel que F est bien définie et
que z est solution de (1) si F (z) = 0.
c) Montrer que F est compact pour la topologie de la norme uniforme.
d) Montrer l’existence d’une solution locale au système initial à droite, i.e.
une fonction φ : [t0 , t0 + a] → Rn dérivable et telle que
(
φ0 (t) = f (t, φ(t)), pour tout t ∈ [t0 , t0 + a],
φ(t0 ) = y0 .

e) Déduire qu’il existe une solution au système initial au voisinage de t0 .

Leçons concernées : 203, 215, 219, 220, 228, 241

Ce développement est particulièrement adapté aux leçons sur les équations différen-
tielles ordinaires (220). Il se fonde sur l’approximation d’une solution éventuelle
à un système d’équations différentielles, en faisant une illustration de la leçon sur
les suites et séries de fonctions (241). Par ailleurs, l’essentiel de l’argument est de
traduire la recherche d’une solution du système en un problème de minimisation
d’une fonctionnelle continue sur un compact, rendant le développement pertinent
pour la leçon sur la compacité (203).
La preuve de l’existence de solutions extrémales en tout point dans le cas de la
dimension un est donnée en commentaire, et peut faire l’objet d’un développement
adapté aux leçons sur les extremums (219) ainsi que sur l’analyse des fonctions
d’une variable réelle (228). Enfin, l’application à la détermination des applications
de gradient de norme 1 proposée en commentaire peut également illustrer le
théorème de Cauchy-Peano dans le cadre de la leçon de calcul différentiel (215).

332
Calcul différentiel, équations différentielles et EDP

Correction.
a) L’ensemble Ω est ouvert, il existe donc a, b > 0 tels que [t0 , t0 + a] × B(y0 , b) est
inclus dans Ω. Ainsi, f est définie et continue sur le compact [t0 , t0 + a] × B(y0 , b).
En particulier, la continuité de f sur ce compact assure qu’il existe M > 0 tel que

kf (t, y)k 6 M, pour tout (t, y) ∈ [t0 , t0 + a] × B(y0 , b).

b) Notons désormais c = min(a, b/M ) et considérons l’intervalle I = [t0 , t0 + c].


Le choix de c garantit que toute fonction z ∈ F est telle que z(t) ∈ B(y0 , b) pour
tout t ∈ I, car

kz(t) − y0 k 6 kz(t) − z(t0 )k 6 M |t − t0 | 6 M c 6 b.

La fonction g définie par, pour tout t ∈ I,


Z t Z t
g(t) = z(t) − y0 − f (s, z(s))ds 6 kz(t) − y0 k + kf (s, z(s))kds
t0 t0

est donc bien définie et continue sur un compact. On en déduit donc que son
maximum F (z) est bien défini.
Si F (z) = 0 alors, pour tout t ∈ I,
Z t
z(t) = y0 + f (s, z(s))ds,
t0

de sorte que z est dérivable sur I et est solution du système (1) sur I.
c) Nous allons vérifier les hypothèses du théorème d’Arzelà-Ascoli pour F :
• F est fermé pour la topologie uniforme (même simple). En effet, la M -
lipschitzianité est conservée par passage à la limite uniforme (même simple),
de même que la condition z(t0 ) = y0 .
• F est constitué de fonctions uniformément bornées (par b) par la question a).
• F est constitué de fonctions uniformément continues. En effet, soient ε > 0
et δ = ε/M . En utilisant la M -lipschitzianité on obtient que, pour toute
fonction f ∈ F et tous x, y ∈ I, on a

|x − y| 6 δ =⇒ kf (x) − f (x)k 6 M |x − y| 6 ε.

Le théorème d’Arzelà-Ascoli assure que F est compact pour la topologie uniforme.


d) La fonctionnelle F est continue sur F pour la topologie uniforme. En effet,
si (zn )n∈N est une suite de fonctions de F qui converge uniformément vers z,
alors F (zn ) converge vers F (z) par continuité de f , de la norme et du maximum
sur un segment. Puisque F est compact par la question précédente, F atteint son
minimum en une certaine fonction φ ∈ F.

333
58. Théorème de Cauchy-Peano

Nous souhaitons prouver que F peut être arbitrairement petite sur F. Pour tout
entier k > 2 on introduit le problème approché

c c c
    
0
 y (t) = f t − ,y t − si t ∈ t0 + , t0 + c ,



k k k
(2)
c
 

 y(t) = y0 si t ∈ t0 , t0 + .


k

Ce problème admet une unique solution zk ∈ F. En effet, la solution zk vérifie


c
  
 zk (t) =

 y0 si t ∈ t0 , t0 + ,
k

Z t− c
c
 
 k
 zk (t) = y0 + f (s, zk (s))ds si t ∈ t0 + , t0 + c .


t0 k

Il est alors possible de déterminer la solution explicitement de proche en proche.


En effet, la fonction zk (t) est entièrement déterminée sur [t0 , t0 + kc ], et la seconde
ligne ci-avant permet alors de définir zk (t) sur [t0 + kc , t0 + 2c
k ]. Ainsi, la fonction
2c
est bien définie sur [t0 , t0 + k ]. En recommençant le procédé, on obtient les valeurs
de la fonction zk (t) pour tout t ∈ [t0 , t0 + c].
Les fonctions zk (t) ainsi construites sont définies sur [t0 , t0 + c]. Elles vérifient par
définition zk (t0 ) = y0 . Elles sont de plus M -lipschitziennes. En effet, en utilisant
le fait que f est bornée par M on a, pour tous t, u ∈ [t0 , t0 + kc ],
Z t− s
k
kzk (t) − zk (u)k 6 kf (s, zk (s))kds 6 M |t − u|,
u− ks

de sorte que les zk sont M -lipschitziennes. Ainsi, les zk sont dans F pour tout
entier k > 2.
Le minimum de F est donc inférieur aux F (zk ), pour tout k > 2. On obtient donc
par définition, pour tout t ∈ t0 , t0 + kc , que


Z t Z t
Mc
zk (t) − y0 − f (s, zk (s))ds = f (s, y0 )ds 6 ,
t0 t0 k

et, pour tout t ∈ ]t0 + kc , t0 + c],


Z t Z t
Mc
zk (t) − y0 − f (s, zk (s))ds = f (s, zk (s))ds 6 .
t0 t−c/k k

Ainsi on en déduit que, pour tout k > 2,


Mc
0 6 F (φ) 6 F (zk ) 6 .
k

En laissant k croître vers l’infini, cela prouve que F (φ) = 0. En particulier, la


question b) implique que φ est solution du système différentiel (1) sur I.

334
Calcul différentiel, équations différentielles et EDP

e) La question précédente prouve l’existence d’une solution au système d’équations


différentielles ordinaires (1) à droite de t0 . Il reste à prouver qu’il est possible de
l’étendre symétriquement à gauche. Considérons le problème en temps inversé
suivant : (
y(−t0 ) = y0 ,
(3)
y 0 (t) = g(t, y) = −f (−t, y).

La fonction g est continue sur un voisinage de (−t0 , y0 ), de sorte que le problème (3)
admet une solution définie pour t ∈ [−t0 , −t0 + ε] pour un ε > 0 par la question
précédente. Autrement dit, avec le changement de variables t 7→ −t, on obtient
une solution au système (1) sur [t0 − ε, t0 ]. Pour un ε > 0 suffisamment petit, le
recollement d’une solution à droite yd sur [t0 , t0 + ε] et d’une solution à gauche yg
sur [t0 − ε, t0 ] est alors continu, car yg (t0 ) = y0 = yd (t0 ), et dérivable, car on a
yg0 (t0 ) = f (t, y0 ) = yd0 (t0 ). Cela fournit une solution sur [t0 − ε, t0 + ε].

Commentaires.
© Nous avons prouvé le théorème d’existence de Cauchy-Peano, donnant un critère
d’existence de solutions de systèmes d’équations différentielles ordinaires :

Soit f : Rn → R continue sur un voisinage Ω d’un point (t0 , y0 )


de R × Rn . Alors il existe a > 0 tel que le problème de Cauchy
(
y0 = f (x, y),
y(t0 ) = y0 .

admette une solution sur [t0 − a, t0 + a].

En d’autres termes, ce théorème conclut à l’existence d’une solution locale φ


définie sur I = [t0 − a, t0 + a] telle que
(
φ0 (x) = f (x, φ(x)), pour tout x ∈ I,
φ(x0 ) = y0 .

Rien ne garantit l’unicité de φ, qui en général est en défaut. Il y a toutefois unicité


dans le cas où f est supposée lipschitzienne par rapport à y. Notons que, malgré
l’absence d’unicité, c’est un théorème utile dont les hypothèses sont beaucoup
moins fortes que celles du théorème de Cauchy-Lipschitz qui suppose beaucoup
plus de régularité pour f .
© La preuve présentée ici donne également des informations concernant les so-
lutions citées, et n’ont pas été intégrées dans le théorème pour en simplifier la
forme. En particulier, la taille de l’intervalle sur laquelle une solution est définie
est minorée à partir d’informations sur l’ensemble de définition de f .

335
58. Théorème de Cauchy-Peano

© Rappelons le théorème d’Arzelà-Ascoli qui est crucial dans le développement :

Si une famille F de fonctions continues sur un intervalle I = [a, b] est


(i) uniformément bornée, c’est-à-dire

∃M > 0, ∀f ∈ F, kf k 6 M ;

(ii) uniformément continue, c’est-à-dire

∀ε > 0, ∃δ, ∀f ∈ F, ∀x, y ∈ I, (|x − y| 6 δ =⇒ |f (x) − f (y)| 6 ε) ;

alors il existe une suite (fn )n∈N de F qui converge uniformément.

On pourra se référer à [Bré87] pour une preuve de ce résultat. Un résultat


intermédiaire important, qui est la conséquence utilisée dans le développement,
vient du fait que toute famille de fonctions M -lipschitziennes pour un M fixé est
uniformément continue. Ainsi, dès qu’une sous-famille est (uniformément) bornée,
elle admet une sous-suite convergence. Autrement dit, elle satisfait la propriété de
Bolzano-Weierstrass, i.e. elle est (séquentiellement) relativement compacte. Si elle
est de plus fermée, elle est compacte.
© Le résultat de Peano a suscité beaucoup d’efforts compte tenu de son caractère
général. Ce théorème admet de nombreuses autres preuves, reposant soit sur la
construction d’une suite de solutions approchées comme dans le développement
proposé ici — appelées suites de Tonelli — soit des preuves topologiques reposant
sur des théorèmes de point fixe, notamment celui de Schauder. De nombreux com-
mentaires éclairants et de détails se trouvent dans [Pou12], d’où ce développement
a été adapté.
© Le résultat de Peano fut originellement prouvé en dimension 1, où les conclusions
sont plus fortes, que nous citons ici :

Il existe des solutions φ+ et φ− : I → R au problème (1) telles que


toute autre solution φ vérifie

φ− (t) 6 φ(t) 6 φ+ (t), pour tout t ∈ I.

Nous proposons une preuve de ce fait, qui peut servir de développement alternatif
de niveau F, en admettant la version prouvée ci-avant. Cette conséquence illustre
très bien les raisonnements variationnels et peut être intégrée à la leçon 219 sur
les extremums ainsi qu’à la leçon sur les fonctions d’une variable réelle (228).
Considérons l’ensemble S des solutions de (1) sur l’intervalle I comme défini dans
le développement. Par le théorème de Peano prouvé ci-avant, il est non vide. De
plus, S ⊆ F qui est compact et S est fermé pour la topologie uniforme. Ainsi, S
est compact, et donc la fonctionnelle continue
Z t0 +c
I : φ ∈ S 7−→ I(φ) = φ(s)ds
t0

336
Calcul différentiel, équations différentielles et EDP

atteint un maximum et un minimum sur S. Les deux preuves étant analogues,


nous ne traitons que le cas du maximum φ+ .
Supposons par l’absurde que φ+ ne soit pas la plus grande solution de (1) sur I.
Il existerait alors une solution φ ∈ S telle que φ(t1 ) > φ+ (t1 ) pour un certain
élément t1 ∈]t0 , t0 + c[. Puisque φ+ (t0 ) = y0 = φ(t0 ), le théorème des valeurs
intermédiaires garantit qu’il existe t2 ∈]t0 , t1 [ tel que φ+ (t2 ) > φ(t2 ) et, quitte à
choisir le supremum des tels t2 , on peut supposer que φ > φ+ sur ]t2 , t1 ].
Soit φ > φ+ sur ]t2 , t0 + c], soit il existe t3 > t2 tel que φ+ (t3 ) = φ(t3 ). Supposons
ce dernier cas, la preuve étant analogue dans le premier. Considérons, pour t ∈ I,
(
φ(t) pour t ∈ [t2 , t3 ]
ψ(t) =
φ+ (t) sinon.

Il est aisé de vérifier que les valeurs prises par les fonctions ainsi que par les
dérivées à gauche et à droite sont égales en t2 , de sorte que ψ ∈ S. De plus, on
a φ+ 6 ψ sur tout I, et l’inégalité est stricte sur [t2 , t3 ] de sorte que I(φ+ ) < I(ψ),
contredisant la maximalité de φ+ , et achevant la preuve.
© Il s’agit d’un résultat propre à la dimension finie. En effet, pour tout espace
de Banach de dimension infinie il est possible de trouver un problème de Cauchy
défini par une fonction continue qui ne possède aucune solution locale. Dans
certains cas pathologiques, il se peut même que l’équation autonome x0 = f (x)
n’admette aucune solution locale.
© Peano avait de son temps déjà fourni un exemple pathologique ayant une infinité
de solutions en dimension 1. Il s’agit du problème
(
y 0 = 3y 2/3 ,
y(0) = 0.

On peut vérifier qu’il existe une infinité de solutions locales à ce système. Hormis
les solutions φ(t) = 0 et φ(t) = t3 , les solutions sont données par

3
 (t − t1 )
 si t < t1 ,
φ(t) = 0 si t1 6 t 6 t2 ,
 (t − t )3 si t < t,

2 2

où pour t1 6 0 6 t2 .
© Une application originale et intéressante du théorème de Cauchy-Peano est de
montrer que toute application différentiable sur Rn qui admet un gradient de
norme constante est affine. Même si l’énoncé semble immédiat, il n’en est rien.
Donnons l’énoncé précis du résultat, en toute dimension n > 1 :

Si f ∈ C 1 (Rn , R) et k∇f (x)k = 1 pour tout x ∈ Rn , alors f est affine.

Nous allons démontrer ce résultat, qui pourrait être présenté en développement


de niveau FF.

337
58. Théorème de Cauchy-Peano

• Pour tout x ∈ R2 , définissons le problème de Cauchy


(
y 0 (t) = ∇f (y(t)),
y(0) = x.

Puisque f ∈ C 1 (Rn , R), son gradient ∇f est continu. Le théorème de Cauchy-


Peano affirme alors que ce problème admet une solution, que l’on note yx .
• En utilisant la règle de différentiation des composées on calcule, pour t ∈ R,

∂f (yx (t))
= ∇f (yx (t)), yx0 (t) = k∇f (yx (t))k2 = 1.
∂t
En intégrant cette égalité entre 0 et t, on obtient

f (yx (t)) − f (x) = t. (4)

• Soit t ∈ R. Étudions maintenant le comportement de f sur [x, yx (t)]. On


utilise le paramétrage standard de ce segment par longueur d’arc, et on pose

g : s ∈ [0, 1] 7−→ f (syx (t) + (1 − s)x).

La fonction g est dérivable puisque f ∈ C 1 (Rn ) et on a, pour tout s ∈ [0, 1],

g 0 (s) = h∇f (syx (t) + (1 − s)x), yx (t) − xi .

Par le théorème fondamental de l’analyse et l’inégalité de Cauchy-Schwarz,


Z 1
t = f (yx (t)) − f (x) = g(1) − g(0) = g 0 (s)ds
0
Z 1
6 k∇f (syx (t) + (1 − s)x)k · kyx (t) − xkds = kyx (t) − xk.
0 | {z }
=1

Comme yx est paramétré par la longueur d’arc, la longueur de yx ([0, t]) est t.
Ainsi, kyx (t) − xk = kyx (t) − yx (0)k 6 t. L’inégalité précédente est donc
nécessairement une égalité. Comme on a, pour tout s ∈ [0, 1],

g 0 (s) 6 k∇f (syx (t) + (1 − s)x)k · kyx (t) − xk,

on a aussi l’égalité pour s ∈ [0, 1]. Plus précisément, ∇f (syx (t) + (1 − s)x)
et yx (t) − x doivent être colinéaires et de même sens par le cas d’égalité de
l’inégalité de Cauchy-Schwarz. Donc, puisque k∇f (syx (t) + (1 − s)x)k = 1,

yx (t) − x
∇f (syx (t) + (1 − s)x) = .
kyx (t) − xk
yx (t)−x
En particulier pour s = 0, on obtient ∇f (x) = kyx (t)−xk , autrement dit

yx (t) = x + kyx (t) − xk∇f (x) = x + t∇f (x). (5)

338
Calcul différentiel, équations différentielles et EDP

• Montrons que yx est une solution globale, i.e. définie sur tout Rn .
Pour tout compact K de R, il existe a < b tel que K ⊂ [a, b]. Alors, par
l’expression (5) on en déduit que, pour tout t ∈ K,

|yx (t)| 6 x + max(|a|, |b|)k∇f (x)k 6 x + max(|a|, |b|) < +∞.

Ainsi, yx est bornée sur tout compact. Par le théorème des bouts, la
solution yx est donc définie sur tout R.
• Soit x0 ∈ Rn et Hx0 = x0 +∇f (x0 )⊥ l’hyperplan passant par x0 et orthogonal
à ∇f (x0 ). Montrons que f est constante sur Hx0 .
Soit t > 0 et z ∈ B(yx0 (t), t). Alors, comme précédemment, on a
Z 1
|f (yx0 (t)) − f (z)| 6 |h∇f (syx0 (t) + (1 − s)z, yx0 (t) − zi|ds
0
6 kyx0 (t) − zk 6 t.

Par l’inégalité triangulaire, on en déduit que f (z) > f (yx0 (t)) − t = f (x0 ).
Soit x ∈ Hx0 . Il existe une suite (zn )n∈N avec zn ∈ B(yx0 (n), n) pour tout
n > 0, qui converge vers x (voir figure ci-après). On déduit alors de l’inégalité
précédente que f (zn ) > f (x0 ) donc, par continuité de f , on a f (x) > f (x0 ).

n + 1 yx0 (n + 1)

yx0 (n)
zn •
Hx0 zn+1 • •
• •
x x0

Le même raisonnement avec t < 0 fournit une suite (zn )n∈N telle que, pour
tout n > 0, on a zn ∈ B(yx0 (−n), n) et qui converge vers x et f (zn ) 6 f (x0 )
donc f (x) 6 f (x0 ).
Donc on a f (x) = f (x0 ) pour x ∈ Hx0 . Ainsi, f est constante sur Hx0 .
• Soit x ∈ Rn . Comme yx0 décrit une droite dirigée par ∇f (x0 ) d’après
l’expression (5), il existe x0 ∈ Rn et t ∈ R tels que x ∈ Hyx0 (t) . Par le point
précédent, la fonction f est constante sur cet hyperplan. On a donc

f (x) = f (yx0 (t)) = f (x0 ) + t = f (x0 ) + kyx0 (t) − x0 k.

En utilisant le fait que yx0 (t) − x0 est colinéaire à ∇f (x0 ) par (5), on a alors

f (x) = f (x0 ) + hyx0 (t) − x0 , ∇f (x0 )i


= f (x0 ) + hx − x0 , ∇f (x0 )i + hyx0 (t) − x, ∇f (x0 )i.

339
58. Théorème de Cauchy-Peano

Puisque x ∈ Hyx0 , on a yx0 (t) − x ⊥ ∇f (x0 ), de sorte que

f (x) = f (x0 ) + hx − x0 , ∇f (x0 )i + hyx0 (t) − x, ∇f (x0 )i


| {z }
=0
= f (x0 ) + hx − x0 , ∇f (x0 )i.

Ainsi, f est une application affine de Rn . 

Questions.
1. Si (zn )n∈N est une suite de fonctions définies sur un segment I qui converge
uniformément vers z, montrer que maxI zn converge vers maxI z.
2. Montrer que toute fonction z solution de l’équation différentielle ordinaire (1)
est telle que F (z) = 0.
3. Justifier que le système (2) admet une unique solution telle que zk (t) reste
dans B(y0 , b) pour tout t ∈ I, et qui est donnée par les formules proposées.
Indication : faire une récurrence pour prouver la formule sur la partition t0 + ci/k
avec i ∈ J0, kK, puis faire un changement de variables.
4. Commenter les similarités et différences entre le théorème de Cauchy-Peano et
le théorème de Cauchy-Lipschitz.
5. L’équation différentielle xy 0 +y = arctan(x) admet-elle une solution au voisinage
de x = 0 ? Est-elle unique ?

340
Calcul différentiel, équations différentielles et EDP

Développement 59 (Modèle de croissance de Solow-Swan F)

Considérons une économie qui utilise du capital en quantité K et du travail


en quantité L pour obtenir un certain niveau de production Y . On fait les
hypothèses suivantes :
• La quantité de travail offerte L est une fonction dérivable du temps et
vérifie L̇ = αL, où α > 0 est le taux de croissance démographique.
• Le stock de capital est une fonction dérivable K du temps dont l’évolution
est décrite par
K̇ = sY − δK,
où s ∈ ]0, 1] est la propension marginale à épargner et où δ > 0 est le
taux de dépréciation du capital.
• La fonction de production F : (R∗+ )2 → R+ est de classe C 2 et homogène
de degré 1, et la fonction f : x 7→ F (x, 1) définie sur R∗ est telle que

lim f (x) = 0, lim f 0 (x) = +∞, lim f 0 (x) = 0 et f 00 < 0 < f 0 .


x→0 x→0 x→+∞

On a donc
Y = F (K, L) = Lf (k),
K
où k := L représente la quantité de capital par tête dans l’économie.
a) Montrer que la quantité de capital par tête k est solution de l’équation
différentielle
k̇ = sf (k) − (α + δ)k. (1)

b) Déterminer les points d’équilibre du système et discuter de leur stabilité.


c) Soit β ∈ ]0, 1[. Donner une expression explicite de k en fonction du temps
lorsque f est donnée par

∀x > 0, f (x) = xβ

puis déterminer le point d’équilibre correspondant.

Leçons concernées : 220, 228, 229

Le modèle de croissance économique étudié dans ce développement est construit


autour d’une équation différentielle ordinaire qui décrit l’évolution de la quantité
de capital par tête dans une économie qui réinvestit une partie de son revenu. On
étudie dans un premier temps cette équation différentielle de façon essentiellement
qualitative, à l’aide d’arguments de continuité et de monotonie élémentaires sus-
ceptibles d’illustrer les leçons 228 et 229. On traite ensuite un exemple explicite
sous la forme d’une équation différentielle de Bernoulli, ce qui permet de mettre
en valeur les deux aspects complémentaires de la leçon 220.

341
59. Modèle de croissance de Solow-Swan

Correction.
On rappelle que la notion de point d’équilibre d’un système dynamique et les
notions de stabilité afférentes sont définies à la page 310.
a) La fonction f est de classe C 2 puisque F l’est. Comme K et L sont dérivables
et comme L ne s’annule pas par hypothèse, k est dérivable et on a
K̇L − K L̇
k̇ =
L2
(sY − δK)L − KαL
=
L2
sY − δK − αK
=
L
= sf (k) − (α + δ)k,
ce qu’il fallait démontrer.
b) On vient de voir que k vérifie k̇ = g(k), où g est la fonction définie par
g : R∗+ −→ R
x 7−→ sf (x) − (α + δ)x.
Les points d’équilibre du système décrit par l’équation différentielle (1) sont donc
les points d’annulation de g.
Les hypothèses faites sur f assurent que la fonction g est deux fois dérivable
puisque f l’est, et que pour tout x ∈ R∗+ on a g 00 (x) = sf 00 (x) < 0. Par ailleurs, sa
dérivée g 0 est continue sur R∗+ , admet +∞ pour limite en 0 et −(α + δ) < 0 pour
limite en +∞. On obtient donc le tableau de variations suivant pour une certaine
valeur de x0 ∈ R∗+ , où les variations représentées sont strictes :

x 0 x0 +∞

+∞
g 0 (x) 0
−(α + δ)

g(x0 )
g(x)
0 −∞

D’après le théorème des valeurs intermédiaires, il existe donc un réel strictement


positif k ∗ > x0 tel que g(k ∗ ) = 0. Ce réel est unique par stricte décroissance de g
sur [x0 , +∞[. L’allure de la courbe de g est donnée dans la Figure 2.6.
Montrons à présent que k ∗ est un équilibre attractif. L’équation différentielle
autonome ẏ = g(y) satisfait les hypothèses du théorème de Cauchy-Lipschitz
puisque la fonction g est de classe C 1 . Par ailleurs, elle admet une solution constante
égale à k ∗ , si bien que la fonction continue k, si elle n’est pas constante et égale
à k ∗ , prend toutes ses valeurs dans ]0, k ∗ [ ou dans ]k ∗ , +∞[.
Supposons k(0) < k ∗ . On a alors k(t) ∈ ]0, k ∗ [, et donc g(k(t)) > 0, pour tout
t > 0, si bien que k est strictement croissante. Comme elle est majorée par k ∗ , elle

342
Calcul différentiel, équations différentielles et EDP

y = (α + δ)x

y = sf (x)


k∗

y = g(x)

Figure 2.6 – Allure du graphe de la fonction g et représentation de la stabilité


de l’équilibre k ∗ . Les flèches sur l’axe des abscisses représentent le champ de
vecteurs associé à l’équation différentielle k̇ = g(k).

admet une limite ` ∈ ]0, k ∗ ] en +∞, mais alors k̇ admet g(`) pour limite en +∞
puisque g est continue, d’où g(`) = 0 (sans quoi k n’admettrait pas de limite finie
en +∞) et finalement ` = k ∗ .
Un raisonnement similaire permet de voir que si k(0) > k ∗ , alors k est strictement
décroissante et admet k ∗ pour limite en +∞. Ainsi, k converge vers k ∗ quelle que
soit la valeur de k(0) ∈ R∗+ , donc k ∗ est un équilibre attractif du système.
c) On sait que k est une solution strictement positive de l’équation différentielle

k̇ = sk β − (α + δ)k.

Il s’agit d’une équation de Bernoulli que l’on résout en posant h = k 1−β . On


remarque alors que
   
ḣ = (1 − β)k −β k̇ = (1 − β)k −β sk β − (α + δ)k = (1 − β) s − (α + δ)k 1−β ,

soit
ḣ = (1 − β)s − (1 − β)(α + δ)h.

Cette équation différentielle linéaire d’ordre 1 se résout explicitement : on a

s s
 
∀t > 0, h(t) = h(0) − e−(1−β)(α+δ)t + ,
α+β α+β

343
59. Modèle de croissance de Solow-Swan

d’où
1
∀t > 0, k(t) = h(t) 1−β
1
s s
  
1−β
−(1−β)(α+δ)t
= h(0) − e +
α+β α+β
1
s s
  
1 1−β
−(1−β)(α+δ)t
= k(0) 1−β − e + . (2)
α+β α+β

On obtient la valeur de k ∗ en passant à la limite dans l’expression (2) ou en


résolvant directement l’équation s (k ∗ )β − (α + δ)k ∗ = 0 :
1
s
 
1−β
k∗ = .
α+δ

La Figure 2.7 représente le graphe de la fonction k pour différentes valeurs de k(0).

k(t)

k(0) = 1

k(0) = k ∗ = 0, 25
k(0) = 0, 15
t

Figure 2.7 – Allure du graphe de la fonction k pour différentes valeurs de k(0),


avec α = β = δ = s = 12 .

Commentaires.
© Le modèle de Solow-Swan est un modèle de croissance économique créé en 1956
par l’économiste T.W. Swan à partir de la théorie de la croissance développée par
R. Solow. Il n’est pas conseillé de s’étendre sur la signification économique des
hypothèses sous-jacentes au modèle — et encore moins de les discuter ! — mais il
est appréciable de pouvoir répondre à quelques questions simples sur le sujet.
Plusieurs points appellent un commentaire :
• Le fait que la quantité de travail offerte croisse à un taux constant suggère
que le marché du travail n’est pas pris en compte dans ce modèle : la force
de travail disponible est proportionnelle au nombre d’individus présents dans
l’économie considérée, qui croît à taux constant.

344
Calcul différentiel, équations différentielles et EDP

• L’épargne réalisée par les agents à partir du revenu Y généré par la production
est égale à sY et entièrement réinvestie sous forme d’investissement, c’est-à-
dire d’acquisition de capital, ce qui explique la présence du terme sY dans
l’équation donnant K̇. On suppose donc qu’il n’existe pas de thésaurisation
des revenus ni d’investissements à l’étranger.
• L’existence d’un taux de dépréciation du capital signifie qu’à chaque période
infinitésimale, une partie du capital investi est perdu ; cet artéfact mathéma-
tique modélise à la fois l’usure du capital matériel (comme les machines ou
les locaux) et l’obsolescence du capital immatériel (comme les brevets ou les
logiciels). Une partie du capital acquis à chaque période ne sert donc qu’à
reconstituer le stock de capital amoindri par la dépréciation.
• Le fait que la fonction F soit homogène de degré 1 permet d’écrire l’égalité
F (K, L) = Lf (k) et de ramener le problème à l’étude d’une fonction à une
seule variable. Il signifie qu’une multiplication par un même coefficient des
quantités des deux facteurs productifs induit une augmentation proportion-
nelle de la production. Ce choix revient à faire l’hypothèse de rendements
d’échelle constants : pour un niveau de capital par tête donné, la production
d’une unité de biens supplémentaire par tête exige autant de ressources
lorsque l’économie produit déjà beaucoup de biens que lorsqu’elle en produit
peu.
Utiliser une fonction de production homogène de degré strictement inférieur
à 1 (resp. strictement supérieur à 1) aurait traduit l’existence de rendements
d’échelles décroissants (resp. croissants), c’est-à-dire l’idée selon laquelle à
niveau de capital par tête donné, la production d’une unité de biens supplé-
mentaire exige moins (resp. plus) de ressources lorsque l’économie produit
déjà beaucoup de biens que lorsqu’elle en produit peu. La production agricole
sur des terres de qualité décroissante exhibe par exemple des rendements
d’échelle décroissants, tandis que le secteur des télécommunications, caracté-
risé par des coûts fixes importants et des économies d’échelle dues au faible
coût marginal de l’utilisation des réseaux (c’est-à-dire le coût induit par
l’arrivée d’un utilisateur supplémentaire), exhibe par exemple des rendements
d’échelle croissants.

© Le fait de s’intéresser à la croissance du niveau de capital par tête k plutôt


qu’à celle de la production Y , équivalent théorique du PIB, peut surprendre. On
remarquera tout de même que la quantité k est fonction strictement croissante
de la production par tête YL = f (k), et que la convergence de k vers k ∗ implique
celle de YL vers f (k ∗ ), si bien que les prédictions du modèle portant sur k peuvent
être transposées à YL .

345
59. Modèle de croissance de Solow-Swan

Questions.
1. Montrer que sous les hypothèses faites sur f , toute solution maximale de
l’équation différentielle (1) définie en 0 est définie sur R+ tout entier.
2. Justifier que g(x) tend vers −∞ lorsque x tend vers +∞.
3. Montrer que la fonction f : x 7→ xβ introduite dans la question c) satisfait bien
les hypothèses de l’énoncé.
4. Proposer une méthode générale de résolution d’une équation différentielle de
Bernoulli, c’est-à-dire de la forme y 0 = a(t)y + b(t)y c , où a et b sont des fonctions
continues sur un intervalle de R et à valeurs dans R et où c ∈ R.
Indication : on pourra se débarrasser des cas triviaux c = 0 et c = 1 puis poser
z = y 1−c lorsque cela est possible, en justifiant soigneusement le raisonnement
utilisé.
5. Interpréter économiquement les hypothèses faites sur la fonction f .
6. Comment expliquer économiquement qu’une valeur de k trop élevée soit « au-
tomatiquement » ramenée vers k ∗ ?
7. Donner la forme explicite de F sous l’hypothèse faite dans la question c). En
supposant que le prix d’une unité de travail est w est que celui d’une unité de
capital est r (avec w, r ∈ R∗+ ), déterminer le couple (K0 , L0 ) de coût minimal
pour réaliser un niveau de production Y0 > 0 donné.
Indication : on pourra utiliser le théorème des extrema liés (présenté dans le
Développement 57) pour montrer que

βL0 r
=
(1 − β)K0 w

puis utiliser la relation F (K0 , L0 ) = Y0 , ou se ramener à un problème d’optimisa-


tion d’une fonction à une seule variable en exprimant K en fonction de L sous la
contrainte F (K, L) = Y0 .
8. Interpréter économiquement l’expression donnée pour k ∗ dans la question c).
On s’intéressera en particulier à sa sensibilité aux variations de α, δ, s et β.
9. Formuler des hypothèses sur f plus faibles que celles proposées dans l’énoncé
et assurant néanmoins l’existence d’un équilibre globalement attractif k ∗ .

346
Calcul différentiel, équations différentielles et EDP

Développement 60 (Croissance logistique et prédation F)

Soient α et K deux réels strictement positifs. On considère une espèce dont la


population au cours du temps est représentée par une fonction n : R+ → R+
solution de l’équation différentielle
n
 
n0 = αn 1 − (1)
K

et vérifiant n(0) = n0 > 0. Ce modèle est appelé modèle de croissance


logistique ou modèle de Verhulst.
a) Justifier que n est bien définie, puis donner son expression explicite et
interpréter son comportement asymptotique.
On introduit à présent dans le même environnement un nombre fixé d’individus
d’une espèce prédatrice et on représente la population de l’espèce d’origine
par une fonction N : R+ → R+ solution de l’équation différentielle

N N2
 
0
N = αN 1 − −β (2)
K γ2 + N 2

avec β, γ ∈ R∗+ et vérifiant N (0) = N0 > 0.


b) (i) Justifier que N est bien définie.
(ii) On suppose que K = 10, α = 1, β = 2 et γ = 1. Discuter des points
d’équilibre du système décrit par l’équation (2) ainsi que de leur stabilité.

Leçons concernées : 220, 228

Ce développement présente l’étude d’un modèle classique de population à temps


continu et de son extension au cas d’espèces en interaction. Il articule une résolu-
tion explicite et des arguments plus qualitatifs, et mobilise en cela des outils au
cœur des leçons sur la dérivation (228) et les équations différentielles (220).

Correction.
On utilise dans le développement la notion de sous-solution d’une équation
différentielle, dont la définition est donnée à la page 312. La notion de point
d’équilibre d’un système différentiel, quant à elle, est définie à la page 310.
Avant d’entamer la lecture de ce qui suit, il est fortement conseillé de se reporter
aux commentaires qui font suite à la correction et donnent une interprétation
des modèles étudiés. On veillera à évoquer rapidement cette interprétation avant
toute présentation orale.
a) L’équation (1) satisfaitles hypothèses du théorème de Cauchy-Lipschitz car
x
la fonction x 7→ αx 1 − K est de classe C 1 sur R. Considérons donc la solution
maximale f de (1) issue de n0 et définie sur un intervalle maximal J ⊂ R ; on va
montrer que J contient R+ , ce qui permettra de conclure que n est bien définie.

347
60. Croissance logistique et prédation

Comme la fonction nulle est évidemment solution maximale de l’équation auto-


nome (1), la solution f est nulle si n0 = 0, et elle est strictement positive si n0 > 0.
Supposons donc dorénavant que n0 > 0 et considérons la fonction y := 1/f , elle
aussi définie sur J. Comme f ne s’annule pas, y est dérivable sur J et vérifie
 
f
f0 f 1− K 1

1

α
0
y =− = −α = −α − = −αy + .
f2 f2 f K K
Or y(0) = 1/n0 , donc pour t ∈ J on a
1 1 1
 
y(t) = − e−αt +
n0 K K
et donc
Kn0
f (t) = .
Ke−αt + n0 (1 − e−αt )
Comme α > 0 et K > 0, la fonction f définie sur J par l’expression ci-avant
n’explose pas en temps fini, donc R+ ⊂ J d’après le théorème d’explosion. On a
donc montré que n est bien définie sur R+ , et on a aussi montré que
Kn0
n(t) =
Ke−αt + n0 (1 − e−αt )
pour tout t > 0.
On en déduit que
lim n(t) = K,
t→+∞
c’est-à-dire que la contrainte de ressources à laquelle est soumise la population
(voir les commentaires suivant le développement) est asymptotiquement saturée.
Une conséquence de ce résultat est que K est un point d’équilibre globalement
attractif du système.
x 2
− β γ 2x+x2 est de classe C 1 sur R, le

b) (i) Comme la fonction x 7→ αx 1 − K
théorème de Cauchy-Lipschitz s’applique ici encore et montre qu’il existe bien une
unique solution maximale N de l’équation autonome (2) issue de N0 . Si N0 = 0,
cette solution est nulle et définie sur R tout entier, et si N0 > 0, cette solution est
strictement positive. Plaçons-nous dans ce dernier cas, appelons J l’intervalle de
définition de N et justifions que R+ ⊂ J. Tout d’abord, on a
N (t) N 2 (t) N (t)
   
0
∀t ∈ J, N (t) = αN (t) 1 − −β 2 2
< αN (t) 1 − ,
K γ + N (t) K
c’est-à-dire que N est une sous-solution de l’équation (1).
Ainsi, si m est la solution de (1) telle que m(0) = N0 , on a

∀t ∈ J∩ ]0, +∞[, 0 < N (t) < m(t).

Comme m n’explose pas sur J∩ ]0, +∞[, ce n’est pas non plus le cas de N , si bien
que R+ ⊂ J d’après le théorème d’explosion. Ainsi, N est bien définie sur R+
tout entier.

348
Calcul différentiel, équations différentielles et EDP

(ii) Les points d’équilibre du système (2) sont les solutions positives de l’équation

x x2
 
αx 1 − =β .
K γ 2 + x2

Une solution évidente est x0 := 0, et les autres points d’équilibre x vérifient

x x
 
α 1− =β .
K γ 2 + x2

Avec les valeurs numériques données, cette équation devient


x 2x
1− = , (3)
10 1 + x2

Le terme de gauche de cette équation représente le taux de croissance instantanée


de la population due à ses dynamiques démographiques propres (en incluant la
compétition), tandis que le terme de droite représente son taux de décroissance
instantanée due à la prédation. La Figure 2.8 illustre le comportement de ces deux
termes en fonction de N .

Taux

x0 x1 x2 x3 K N

Figure 2.8 – Taux de croissance instantanée de la population due aux


dynamiques démographiques (en pointillés) et taux de décroissance instantanée
de la population due à la prédation (en trait plein).

L’équation (3) se réécrit sous la forme

−x3 + 10x2 − 21x + 10 = 0.

Une racine évidente de cette équation est x2 = √ 2, et on obtient √par factorisation


que les deux autres solutions sont x1 = 4 − 11 et x3 = 4 + 11. Une simple
étude de signe (ou un regard vers la Figure 2.8) assure alors que N 0 (t) > 0 lorsque
N (t) ∈ ]x0 , x1 [ ∪ ]x2 , x3 [ et que N 0 (t) < 0 lorsque N (t) ∈ ]x1 , x2 [ ∪ ]x3 , +∞[, si
bien que x0 et x2 sont des équilibres instables et que x1 et x3 sont des équilibres
stables.

349
60. Croissance logistique et prédation

Commentaires.
© Faisons quelques commentaires sur le modèle de population logistique défini
par l’équation (1).
Commençons par interpréter le paramètre K. La population étudiée décroît
lorsqu’elle dépasse le seuil K, et son taux de décroissance est d’autant plus fort
n
que le rapport K est élevé. En revanche, elle croît si la population est inférieure
n
à K, et son taux de croissance est alors d’autant plus fort que le rapport K est
faible. Le paramètre K représente un seuil au-delà duquel l’environnement ne
permet plus à la population de grandir, que l’on peut interpréter comme une
quantité fixe de ressources disponibles (nourriture, espace, proies, biens communs,
etc.). C’est l’apport principal du modèle logistique, dans lequel les membres de
la population sont en compétition pour l’accès à ces ressources : le fait que la
croissance de la population ralentisse lorsque celle-ci tend vers K par valeurs
inférieures rend alors compte du fait que la pression compétitive augmente avec
la saturation de la contrainte de ressources.
On peut proposer une grande variété d’interprétations de l’équation (1) selon les
cas étudiés ; on peut par exemple remarquer que le nombre d’interactions possibles
entre des individus d’une population de taille n est de l’ordre de n2 , ce qui rend
la présence d’un terme en −n2 dans l’équation (1) légitime dans un modèle de
population avec compétition, que cette dernière soit ou non liée à une contrainte
de ressources. On utilise aussi le modèle logistique pour décrire l’évolution d’une
épidémie au sein d’une population dans laquelle un grand nombre d’infections
conduit à une réduction du nombre d’individus susceptibles d’être contaminés
et donc à un ralentissement de la propagation de l’épidémie (voir le modèle SIS
présenté dans le Développement 61).

K•

α=2
α=1
α = 0, 5
n0 •

Figure 2.9 – Courbes représentatives de la fonction n avec n0 = 1 et K = 10


pour différentes valeurs du paramètre α. En traits clairs figurent les illustrations
des modèles malthusiens associés aux mêmes valeurs de n0 et α.

350
Calcul différentiel, équations différentielles et EDP

Le paramètre α est approximativement égal au taux de croissance de la population


lorsque cette dernière est très réduite. On vient de voir que ce cas correspond
à une situation dans laquelle la contrainte de ressources introduite par le terme
contenant le paramètre K joue peu ; aussi peut-on interpréter α comme le taux de
croissance de la population en l’absence de compétition. On remarque ainsi que le
modèle proposé est une variante du modèle de population malthusien caractérisé
par un taux de croissance de la population constant 14 . Dans le cas présent, on
2
a ajouté à ce taux de croissance le terme de compétition −α nK . La Figure 2.9
illustre la similitude entre les régimes de croissance pour des niveaux de population
faibles, ainsi que leur forte divergence lorsque la population augmente.
© Il est intéressant de noter que le taux de croissance « interne » de la population
décrite par l’équation (1), c’est-à-dire le paramètre α, n’a aucune influence sur
son comportement asymptotique. Il détermine par contre la durée du régime
transitoire observé, ainsi que le montre la Figure 2.9.
© Le terme ajouté dans l’équation différentielle (2) fait référence à la prédation de
l’espèce étudiée par l’espèce introduite. La diminution instantanée de la population
2
due à cette prédation est égale à β γ 2N +N 2
; elle est donc croissante avec N mais
bornée par β. Ceci modélise un phénomène de saturation dans le comportement
de prédation de l’espèce introduite. Cette propriété mathématique modélise des
phénomènes très divers selon la nature des populations considérées. Dans le cas
d’espèces animales, par exemple, on peut raisonnablement s’attendre à l’observer
lorsque les proies se rassemblent géographiquement, puisqu’alors la croissance de
la population des proies n’implique qu’une faible augmentation de la probabilité
de rencontre entre une proie et un prédateur. Le seuil β correspond alors à la
quantité maximale de proies que peuvent chasser les prédateurs (qui sont en
nombre constant !) en une unité de temps.
La Figure 2.10 illustre la relation positive entre la valeur du paramètre γ et la
vitesse à laquelle la population des proies sature les capacités de prédation de
l’autre espèce.

Questions.
1. Détailler l’argument permettant d’affirmer dans la question a) que f est
strictement positive si n0 > 0.
2. Proposer une méthode générale de résolution d’une équation différentielle de
Bernoulli, c’est-à-dire de la forme y 0 = a(t)y + b(t)y c , où a et b sont des fonctions
continues sur un intervalle de R et à valeurs dans R et où c ∈ R.
Indication : on pourra se débarrasser des cas triviaux c = 0 et c = 1 puis poser
z = y 1−c lorsque cela est possible, en justifiant soigneusement le raisonnement
utilisé.
14. Dans le cadre d’un modèle malthusien, ce taux est défini comme la différence entre le
taux de natalité et le taux de mortalité intrinsèques de la population. L’inaptitude d’un tel
modèle à rendre compte de manière endogène de l’effet de l’environnement sur les dynamiques de
populations est ce qui a conduit Pierre François Verhulst à proposer en 1840 le modèle logistique
que nous étudions ici.

351
60. Croissance logistique et prédation

N2
β γ 2 +N 2

β=1

0, 5
γ = 0, 2
γ = 0, 5
γ=1

0, 2 0, 5 1 N

Figure 2.10 – Nombre de victimes de prédation en une unité de temps en


fonction de la population des proies dans le modèle de Verhulst avec prédation,
dans le cas β = 1 et pour différentes valeurs de γ.

3. Pourquoi une solution maximale de (2) est-elle définie sur un intervalle ouvert ?
4. Esquisser la preuve du théorème d’explosion.
5. Justifier que n et N sont bien définies sur R+ en utilisant le théorème d’existence
de solutions globales d’équations différentielles associées à des champs de vecteurs
à croissance au plus linéaire.
6. Avec les valeurs numériques données dans la question b)(ii), quel est le com-
portement asymptotique d’une solution issue de 0, 01 ? de 1, 99 ? de 2, 01 ? de
K = 10 ? de 1000 ?

352
Calcul différentiel, équations différentielles et EDP

Développement 61 (Modèle épidémiologique SIS FF)

On souhaite étudier la propagation d’une épidémie au sein d’une population


de N > 0 individus, composée au temps t > 0 d’un nombre S(t) d’individus
sains (aussi dits susceptibles) et d’un nombre I(t) := N − S(t) d’individus
infectieux.
On modélise cette situation par des fonctions dérivables S : R+ → [0, N ]
et I = N − S vérifiant l’équation différentielle 15
βIS S
 
Ṡ = γI − =I γ−β , (1)
N N

où Ṡ représente la dérivée de S par rapport au temps, et où β, γ ∈ R∗+ .


a) Commenter le formalisme adopté.
b) Justifier que les fonctions S et I sont bien définies sur R+ et à valeurs
dans [0, N ] quel que soit le choix de la condition initiale S(0) ∈ [0, N ].
c) Déterminer les points d’équilibre du système et discuter de leur nature.
d) Donner la forme explicite de S(t) pour tout t > 0.

Leçons concernées : 220, 229, 236

Ce développement propose d’étudier un modèle épidémiologique déterministe régi


par une équation différentielle ordinaire. L’étude qualitative du système mobilise
des arguments élémentaires relatifs à l’existence, à la monotonie et à la non-
explosion des solutions en temps fini, ce qui en fait une illustration accessible pour
les leçons 220 et 229. On invite dans un second temps à déterminer explicitement
les solutions de l’équation différentielle étudiée en intégrant une fraction rationnelle
décomposée en éléments simples, ce qui justifie le placement de ce développement
dans la leçon 236.

Correction.
La notion de point d’équilibre du système (2) est définie à la page 310. Par
ailleurs, on utilise dans le développement la notion de sous-solution d’une équation
différentielle, dont la définition est donnée à la page 312.
a) On considère que chaque individu infecté de la population entreprend un
contact infectieux avec un autre individu choisi au hasard dans la population
à un taux temporel β, ce qui occasionne entre les temps t et t + dt un nombre
d’interactions infectieuses entre des individus infectés et des individus sains
proportionnel à βI(t) S(t)
N dt. Dans cette équation, le facteur β traduit à la fois la
fréquence des contacts entrepris entre les individus et la proportion (déterministe
ou statistique) des contacts entre individus sains et individus infectés qui donne
lieu à l’infection de nouveaux individus. Par ailleurs, la guérison des individus
infectieux intervient à taux γ : une fraction γdt des I(t) individus infectés au
15. En 0, cette équation différentielle est à comprendre au sens de la dérivée à droite.

353
61. Modèle épidémiologique SIS

temps t redevient saine en une unité de temps infinitésimale dt, ce que traduit la
présence du terme γI(t) dans l’expression de Ṡ(t). On peut d’ailleurs réécrire le
système différentiel de façon plus symétrique sous la forme

Ṡ = γI − β IS
N
(2)
˙ IS
I=β N − γI,

dans laquelle les deux lignes sont bien sûr équivalentes puisque I := N − S.
Le modèle SIS introduit ici est l’un des deux 16 modèles mécanistes élémentaires les
plus communs en épidémiologie. Il rend compte de la dynamique épidémiologique
au sein de la population par le passage des individus d’un statut sanitaire à l’autre,
représenté comme un « déplacement entre deux compartiments », ce qui lui vaut
le nom de modèle compartimental. La dynamique modélisée est schématisée sur la
Figure 2.11.

S I

Figure 2.11 – Représentation schématique du modèle compartimental SIS. Les


nombres apparaissant sur les flèches sont les taux instantanés de passage d’un
compartiment à l’autre par individu.

b) Soit s0 ∈ [0, N ]. On cherche à montrer que (1) admet une unique solution S
vérifiant S(0) = s0 définie sur R+ tout entier, et que S (et donc I) est bien à
valeurs dans [0, N ].
La fonction
F : R −→ R
−s)s
s 7−→ γ(N − s) − β (N N
étant de classe C 1 , l’équation différentielle (1) admet une unique solution maxi-
male f vérifiant f (0) = s0 d’après le théorème de Cauchy-Lipschitz. On note J
son intervalle de vie, et on cherche à montrer que f est à valeurs dans [0, N ] et
que l’on a R+ ⊂ J, ce qui impliquera que S est bien définie et à valeurs dans
[0, N ] en tant que restriction de f à R+ .
Comme la fonction constante égale à N est solution de l’équation différentielle
autonome (1) et comme f (0) = s0 6 N , on a f (t) 6 N pour tout t ∈ J ∩ R+
d’après le résultat d’unicité du théorème de Cauchy-Lipschitz. Par ailleurs, f est
à valeurs positives sur R puisque la fonction nulle est une sous-solution de (1)
et f (0) = s0 > 0. On a donc f (t) ∈ [0, N ] pour tout t ∈ J ∩ R+ , si bien que J
contient R+ tout entier d’après le théorème d’explosion.
16. L’autre est le modèle SIR, présenté dans le Développement 62.

354
Calcul différentiel, équations différentielles et EDP

c) Le point x ∈ [0, N ] est un point d’équilibre du système dynamique associé à


l’équation (1) si et seulement si (N − x) γ − β Nx = 0. Les points d’équilibre du
système (1) sont donc le point N correspondant à l’absence d’individus infectés
et, si γ 6 β, le point βγ N , qualifié d’équilibre endémique. On étudie à présent la
stabilité de ces points d’équilibre dans chacun des deux cas considérés.
• Supposons tout d’abord que γ > β. Alors (N − x) γ − β Nx > 0 pour tout


réel x ∈ [0, N ], si bien que S est croissante sur I d’après l’équation (1).
Elle admet donc en +∞ une limite réelle ` ∈ [0, N ], ce qui implique que sa
dérivée tend vers (N − `)(γ − β N` ) d’après (1). Or ce dernier réel ne peut
être que nul puisque S est bornée ; on a donc ` = N ou ` = βγ N , ce dernier
cas étant impossible puisque βγ N > N . Ainsi, S tend vers N en +∞, ce qui
montre que N est un point d’équilibre asymptotiquement stable du système :
l’attraction par ce point d’équilibre a lieu quelle que soit la condition initiale
dans [0, N ].
Notons que l’hypothèse γ > β revient à dire que le taux de rémission est plus
important que le taux d’infection, ce qui est intuitivement conforme avec le
phénomène d’extinction asymptotique de la maladie à long terme.
• Si γ 6 β, la quantité (N − x) γ − β Nx est positive si x ∈ [0, βγ N ] et négative


si x ∈ [ βγ N, N ]. Le théorème de Cauchy-Lipschitz assure par ailleurs que S


ne peut prendre la valeur βγ N si elle n’est pas identiquement égale à cette
valeur. Le théorème des valeurs intermédiaires et l’équation (1) impliquent
alors que si S(0) ∈ [0, βγ N ], alors S est à valeurs dans [0, βγ N ] et croissante,
et que si S(0) ∈ [ βγ N, N ], alors S est à valeurs dans [ βγ N, N ] et décroissante.
Le même raisonnement que dans le cas précédent permet alors de montrer
que S tend vers βγ N dans le cas où S(0) ∈ [0, βγ N ] ∪ [ βγ N, N [ = [0, N [ et
stationne à N dans le cas où S(0) = N . Le point d’équilibre βγ N est donc
asymptotiquement stable et le point d’équilibre N , s’il est différent de βγ N
(c’est-à-dire si γ 6= β), instable.
La condition γ 6 β traduisant le fait que le taux d’infection est au moins
aussi important que le taux de guérison, il n’est guère surprenant que la
population infectée ne s’éteigne pas à long terme dans ce cas.
La Figure 2.12 résume graphiquement le raisonnement ci-avant ; on pourra bien
entendu la reproduire dans le cadre d’une présentation orale.
d) On a vu que le cas S(0) = N et le cas S(0) = βγ N (si γ < β) correspondent à
des solutions constantes. On suppose dorénavant que S(0) 6= N et S(0) 6= βγ N .
Comme on l’a vu dans la question précédente, si S(0) ∈ [0, N ] n’est pas égal
à l’un des deux points d’équilibre du système, alors S ne prend jamais pour
valeur l’un de ces points d’équilibre d’après la propriété d’unicité du théorème
de Cauchy-Lipschitz. On peut donc réécrire l’équation (1) comme une équation à
variables séparables :
Ṡ(t)
∀t ∈ R+ ,   = 1. (3)
(N − S(t)) γ − β S(t)
N

355
61. Modèle épidémiologique SIS

0 N y = (N − x) γ − β Nx


y = (N − x) γ − β Nx


0 γ
N
βN

Figure 2.12 – Illustration sur [0, N ] du flot associé à l’équation différentielle (1)
dans le cas γ > β (en haut) et dans le cas γ 6 β (en bas).

On distingue alors trois cas selon les positions relatives de β et γ :


• Supposons tout d’abord que β < γ. La fonction rationnelle

g : [0, N [ −→ R
x 7−→ (N −x) 1γ−β x
( N)

admet une décomposition en éléments simples donnée par


!
1 1 1
∀x ∈ [0, N [, g(x) = − ,
β−γ x−N x − βγ N

Elle admet donc une primitive sur [0, N [ donnée par

G : [0, N [ −→ R   
1
x 7−→ β−γ ln(N − x) − ln βγ N − x .

L’équation (3) implique que (G ◦ S)0 = 1. Il existe donc α ∈ R tel que

∀t ∈ R+ , G ◦ S(t) = t + α. (4)

En utilisant l’expression explicite de G dans l’équation (4), on obtient


!
1 N − S(t)
∀t ∈ R+ , ln γ =t+α
β−γ β N − S(t)

356
Calcul différentiel, équations différentielles et EDP

d’où, d’une part, !


1 N − S(0)
α= ln γ ,
β−γ β N − S(0)
et d’autre part
N − S(t)
∀t ∈ R+ , γ = exp [(β − γ)(t + α)] .
βN− S(t)
γ
Après multiplication par βN − S(t) et réarrangement des termes, on trouve

1 − βγ e(β−γ)(t+α)
∀t ∈ R+ , S(t) = N
1 − e(β−γ)(t+α)
γN − βS(0) − γ(N − S(0))e(β−γ)t
= N.
γN − βS(0) − β(N − S(0))e(β−γ)t
Comme γ > β, on retrouve bien le fait que S converge vers N .
• Supposons à présent que β > γ. La fonction rationnelle g définie par la
même expression que dans le cas précédent sur [0, N [ \{ βγ N } admet la même
décomposition en éléments simples et possède donc
G : [0, N [ \{ βγ N } −→ R
 
x 7−→ 1
β−γ ln(N − x) − ln x − βγ N
pour primitive sur [0, βγ N [ et sur ] βγ N, N ]. Or S est à valeurs dans [0, βγ N [ ou
à valeurs dans ] βγ N, N [, si bien que G ◦ S est bien définie, dérivable sur R+
et de dérivée égale à 1 d’après (3). L’équation (4) est donc toujours valable
pour un certain α ∈ R.
Si S(0) < βγ N , le même raisonnement que dans le cas précédent donne

γN − βS(0) − γ(N − S(0))e(β−γ)t


∀t ∈ R+ , S(t) = N.
γN − βS(0) − β(N − S(0))e(β−γ)t
i h i h
γ γ
Si S(0) ∈ β N, N , alors S est à valeurs dans β N, N et (4) devient
!
1 N − S(t)
∀t ∈ R+ , ln =t+α
β−γ S(t) − βγ N
d’où, après un calcul similaire à celui détaillé plus haut,
!
1 N − S(0)
α= ln
β−γ S(0) − βγ N
et
1 + βγ e(β−γ)(t+α)
∀t ∈ R+ , S(t) = N
1 + e(β−γ)(t+α)
βS(0) − γN + γ(N − S(0))e(β−γ)t
= N.
βS(0) − γN + β(N − S(0))e(β−γ)t
On retrouve bien le fait que quelle que soit la condition initiale S(0) ∈ [0, N [,
S converge vers βγ N lorsque βγ < 1.
357
61. Modèle épidémiologique SIS

• Supposons enfin que β = γ. La fonction g sur [0, N [ par la même expression


que précédemment admet pour primitive

G : [0, N [ −→ R
N 1
x 7−→ ,
β N −x
et on a (G ◦ S)0 = 1 d’après l’équation (3). Il existe donc α ∈ R tel que

∀t ∈ R+ , G ◦ S(t) = t + α,

d’où l’on déduit


N 1 N 1
α= et ∀t ∈ R+ , S(t) = N − .
β N − S(0) β t+α
En combinant ces deux équations, on obtient l’expression explicite de S :
 
1
∀t ∈ R+ , S(t) = 1 − N
 N.
N −S(0) + βt

On retrouve bien la convergence de S vers l’unique point d’équilibre N .


La Figure 2.13 représente la courbe de S et celle de I dans les trois cas considérés.

N N
S(t)
γ S(t)
βN

I(t)
S(0) I(t) S(0)

N S(t)

S(0) I(t)

Figure 2.13 – Courbes représentatives des fonctions S et I dans les cas γ > β
(en haut à gauche), γ < β (en haut à droite) et γ = β (en bas).

358
Calcul différentiel, équations différentielles et EDP

Commentaires.
© On pourra omettre la question d) dans le cas où le développement n’est pas
présenté comme une illustration des méthodes de calcul d’intégrales (leçon 236).
Le cas échéant, on veillera malgré tout à bien comprendre la stratégie adoptée
dans la détermination explicite de S pour pouvoir répondre à une éventuelle
question.
© Dans le cas où la question c) est présentée, on pourra raccourcir considérable-
ment la présentation de la question a).
© Dans le cas où β > γ, l’équation (1) se réécrit sous la forme
β γ
   
I˙ = I N 1 − −I
N β
et l’évolution de I est alors décrite par un modèle de croissance logistique avec
une capacité N (1 − βγ ) (voir le Développement 60). On retrouve la forme caracté-
ristique de la courbe de I lorsque I(0) prend une valeur faible, comme l’illustre
la Figure 2.14. Dans ce cas, l’épidémie croît d’abord de manière exponentielle
(ce qui correspond à un développement malthusien au sein d’une population
principalement constituée d’individus susceptibles), puis ralentit jusqu’à rejoindre
un seuil correspondant à une proportion d’infectés trop forte pour que le nombre
des contaminations instantanées surpasse celui des rémissions.

γ
βN
S(t)

γ
 I(t)
1− β N

Figure 2.14 – Courbes représentatives de S et I dans le cas β > γ avec I(0)


faible.

© En épidémiologie, la quantité βγ est généralement notée R0 et appelée le nombre


de reproduction de base. Elle correspond intuitivement au nombre d’infections
causées par un individu infectieux avant sa rémission lorsque cet individu est in-
troduit dans une population composée uniquement d’individus sains. Les résultats
du modèle peuvent être résumés de la façon suivante :
• Lorsque R0 6 1, l’unique point d’équilibre du système correspond à une
population composée uniquement d’individus sains et est asymptotiquement
stable.
• Lorsque R0 > 1, le point d’équilibre correspondant à une population com-
posée uniquement d’individus sains est instable, et il existe un autre point

359
61. Modèle épidémiologique SIS

d’équilibre RR0 −1
0
N associé à une quantité d’individus infectieux non nulle,
appelé équilibre endémique du système. Ce point d’équilibre est alors asymp-
totiquement stable.
© Le modèle SIS modélise de façon adéquate des populations non structurées avec
des contacts homogènes dans lesquelles se propage un pathogène contre lequel les
individus remis ne développent pas d’immunité de long terme, comme le rhume
ou la grippe.
© Le modèle SIS présenté ici a été décliné en de multiples versions depuis sa
formulation initiale par Kermack et McKendrick dans les années 1920. Les modèles
déterministes ainsi obtenus correspondent notamment à l’introduction de nouveaux
compartiments représentant des statuts sanitaires non binaires (par exemple le
compartiment R des individus remis et immunisés ou le compartiment E des
individus en période d’incubation) ou à la structuration de la population en
sous-groupes induisant des structures de contact complexes.
© Dans le cas où la guérison des individus infectés est impossible, c’est-à-dire le
cas γ = 0, le modèle SIS est appelé modèle SI.
© Le modèle SIS admet un analogue stochastique construit sur des processus
de Poisson d’intensités β et γ, dans lequel les individus, en nombre fini et fixé,
changent de compartiment à un taux aléatoire dépendant de leur statut sanitaire
actuel et de leur exposition à la maladie. Dans ce modèle, l’extinction de la maladie
à long terme survient avec probabilité 1 pour peu que γ > 0, mais on observe un
phénomène de seuil : si R0 6 1, l’extinction a lieu en un temps relativement court
et qui ne tend pas vers l’infini avec N (on parle d’épisode épidémique mineur),
tandis que si R0 > 1, avec une probabilité strictement positive la maladie s’étend
à une proportion non nulle de la population et s’éteint en un temps en moyenne
proportionnel à N ln(N ) (on parle alors d’épisode épidémique majeur).
© On consultera utilement le Développement 62 pour acquérir un recul supplé-
mentaire sur les modèles compartimentaux.

Questions.
1. Illustrer graphiquement le raisonnement permettant d’établir le fait que la
solution maximale de (1) est à valeurs dans [0, N ] dans la question a).
2. Détailler l’argument permettant de montrer que S ne peut prendre la valeur N
si elle n’est pas constante.
3. Donner une démonstration du fait que S est positive qui n’utilise pas la notion
de sous-solution.
4. Représenter le cas γ = β non traité dans la Figure 2.12.
5. Détailler les décompositions en éléments simples réalisées dans la question c).
6. Définir un modèle SIS probabiliste à temps discret sous la forme d’une chaîne
de Markov, puis étudier un tel modèle.

360
Calcul différentiel, équations différentielles et EDP

Développement 62 (Modèle épidémiologique SIR FF)

On souhaite étudier la propagation d’une épidémie au sein d’une population


de N > 0 individus, composée au temps t d’un nombre S(t) d’individus sains
(aussi dits susceptibles), d’un nombre d’individus I(t) d’individus infectés et
d’un nombre R(t) d’individus anciennement infectés, rétablis et immunisés
contre la maladie. On modélise cette situation par deux fonctions dérivables
notées S : R+ → [0, N ] et I : R+ → [0, N ] qui vérifient le système d’équations
différentielles suivant :

IS
 Ṡ = −β


N (1)
IS
 I˙ = β − γI,


N
˙ représente la dérivée de S (resp. I) par rapport au temps et où
où Ṡ (resp. I)
β, γ ∈ R∗+ sont des paramètres. On pose par ailleurs R := N − S − I.
a) Commenter le formalisme adopté.
b) Montrer que S, I et R sont bien définies sur R+ et à valeurs positives pour
tout choix de conditions initiales S(0), I(0) ∈ [0, N ] vérifiant S(0) + I(0) 6 N .
c) On introduit à présent la fonction

H : R+ −→ R  
R(t)
x 7−→ S(t) exp βγ N .

(i) Montrer que H est constante.


(ii) En déduire que lorsque R(0) = 0 et S(0) > 0, la taille totale de l’épidémie
définie par R∞ := limt→+∞ R(t) est caractérisée par l’équation

β R∞
 
(N − R∞ ) exp = S(0).
γ N

Leçons concernées : 220,229

Ce développement, complémentaire du Développement 61 qui étudie le modèle SIS,


propose d’étudier de façon purement qualitative un modèle épidémiologique dé-
terministe régi par un système d’équations différentielles ordinaires. En cela, il
illustre adéquatement les leçons 220 et 229.

Correction.
On utilise dans le développement la notion de sur-solution d’une équation diffé-
rentielle, dont la définition est donnée à la page 312.
a) On considère que chaque individu infecté de la population entreprend un
contact infectieux avec un autre individu choisi au hasard dans la population
à un taux temporel β, ce qui occasionne entre les temps t et t + dt un nombre

361
62. Modèle épidémiologique SIR

d’interactions infectieuses entre des individus infectés et des individus sains


proportionnel à βI(t) S(t)
N dt. Dans cette équation, le facteur β traduit à la fois la
fréquence des contacts et la proportion (déterministe ou statistique) des contacts
entre individus sains et individus infectés qui donne lieu à une infection. Par
ailleurs, la guérison des individus infectés intervient à taux γ : une fraction γdt de
l’ensemble des I(t) individus infectés au temps t est guérie en une unité de temps
infinitésimale dt, ce que traduit la présence du terme −γI(t) dans l’expression
˙
de I(t). On peut réécrire le système différentiel de façon plus symétrique sous la
forme


IS
 Ṡ

 = −β N
I˙ = β IS
N − γI (2)


 Ṙ = γI.

La différence entre le modèle SIS présenté dans le Développement 61 et le mo-


dèle SIR étudié ici réside dans le fait que les individus infectés profitant d’une
guérison ne retournent pas au statut sain (compartiment S) mais deviennent
rétablis (compartiment R), comme on l’a représenté sur la Figure 2.15.

S β I γ R

Figure 2.15 – Représentation schématique du modèle compartimental SIR. Les


nombres apparaissant sur les flèches sont les taux instantanés de passage d’un
compartiment à l’autre par individu.

Cette hypothèse est pertinente dans le cas de pathogènes qui provoquent la


production d’anticorps assurant une immunité pendant une certaine période chez
les sujets remis, comme la rougeole ou la rubéole. Le choix du formalisme (1),
dans lequel aucun individu ne quitte le compartiment R, correspond à l’hypothèse
d’une immunité complète et non limitée dans le temps.
b) Soient s0 , i0 ∈ [0, N ] tels que s0 + i0 6 N . On cherche à montrer que le système
d’équations différentielles (1) admet une unique solution (S, I) définie sur R+ tout
entier vérifiant S(0) = s0 et I(0) = i0 , et que S + I est à valeurs dans l’intervalle
[0, N ], ce qui montrera que R := N − S − I l’est aussi.
D’après le théorème de Cauchy-Lipschitz, comme l’application

F : R2 −→ R 2
is is
 
(s, i) 7−→ −β , β − γi
N N

362
Calcul différentiel, équations différentielles et EDP

est de classe C 1 , le système d’équations différentielles



fg
 f0 = −β


N (3)
fg
 g0 − γg

 = β
N
admet une unique solution maximale (f, g) telle que f (0) = s0 et g(0) = i0 . On
note J ⊂ R son intervalle de vie.
Traitons tout d’abord deux cas particuliers :

• Si s0 = 0, f est constante et égale à 0 et g(t) = e−γt i0 pour tout t ∈ J. On a


dans ce cas J = R, donc (S, I) est bien définie comme restriction de (f, g)
à R+ , est à valeurs dans [0, N ]2 et vérifie S(t) + I(t) = e−γt i0 6 i0 6 N pour
tout t > 0.
• Si i0 = 0, alors (f, g) est la solution constante égale à (s0 , 0). On a dans ce
cas J = R, donc (S, I) est bien définie comme restriction de (f, g) à R+ , est
bien à valeurs dans [0, N ]2 et vérifie bien S + I = s0 6 N .

On suppose donc désormais que s0 > 0 et i0 > 0. Montrons dans un premier


temps que (f, g) est à valeurs dans ]0, N [ 2 sur J ∩ R∗+ . Pour ce faire, raisonnons
par l’absurde et supposons que cela ne soit pas le cas. On pose alors
n o
τ := inf t ∈ J ∩ R∗+ : (f (t), g(t)) ∈
/ ]0, N [ 2 .

Remarquons d’emblée que comme f (0), g(0) ∈ ]0, N [, par continuité de (f, g) on a
τ > 0, et f et g sont à valeurs dans ]0, N [ 2 sur ]0, τ [.
On sait que (f + g)0 = −γg, donc f + g est strictement décroissante sur [0, τ ], si
bien que (f + g)(τ ) < N et donc f (τ ) < N et g(τ ) < N puisque f > 0 et g > 0.
Par ailleurs, on a f 0 = −βf Ng donc f est une sur-solution de l’équation différentielle
y 0 = −βy sur ]0, τ [ ; on en déduit que f (t) > s0 e−βt > 0 pour tout t ∈ [0, τ ], donc
en particulier que f (τ ) > 0.
Enfin, comme g 0 = β fNg − γg, la fonction g est une sur-solution de l’équation
différentielle g 0 = −γg sur ]0, τ [, donc g(t) > i0 e−γt pour tout t ∈ [0, τ ], et en
particulier g(τ ) > 0.
Ainsi, (f, g)(τ )∈ ]0, N [ 2 , ce qui contredit le fait que (f, g) soit continue et ]0, N [ 2
ouvert. La solution (f, g) est donc bien à valeurs dans le pavé ]0, N [ 2 sur J ∩ R∗+ .
Comme (f, g) est à valeurs dans ]0, N [ 2 sur J ∩ R∗+ , le théorème d’explosion
implique bien que l’intervalle de vie J contient R+ tout entier, ce qui permet de
définir de manière unique les restrictions S et I de f et g à R+ . On a par ailleurs
montré que f et g (et donc S et I) sont à valeurs positives sur R+ . Enfin, pour
prouver que S + I 6 N , il suffit d’appliquer à nouveau l’argument selon lequel
l’égalité (f + g)0 = −γg < 0 implique que f + g est décroissante sur R+ et donc
que S + I est à valeurs inférieures à S(0) + I(0) = s0 + i0 6 N .

363
62. Modèle épidémiologique SIR

c) (i) On remarque que la première équation du système (1) peut se réécrire


sous la forme
β
∀t ∈ R+ , Ṡ(t) + S(t)I(t) = 0.
N
En calculant la dérivée de H par rapport au temps, on obtient alors
!
β Ṙ(t) β R(t)
 
∀t ∈ R+ , Ḣ(t) = Ṡ(t) + S(t) exp
γ N γ N
β β R(t)
   
= Ṡ(t) + I(t)S(t) exp =0
N γ N
grâce à la troisième équation de (2), ce qui montre que H est constante sur R+ .
(ii) Notons tout d’abord que d’après le système (2), la fonction S est décroissante
et R est croissante, ce qui assure que leurs limites en +∞ existent. Comme on a
S + I + R = N , il en va donc de même pour I. On note S∞ , I∞ et R∞ les limites
respectives de S, I et R en +∞, et on remarque que l’équation Ṙ = γI implique
que I∞ = 0, si bien que S∞ + R∞ = N .
On suppose désormais que R(0) = 0. On a alors H ≡ H(0) = S(0) d’après la
question précédente, soit
β R(t)
 
∀t ∈ R+ , S(t) exp = S(0)
γ N
d’où, par passage à la limite,
β R∞
 
S∞ exp = S(0),
γ N
soit encore
β R∞
 
(N − R∞ ) exp = S(0) (4)
γ N
qui est bien la relation recherchée. Il est aisé de voir par une étude de fonction que
cette équation admet une unique solution sur [0, N ], et donc qu’elle caractérise
bien R∞ .

Commentaires.
© On pourra à l’envi raccourcir la présentation heuristique effectuée dans la
question a) pour libérer le temps nécessaire à l’exposé de la question b), riche en
arguments analytiques simples mais précis.
© Il est utile d’étudier le Développement 61 ainsi que les commentaires et les
questions qui le suivent pour acquérir davantage de recul sur les modèles épidé-
miologiques compartimentaux et se préparer à satisfaire la curiosité du jury.
© Contrairement au cas du processus SIS décrit dans le Développement 61, le
comportement asymptotique du processus SIR ne présente pas de phénomène de
seuil, et l’équation (4) montre que R∞ est une fonction strictement croissante et
continue du rapport R0 := βγ , appelé nombre de reproduction de base.

364
Calcul différentiel, équations différentielles et EDP

© La Figure 2.16 illustre le champ de vecteurs associé au système (1) et peut


servir de support visuel au traitement de la question b). Notons que le champ de
vecteurs n’est pas rentrant sur les bords du triangle {(s, i) ∈ [0, N ]2 : s + i 6 N },
c’est-à-dire que les frontières du triangle ne sont pas répulsives pour le système
dynamique associé, ce qui contraint à trouver des barrières exponentielles pour f
et g dans la question b).

0 N s

Figure 2.16 – Représentation du champ de vecteurs associé au système (1) pour


le choix de paramètres N = 20 et β = γ = 5.

© La Figure 2.17 représente les fonctions S, I et R dans le cas où l’infection est


introduite dans la population par un nombre réduit d’individus et où R0 := βγ > 1.
Dans ce cas, la croissance du nombre d’individus infectés est d’abord exponentielle,
puis est limitée par la décroissance du nombre d’individus susceptibles, ce qui
donne au graphe de I une allure de courbe logistique (voir Développements 60
et 61). Contrairement à ce que l’on observe dans le cas du modèle SIS (voir
Développement 61), l’infection finit par s’éteindre puisque les individus infectés
ne redeviennent pas susceptibles mais sont immunisés.

Questions.
1. Supposons que (i0 , s0 ) ∈ ]0, N [2 avec i0 + s0 6 N . La solution maximale (f, g)
étudiée dans la question b) est-elle à valeurs dans ]0, N [ sur J tout entier ?
2. Détailler l’utilisation faite dans la question b) du résultat sur les sur-solutions
exposé à la page 2.
3. Quelle est la taille finale de l’épidémie si S(0) = N ?
4. Dans le modèle SIR, montrer que I est décroissante sur R si et seulement si
on a βS(0) − γ 6 0, et que dans le cas contraire le maximum de I est atteint à
l’unique temps t > 0 tel que S(t) = βγ .

365
62. Modèle épidémiologique SIR

N
S(0)
S(t) R(t)

I(t)
I(0)

Figure 2.17 – Courbes représentatives des fonctions S, I et R .

5. Détailler l’étude de fonction permettant de conclure dans la question c).


6. Pourquoi le réel R∞ est-il nommé taille totale de l’épidémie ?
7. Proposer un algorithme d’approximation de R∞ .
8. Adapter le résultat de la question c) au cas où R(0) > 0. Est-il toujours
pertinent de parler de R∞ comme de la taille totale de l’épidémie dans ce cas ?
9. Quel serait l’effet sur la taille totale de l’épidémie d’une politique de vaccination
portant sur une proportion λ ∈ [0, 1] des individus initialement susceptibles ?
10. En utilisant l’équation (4) et le tableau de variations de la fonction H,
déterminer le rôle des coefficients β et γ sur la valeur de R∞ et interpréter ce
résultat.
11. Proposer une modélisation probabiliste d’un phénomène épidémique inspirée
du modèle SIR.

366
Calcul différentiel, équations différentielles et EDP

Développement 63 (Étude qualitative d’une équation de Riccati FF)

On souhaite étudier les solutions sur R de l’équation de Riccati

(E) x0 = x2 − t.

a) Montrer que (E) admet des solutions maximales et qu’elles sont de classe C ∞
sur leur intervalle de définition.
On suppose donnée une solution maximale (x, I) de (E), définie sur un
intervalle I = ]a, b[ où −∞ 6 a < b 6 +∞.
b) Montrer que x admet au plus un point critique et au plus un point
d’inflexion. En déduire que x et x0 sont strictement monotones aux voisinages
de a et de b dans I.
c) Montrer que a > −∞. En déduire que x(t) → −∞ ainsi que x0 (t) → +∞
lorsque t → a+ .
d) Montrer que si b < +∞, alors x est croissante et x admet un unique point
d’inflexion.
e) Montrer que si x est croissante, alors x est une bijection de I dans R.
f) Montrer que si x admet un point critique, alors b = +∞, x admet un
unique point d’inflexion, et on a le développement asymptotique
√ 
1

x(t) = − t + o √ lorsque t → +∞.
t

Leçons concernées : 220, 228, 229

Ce développement est un choix évident pour la leçon 220. La forte présence des
propriétés des fonctions d’une variable réelle (théorèmes des valeurs intermédiaires,
de Rolle, de la bijection, et de la limite monotone) le rendent aussi pertinent pour
illustrer les leçons 228 et 229.
La correction qui suit est inspirée d’une réponse d’Alain Tissier publiée dans la
Revue de la Filière Mathématiques [Tis10].

Correction.
Le développement repose essentiellement sur le théorème d’explosion et sur le
lemme suivant :

Soit f ∈ C 1 (I, R) telle que pour tout t ∈ I, f (t) = 0 =⇒ f 0 (t) > 0.


Alors f s’annule au plus une fois, et si f s’annule en ν ∈ I alors f
est strictement négative sur ]a, ν[ et strictement positive sur ]ν, b[.

a) L’équation différentielle (E) est de la forme x0 = F (t, x) où la fonction F est


définie par (t, x) 7→ x2 − t est de classe C ∞ donc localement lipschitzienne. Le
théorème de Cauchy-Lipschitz assure donc l’existence (et l’unicité) de solutions

367
63. Étude qualitative d’une équation de Riccati

maximales. Elles sont de classe C ∞ car F est de classe C ∞ .


b) Les premières dérivées de x vérifient

x0 = x2 − t, (1)
00 0
x = 2xx − 1, (2)
000 02 00
x = 2x + 2xx . (3)

Déduisons deux conséquences sur les possibles points d’annulation.


• Si t ∈ I est tel que x0 (t) = 0, alors x00 (t) = −1 < 0 d’après (2). On applique
maintenant le lemme ci-avant à la fonction −x0 pour en déduire que x admet
au plus un point critique. Ainsi, si x admet un point critique ν ∈ I, alors x
est strictement croissante sur ]a, ν[ et strictement décroissante sur ]ν, b[.
Sinon, x est strictement monotone sur I.
• Si t ∈ I est tel que x00 (t) = 0, alors 2x(t)x0 (t) = 1 d’après (2), donc x0 (t) 6= 0
puis x000 (t) > 0 d’après (3). Une nouvelle application du lemme (cette fois à
la fonction x00 ) montre que x admet au plus un point d’inflexion.
Ainsi x0 et x00 changent de signe au plus une fois sur I ; en particulier x et x0 sont
strictement monotones aux voisinages de a et de b dans I.

c) Supposons a = −∞ et considérons c < min(0, b) et ω = −c. Puisque pour
tout u < c,
x0 (u) = x(u)2 − u > x(u)2 − c = x(u)2 + ω 2 ,
on a
x0 (u)
> 1.
x(u)2 + ω 2
En intégrant sur [t, c], on obtient donc

x0 (u)
Z c
du > c − t.
t x(u)2 + ω 2

Grâce au changement de variable de classe C 1 défini par v = x(u), ceci se réécrit

1 x(c) x(t)
    
arctan − arctan > c − t.
ω ω ω
Alors ωπ > c − t, ce qui est absurde lorsque t → −∞. On en déduit que a > −∞
et, par le théorème des bouts, la limite de x en a+ ne peut être finie. D’après (1),
on a donc x0 (t) → +∞ puis x(t) → −∞ lorsque t → a+ .
d) Supposons b < +∞. La question b) garantit que x est monotone au voisinage
de b− , donc admet une limite ` en b− (par le théorème de la limite monotone).
Or b est fini donc le théorème des bouts assure que ` est infinie. Mais alors on
a x0 (t) = x(t)2 − t → +∞ lorsque t → b− . D’après notre réponse à la question b),
la solution x est donc croissante. Ainsi ` = +∞, d’où limt→b− x00 (t) = +∞
d’après (2) et limt→a+ x00 (t) = −∞ d’après c). Grâce au théorème des valeurs
intermédiaires, x admet un point d’inflexion, qui est unique d’après b).

368
Calcul différentiel, équations différentielles et EDP

e) Supposons x croissante : x0 > 0. On en déduit ` = limt→b− x(t) ∈ ]−∞, +∞].


Si b < +∞ alors ` = +∞ par le théorème des bouts. Si b = +∞ alors la relation
x(t)2 = x0 (t) + t > t valable pour tout t > a donne `2 = +∞, donc ` = +∞
une fois encore. Ainsi, par continuité, les solutions croissantes sont des bijections
croissantes de I dans R.
f) Supposons qu’il existe un (unique) point critique ν ∈ I. Dans ce cas, d’après
notre réponse à la question b), x est strictement croissante sur ]a, ν[ et strictement
décroissante sur ]ν, b[, et, d’après d), b = +∞.
Soit maintenant ` = limt→+∞ x0 (t). Comme x est décroissante sur ]ν, +∞[, on
sait que cette limite est négative. Si ` ∈ ]−∞, 0[ alors, lorsque t → +∞, on
a l’équivalence x(t) ∼ `t par intégration, puis on en tire que x0 (t) = x(t)2 − t
tend vers +∞, ce qui est absurde. Si ` = −∞ alors, lorsque t → +∞, on a
la limite x(t)/t → −∞, puis x0 (t) = x(t)2 − t = t2 [(x(t)/t)2 − 1/t] → +∞, ce
qui aboutit à la même contradiction. Ainsi ` = 0, et une variante asymptotique
du théorème de Rolle appliquée à x0 sur [ν, +∞[ montre alors que x admet un
(unique) point d’inflexion.
Enfin lorsque t → +∞, la relation x0 (t) = x(t)2 − t = o(1) implique le dévelop-
pement asymptotique x(t)2 /t = 1 + o(1/t) puis, comme x est décroissante au
voisinage de +∞,
1
√  1
 2 √ 
1

x(t) = − t 1 + o =− t+o √ .
t t

Commentaires.
© Une étude qualitative d’équation différentielle consiste à déterminer les pro-
priétés de solutions non connues explicitement, telles que leur existence et leur
unicité, leur domaine de définition, leur comportement au bord du domaine, etc.
© Les équations de Riccati sont les équations différentielles ordinaires non linéaires
de la forme x0 = ax2 + bx + c où a, b, c sont des fonctions de t (ici a(t) = 1,
b(t) = 0 et c(t) = −t). On les rencontre par exemple en physique quantique, en
électronique ou encore en mathématiques financières. Elles n’admettent en général
pas de solution explicite. Dans le cas présent, on peut exprimer toutes les solutions
de (E) à l’aide des fonctions d’Airy de première et seconde espèces A et B (voir
les questions ci-après).
© Démontrons le lemme énoncé en début de correction.
Si α ∈ I est un zéro de f , alors f 0 (α) 6= 0 et donc f (t) ∼ (t − α)f 0 (α) lorsque
t → α. Ainsi, les zéros de f sont isolés, donc f est strictement positive au voisinage
de α+ et f est strictement négative au voisinage de α− . Si α < β sont deux zéros
consécutifs, alors f (t) ∼ (t−α)f 0 (α) > 0 lorsque t → α+ et f (t) ∼ (t−β)f 0 (β) < 0
lorsque t → β − , donc d’après le théorème des valeurs intermédiaires f s’annule
sur ]α, β[, ce qui est absurde. Ainsi, f s’annule au plus une fois. Le signe de f
découle aussi du théorème des valeurs intermédiaires.
© Les questions c), d), e), et f) ne couvrent pas tous les cas : par exemple, ils
ne permettent pas de savoir s’il existe à la fois des solutions maximales avec

369
63. Étude qualitative d’une équation de Riccati

b < +∞ et des solutions avec b = +∞, et s’il existe même des solutions croissantes
avec b = +∞ (donc sans point critique ni point d’inflexion). Ces points sont plus
délicats à traiter, mais une discussion complète peut être achevée en répondant
aux questions 4, 5, 6, et 7 ci-après.
© On pourra résumer l’étude qualitative comme sur la Figure 2.18 : les courbes
intégrales sont issues de −∞ depuis une abscisse réelle et traversent la parabole
d’équation t = x2 au plus une fois ; elles sont strictement croissantes à l’extérieur
de celle-ci et décroissantes à l’intérieur.
x

x0 = 0

x0 > 0

x0 < 0

Figure 2.18 – Quelques courbes intégrales de l’équation de Riccati.

Questions.
1. Énoncer (et démontrer sommairement) le théorème de Rolle et sa variante
asymptotique.
2. Énoncer (et démontrer sommairement) le théorème dit « d’explosion » (aussi
appelé théorème des bouts, ou théorème de sortie de tout compact) invoqué pour
répondre aux questions c), d) et e).
3. Montrer que si w est une solution strictement positive de l’équation différentielle

370
Calcul différentiel, équations différentielles et EDP

linéaire du second ordre


(L) y 00 − ty = 0,
alors x = −w0 /w est une solution de (E). Réciproquement,
Rt
montrer que si (x, [a, b[)
est une solution de E, alors w(t) = exp(− a x(s) ds) définit une solution de (L).
4. On dit que (x, I) pour I = ]a, b[ naît (en a) (resp. meurt (en b)) si a > −∞
(resp. b < +∞). On sait par exemple d’après c) que toute solution de (E) naît.
Montrer que pour tout a ∈ R (resp. pour tout b ∈ R), il existe une unique solution
maximale de (E) naissant en a (resp. mourant en b).
Indication : on pourra d’abord supposer l’existence d’une telle solution (x, I) puis
effectuer le changement de variable y = 1/x sur un intervalle J ⊆ I où x est de
signe constant.
On désigne par N (a) (resp. M (b)) cette solution maximale.
5. Montrer qu’il existe une solution strictement croissante de (E) qui ne meurt
jamais. En déduire une solution globale A de (L) telle que 0 < A(t) et qui
vérifie A(t) = o(A0 (t)) lorsque t → +∞.
Indication : on pourra d’abord montrer que U = {a ∈ R : N (a) meurt} ainsi
que V = {a ∈ R : N (a) est croissante} sont des intervalles ouverts de R.
6. Soit B une autre solution globale de (L) telle que (A, B) forme une base de
l’espace vectoriel des solutions de (L). Exprimer toutes les solutions de (E) à l’aide
de A, B, A0 , et B 0 .
7. Montrer que A(t) = o(B(t)), B(t)B 0 (t) > 0 ainsi que A0 (t) = o(B 0 (t)) lorsque t
tend vers +∞. Conclure qu’il existe une et une seule solution maximale strictement
croissante de (E) qui ne meurt jamais.

371
64. Modèle de Lotka-Volterra

Développement 64 (Modèle de Lotka-Volterra FFF)

On modélise l’évolution au cours du temps d’un écosystème composé de proies


(sardines, lapins, insectes...) et de prédateurs (respectivement requins, renards,
oiseaux...). La population des proies est représentée par une fonction du temps
x : R+ → R+ et celle des prédateurs par une fonction y : R+ → R+ , et on
suppose que x et y vérifient le système d’équations différentielles 17
(
x0 = ax − bxy
(1)
y 0 = −cy + dxy

où a, b, c, d ∈ R∗+ , avec la condition initiale (x, y)(0) = (x0 , y0 ) ∈ R2+ .


a) Étude théorique du système.
(i) Justifier que x et y existent, sont bien définies sur R+ et sont uniques,
et qu’elles sont strictement positives si x0 et y0 le sont.
(ii) Déterminer les points d’équilibre du système.
On suppose désormais que (x0 , y0 ) ∈ (R∗+ )2 .
b) Périodicité.
2
On définit la fonction H sur R∗+ par

H : (u, v) 7→ du + bv − c ln(u) − a ln(v).

(i) Montrer que t 7→ H(x(t), y(t)) est constante sur R+ .


(ii) Montrer que (x, y) est périodique.
(iii) Quelle est la moyenne de x (resp. de y) sur une période ?
c) Effet de l’introduction d’un nouveau prédateur.
On introduit maintenant dans l’environnement un prédateur commun aux
deux espèces, si bien que l’équation différentielle vérifiée par (x, y) devient
(
x0 = ax − bxy − ex
(2)
y 0 = −cy + dxy − ry

avec e ∈ ]0, a[ et r ∈ R∗+ . Commenter l’effet de cette introduction sur les


quantités moyennes de proies et de prédateurs présents dans le système sur
une période.

Leçons concernées : 220, 228, 229, 265, 267

Ce développement consiste en l’étude d’un modèle classique de dynamique de


populations représentant un écosystème composé de proies et de prédateurs. Il
trouve évidemment sa place dans la leçon 220 sur les équations différentielles
17. En 0, ces équations différentielles sont à comprendre au sens de la dérivée à droite.

372
Calcul différentiel, équations différentielles et EDP

ordinaires, dont il mobilise un très grand nombre de résultats. Par ailleurs, il


utilise de façon cruciale des arguments de monotonie ainsi que le théorème des
valeurs intermédiaires pour étudier la périodicité des courbes intégrales associées au
modèle, ce qui en fait un bon développement pour les leçons 228, 229 et 267. Enfin,
la définition d’une fonction de Liapounov dans la question b) illustre l’utilité de la
dérivée logarithmique dans l’étude de certaines équations différentielles ordinaires ;
à ce titre, le développement trouve sa place dans la leçon 265 sur les applications
des fonctions usuelles.

Correction.
La Figure 2.19 représente le champ de vecteurs associé au système (1) ainsi que
les quatre zones que nous définirons dans la réponse à la question b).

Zone 4 Zone 3

a
b

Zone 1 Zone 2

c x
d

Figure 2.19 – Représentation du champ de vecteurs associé au système (1) pour


le choix de constantes a = 3, b = 1, c = 4 et d = 1.

La notion de point d’équilibre du système (1) est définie à la page 310. Par ailleurs,
on utilisera dans la correction ci-après la notion de sous-solution d’une équation
différentielle, dont la définition est donnée à la page 312.
a) Étude théorique du système.
(i) La fonction

F : R2 −→ R2
(u, v) 7−→ (au − buv, −cv + duv)

est de classe C 1 sur R2 , donc l’existence et l’unicité de la solution maximale du

373
64. Modèle de Lotka-Volterra

système (1) pour une condition initiale donnée résultent du théorème de Cauchy-
Lipschitz. Notons (f, g) l’unique solution maximale de (1) vérifiant (f, g)(0) =
(x0 , y0 ), définie sur un intervalle I nommé intervalle de vie de la solution. On va
montrer que f et g sont positives et que l’intervalle de vie I contient R+ tout
entier. L’existence de x et y en découlera, et leur unicité sera alors une simple
conséquence de celle de (f, g).
On remarque tout d’abord que pour tout α ∈ R, la fonction t 7→ (αeat , 0) est une
solution de (1) définie sur R. Ceci implique que R∗+ × {0}, {0} × {0} et R∗− × {0}
sont des trajectoires du système (correspondant respectivement aux cas α > 0,
α = 0 et α < 0). Il en va de même pour les ensembles {0} × R∗+ et {0} × R∗− ,
qui sont les trajectoires respectives de t 7→ (0, αe−ct ) et t 7→ (0, −αe−ct ) pour
n’importe quel α > 0.
Si y0 = 0, alors (f, g) coïncide sur I avec la fonction t 7→ (x0 eat , 0) d’après la
propriété d’unicité issue du théorème de Cauchy-Lipschitz. Pour la même raison,
si x0 = 0 alors (f, g) coïncide sur I avec la fonction t 7→ (0, y0 e−ct ). Ces solutions
sont définies sur R tout entier, donc on a dans ce cas I = R, et évidemment f > 0
et g > 0.
Supposons à présent que x0 > 0 et y0 > 0. On a vu que tout point de l’axe
des abscisses ou des ordonnées se trouve sur la trajectoire d’une solution de
l’équation(1) définie sur R et prenant toutes ses valeurs sur cet axe. Comme
l’équation différentielle (1) est autonome, la trajectoire de (f, g) ne peut couper
l’axe des abscisses ni celui des ordonnées d’après le théorème de Cauchy-Lipschitz,
d’où f > 0 et g > 0 par le théorème des valeurs intermédiaires.
On veut maintenant montrer que R+ ⊂ I. Pour ce faire, on va majorer f et g
sur I ∩ R+ et en déduire qu’elles n’explosent pas en temps fini. Comme f et g
sont strictement positives, on a f 0 (t) < af (t) pour tout t ∈ I ∩ R+ (puisque
f 0 = af − bf g), donc f est une sous-solution de l’équation y 0 = ay. On a donc :

∀t ∈ I ∩ R+ , 0 < f (t) 6 x0 eat .

En revenant à l’équation (1), on obtient g 0 (t) < dx0 eat g(t) pour tout t dans
l’intersection I ∩ R+ , d’où, comme g > 0 :
g 0 (t)
∀t ∈ I ∩ R+ , < dx0 eat .
g(t)
En intégrant cette inégalité entre 0 et t pour tout t ∈ I ∩ R+ , on obtient
d
∀t ∈ I ∩ R+ , ln(g(t)) − ln(y0 ) < x0 (eat − 1),
a
et donc
d
 
∀t ∈ I ∩ R+ , g(t) < y0 exp x0 (eat − 1) .
a
Le terme de droite de cette inégalité est borné sur tout compact de R+ en tant
que fonction de t ; d’après le théorème d’explosion, I contient donc bien R+ tout
entier.

374
Calcul différentiel, équations différentielles et EDP

(ii) Pour déterminer les points d’équilibre du système, il suffit de résoudre


dans R2+ l’équation F (u, v) = 0, c’est-à-dire :
(
u(a − bv) = 0
v(−c + du) = 0.

On trouve sans peine les deux points d’équilibre (0, 0) et dc , ab (le deuxième point


étant le « centre du tourbillon » représenté sur la Figure 2.19).


b) Périodicité.
(i) D’après la question a)a)(i), les fonctions x et y sont strictement positives
puisque x0 et y0 le sont. De plus, ϕ : t 7→ H(x(t), y(t)) est bien définie et dérivable
sur R+ . On obtient alors grâce à (1) :
x0 y0 x0 y0
ϕ0 = dx0 + by 0 − c − a = (dx − c) + (by − a) = 0.
x y x y
Ainsi, la fonction ϕ est constante sur R+ .
(ii) La périodicité est évidente dans le cas stationnaire (x0 , y0 ) = dc , ab , que


nous excluons désormais. D’après le résultat d’unicité du théorème de Cauchy-


Lipschitz, (x, y) ne prend donc jamais la valeur dc , ab . On écrit R2+ comme l’union


des quatre zones fermées représentées sur la Figure 2.19, et l’on suppose (sans
perte de généralité, comme on le verra dans la démonstration suivante) que (x0 , y0 )
se situe dans la zone 1. On va montrer successivement que :
(A) t1 := inf{t > 0 : (x, y)(t) est dans la zone 2} est bien défini,
(B) t2 := inf{t > t1 : (x, y)(t) est dans la zone 3} est bien défini,
(C) t3 := inf{t > t2 : (x, y)(t) est dans la zone 4} est bien défini,
(D) t4 := inf{t > t3 : (x, y)(t) est dans la zone 1} est bien défini,
(E) t5 := inf{t > t4 : (x, y)(t) est dans la zone 2} est bien défini,
(F ) (x, y)(t5 ) = (x, y)(t1 ),
ce qui permettra de conclure que (x, y) est (t5 − t1 )-périodique grâce au résultat
d’unicité du théorème de Cauchy-Lipschitz.
Si (x, y) était uniquement à valeurs dans la zone 1 sur I ∩ R+ , alors x et y seraient
bornées et strictement monotones donc convergeraient vers des limites respectives
x∞ et y∞ , telles que (x∞ , y∞ ) soit dans la zone 1. Mais alors (1) impliquerait
aussi la convergence de x0 et y 0 vers une limite, d’une part nécessairement nulle
pour que la convergence de x et y soit assurée, et d’autre part égale à F (x∞ , y∞ ).
c a

On aurait donc soit (x∞ , y∞ ) = (0, 0) soit (x∞ , y∞ ) = d , b , ce qui est impossible
compte tenu de la stricte monotonie supposée de x et y. La fonction (x, y) quitte
donc la zone 1 en temps fini, et un simple argument de monotonie permet de voir
qu’elle entre alors dans la zone 2, ce qui établit (A).
Dans la zone 2, x et y sont croissantes et y est bornée. Si (x, y) était à valeurs
dans la zone 2 pour tout t > t1 , l’équation (1) impliquerait alors que x est

375
64. Modèle de Lotka-Volterra

bornée (sans quoi x et y 0 tendraient vers +∞, ce qui contredit le fait que y est
bornée), et un raisonnement de convergence similaire à celui que nous venons
de présenter permettrait d’aboutir à une contradiction. On en déduit que (x, y)
quitte nécessairement la zone 2 pour la zone 3 en temps fini, d’où le point (B).
On prouve (C), (D) et (E) de la même façon.
Démontrons à présent (F ) : par continuité de x, on a x(t1 ) = x(t5 ) = dc d’après le
théorème des valeurs intermédiaires. Or on sait grâce à la question b)a)(i) que
H (x(t1 ), y(t1 )) = H (x(t5 ), y(t5 )), d’où

by(t1 ) − a ln (y(t1 )) = by(t5 ) − a ln (y(t5 )) .

Mais on sait aussi que y(t1 ), y(t5 )∈ 0, ab et on montre aisément que la fonction
 

v 7→ bv − a ln(v) est injective sur 0, ab , d’où y(t1 ) = y(t5 ), d’où le point (F ).


(iii) D’après ce qui précède, une période de (x, y) est T := t5 − t1 . Les quantités
moyennes recherchées sont donc
Z T Z T
1 1
x(t)dt et y(t)dt.
T 0 T 0

On sait que y ne s’annule pas, donc


y0
= −c + dx
y
d’après (1), et donc
c 1 y0
x= + .
d dy
On en tire
1
Z T
c 1 T y 0 (t)
Z
x(t)dt = + dt
T 0 d dT 0 y(t)
c 1 
= + ln(y(T )) − ln(y(0))
d dT
c
= ,
d
et on montre de la même façon que
Z T
1 a
y(t)dt = .
T 0 b
c) Effet de l’introduction d’un nouveau prédateur.
Le modèle (2) est semblable au modèle (1) avec de nouveaux paramètres a0 := a−e
et c0 := c + r. On peut donc appliquer le même raisonnement que plus haut pour
obtenir que les solutions du système sont périodiques, que la quantité moyenne
de proies présentes dans le système au cours d’une période est égale à c+r
d et que
la quantité moyenne de prédateurs présents dans le système sur une période est
égale à a−e
b .

376
Calcul différentiel, équations différentielles et EDP

Commentaires.
© La Figure 2.19 peut être reproduite en annexe du plan et servir de support de
raisonnement pour les questions a) et b). On pourra ainsi grandement raccourcir
la correction de la question a)(i) en traçant les demi-droites qui sont des courbes
intégrales et que les solutions de (1) ne peuvent donc traverser.
© On peut utiliser une méthode alternative pour démontrer que les fonctions f
et g sont définies sur R+ tout entier dans la question a)(i). Cette méthode
consiste à établir par anticipation le résultat de la question a)(i). En définissant
la fonction H comme dans l’énoncé, on montre comme dans la question a)(i) que
la fonction t 7→ H(f (t), g(t)) est bien définie et constante sur I ∩ R+ . Il est par
ailleurs facile de montrer que

lim H(u, v) = +∞.


k(u,v)k2 →+∞
(u,v)∈(R∗+ )2

Or si β := sup I était fini, on aurait nécessairement

sup k(f (t), g(t))k = +∞


t∈[0,β[

d’après le théorème d’explosion, d’où

sup H(f (t), g(t)) = +∞,


t∈[0, β[

ce qui contredit le fait que t 7→ H(f (t), g(t)) est constante. On en déduit donc
que β = +∞, ce qui implique que I contient R+ tout entier.
© La fonction H définie dans l’énoncé permet d’étudier le comportement de
la solution (x, y) sans disposer de forme explicite pour cette solution. Dans la
deuxième méthode présentée pour traiter la question a)(i), on fait un usage crucial
du fait que H « tend vers l’infini en l’infini » (au sens de (R∗+ )2 ), qui explique que
(x, y) ne peut exploser en temps fini puisque ce n’est pas le cas de H(x, y). Ce
raisonnement est classique dans l’étude des systèmes dynamiques ; dans ce cadre,
une fonction jouant le rôle de H est appelée fonction de Liapounov.
© Il n’est pas inutile de s’interroger sur la démarche de modélisation adoptée.
La population des proies possède un taux de croissance autonome 18 a, et sa
décroissance instantanée due à la prédation est égale à −bxy. Ce dernier point
signifie que l’on suppose le nombre de rencontres entre proies et prédateurs
proportionnel à chacune des deux populations ; une telle modélisation peut par
exemple être justifiée par une hypothèse d’uniformité spatiale dans la répartition
des deux espèces. Par ailleurs, on suppose constant dans le temps le nombre
moyen b de proies décimées à chaque rencontre entre une proie et un prédateur.
La population des prédateurs, quant à elle, possède un taux de décroissance
autonome c ainsi qu’une croissance instantanée due à la prédation proportionnelle
18. En effet, en considérant le cas où y0 = 0 et donc y = 0, on voit que a est le taux de
croissance de x en l’absence de prédateurs.

377
64. Modèle de Lotka-Volterra

au nombre de proies tuées. Ce choix de modélisation fait apparaître la population


des proies comme la source exclusive de nourriture des prédateurs, tandis que la
source de nourriture des proies est exogène et supposée suffisante pour assurer
une croissance malthusienne 19 (c’est-à-dire exponentielle) de leur population.
À l’aide de cette simple interprétation, il est déjà possible d’avoir une intuition
du comportement général du système. Lorsque le nombre de proies est faible, la
population des prédateurs décroît faute de ressources. Cela permet aux proies
de proliférer plus librement, autorisant la population des prédateurs à croître
à nouveau. Ce dernier phénomène cause la décroissance du nombre de proies,
suivie par une nouvelle chute du nombre de prédateurs, et ainsi de suite. Au cours
du développement, on voit plus précisément que les trajectoires des solutions
de (1) ne se contentent pas de traverser de façon cyclique les quatre zones du plan
correspondant au phénomène que nous venons de décrire (voir Figure 2.19) mais
sont bel et bien périodiques.
© Il est intéressant de noter suite à la question b)(iii) que la population moyenne
d’une espèce donnée au cours d’une période ne dépend que de paramètres relatifs
aux dynamiques de population de l’autre espèce, ce qui témoigne de l’interdépen-
dance profonde des espèces au sein de l’écosystème décrit.
© Le résultat de la question c) montre que l’introduction de la nouvelle espèce a
un effet positif sur la population moyenne des proies et négatif sur la population
moyenne des prédateurs... et inversement si l’on fait sortir l’espèce tierce du modèle.
C’est par ce raisonnement que Vito Volterra expliqua en 1926 la diminution des
quantités de sardines pêchées ainsi que l’augmentation des quantités de requins
observés en mer Adriatique après l’interruption de la pêche due à la Première
Guerre mondiale.

Questions.
1. Illustrer graphiquement le raisonnement permettant d’établir la positivité des
solutions maximales de (1) dans la question a)(i) et détailler la raison pour
laquelle la trajectoire de (f, g) ne peut couper l’axe des ordonnées si x0 > 0.
2. Sans utiliser de résultats concernant la notion de sous-solution, montrer que
toute fonction f définie sur un intervalle ouvert I contenant 0, dérivable sur I,
telle que f (0) > 0 et telle que f 0 < af vérifie f (t) 6 f (0)eat pour tout t ∈ I ∩ R+ .
3. Détailler l’usage fait du théorème d’explosion dans la question a)(i) pour
justifier que I contient R+ tout entier.
4. Détailler le raisonnement permettant de déduire l’unicité de (x, y) de celle de
la solution maximale (f, g) dans la question a)(i).
5. Détailler soigneusement l’utilisation faite du théorème d’explosion dans la
première méthode présentée dans la question a)(i).

19. On pourra se reporter au Développement 60 sur le modèle de population logistique pour


plus d’informations concernant cette notion.

378
Calcul différentiel, équations différentielles et EDP

6. Démontrer que
lim H(u, v) = +∞.
k(u,v)k→+∞
(u,v)∈(R∗+ )2

7. Expliciter l’argument utilisé dans la question b)(ii) selon lequel la limite


éventuelle de x et y est nécessairement un point d’équilibre du système.
8. Détailler les arguments permettant d’établir (C), (D), (E).
9. Pourquoi le fait de supposer que (x0 , y0 ) appartient à la zone 1 n’entraîne-t-il
pas une perte de généralité dans la question b)(ii) ?
10. Montrer en utilisant (1) et les variations de x et y que si (x(t), y(t)) se trouve
dans la zone 1 pour tout t ∈ I, alors x0 est croissante sur I. En déduire une autre
démonstration du fait que (x, y) ne peut rester dans la zone 1.
11. Pourquoi le résultat d’unicité issu du théorème de Cauchy-Lipschitz permet-il
de dire que la relation (x, y)(t5 ) = (x, y)(t1 ) est suffisante pour conclure que (x, y)
est périodique ?
12. Montrer que la fonction ψ : v 7→ bv − a ln(v) est bien injective sur 0, ab .
 

13. Décrire le comportement asymptotique du système (2) dans le cas où e > a


et r > 0.
14. Décrire les solutions du système linéarisé de (1) en dc , ab , c’est-à-dire les


solutions de l’équation différentielle z 0 = Az où A représente la jacobienne de F


en dc , ab . Donner un contre-exemple montrant que la périodicité des solutions du
linéarisé d’un système différentiel ne permet pas, en général, de conclure à celle
des solutions du système lui-même.
Remarque : l’idée de comparer le comportement d’un système dynamique au
voisinage d’un point à celui de son linéarisé en ce point est développée dans
l’exercice « Fonction de Liapounov et stabilité » p.129 de [Rou03].
 
d b
15. Montrer que (0, 0) est un point d’équilibre instable et que c, a est un point
d’équilibre stable.
16. Décrire qualitativement les comportements asymptotiques possibles d’une
solution maximale d’une équation différentielle autonome de type y 0 = φ(y), avec
une fonction φ ∈ C 1 (R2 , R2 ).
17. Soit B > 0. On considère le modèle de Lotka-Volterra avec immigration de
proies, associé au système différentiel suivant :
(
x0 = B + ax − bxy
(3)
y 0 = −cy + dxy.

Montrer que le système admet un unique équilibre correspondant à une population


de proies positive et que celui-ci est attractif (voir Figure 2.20).

379
64. Modèle de Lotka-Volterra

y ẋ = 0

ẋ < 0, ẏ < 0

ẋ < 0, ẏ > 0

ẋ > 0, ẏ < 0
ẋ > 0, ẏ > 0

ẏ = 0 x

Figure 2.20 – Représentation du champ de vecteurs associé au système (3) avec


les valeurs a = b = d = 1, c = 4 et B = 10. On a représenté en pointillés les
isoclines ẋ = 0 et ẏ = 0, et en gras une solution du système au départ de (7, 2).

380
Calcul différentiel, équations différentielles et EDP

Développement 65 (Équation des ondes pour une corde vibrante F)

Considérons l’équation aux dérivées partielles définie par

∂2y ∂2y
∀x ∈ [0, π], ∀t > 0, (x, t) = 9 (x, t), (E)
∂t2 ∂x2
ainsi que les conditions

∀t ∈ R, y(0, t) = 0 = y(π, t), (B)


∂y
∀x ∈ [0, π], y(x, 0) = x(π − x) et (x, 0) = 0. (I)
∂t
a) Chercher des solutions de (E) à variables séparables, c’est-à-dire sous la
forme y(x, t) = X(x)T (t) avec X et T de classe C 2 .
b) Parmi les solutions précédentes, déterminer celles vérifiant (B).
c) Quelles solutions de (E) vérifiant (B) peut-on déduire de la question
précédente en utilisant le principe de superposition ?
d) Déterminer une solution de l’équation des ondes (E) vérifiant (B) et (I).

Leçons concernées : 221, 222, 246

Ce développement propose une résolution d’équation aux dérivées partielles clas-


sique en utilisant la méthode de séparation des variables. Elle illustre donc parti-
culièrement bien la leçon 222 sur les exemples d’EDP. De plus, la séparation des
variables permet de réduire l’étude de l’équation initiale à des équations différen-
tielles ordinaires, ce qui rend le développement pertinent pour la leçon 221. Enfin,
l’utilisation de coefficients de Fourier pour traduire les conditions initiales en fait
une illustration intéressante pour la leçon 246.

Correction.
a) Raisonnons par analyse et synthèse. Supposons que y(x, t) soit une solution
de (E) et s’écrive sous la forme X(x)T (t) avec X et T de classe C 2 sur [0, π] et
sur R respectivement. L’équation (E) se reformule alors en
X(x)T 00 (t) = 9X 00 (x)T (t).
Supposons que X et T ne s’annulent pas. Il est alors possible de diviser pour
séparer les variables en écrivant
T 00 (t) X 00 (x)
= .
9T (t) X(x)
Les variables t et x sont indépendantes, de sorte que cette quantité est constante
relativement aux deux variables. Nous notons −λ cette quantité. On obtient donc
les deux équations différentielles linéaires
X 00 + λX = 0 et T 00 + 9λT = 0.

381
65. Équation des ondes pour une corde vibrante

Rappelons alors les solutions de ces équations différentielles ordinaires, dont la


forme dépend du signe de −λ :
• si λ > 0, alors il existe a, b, c, d ∈ R tels que
√  √ 
X(x) = a cos λx + b sin λx
 √   √ 
T (t) = c cos 3 λt + d sin 3 λt ; (1)

• si λ = 0, alors il existe a, b, c, d ∈ R tels que

X(x) = a + bx et T (t) = c + dt; (2)

• si λ < 0, alors il existe a, b, c, d ∈ R tels que


√ √ √ √
−λx
X(x) = ae + be− −λx
et T (t) = ce3 −λx
+ de−3 −λx
. (3)

Il est facile de vérifier que ces fonctions donnent effectivement des solutions de
l’équation (E), achevant la synthèse et justifiant que les fonctions ainsi obtenues
sont solutions de (E) pour tout λ ∈ R.
b) Pour une solution à variables séparables y(x, t) = X(x)T (t) avec X et T de
classe C 2 sur [0, π] et R respectivement, les conditions au bord (B) se reformulent
en
X(0)T (t) = 0 et X(π)T (t) = 0.

Si T ≡ 0 alors y(x, t) = X(x)T (t) = 0, ce qui est la solution triviale. Dorénavant,


supposons donc que y 6= 0, de sorte que les conditions au bord impliquent

X(0) = 0 et X(π) = 0.

On utilise ces conditions dans les trois familles de solutions précédentes :


• Si λ > 0, les conditions au bord pour les solutions (1) s’écrivent
√ 
X(0) = a = 0 et X(π) = b sin λπ = 0,

de sorte que a = 0 et soit b = 0, soit sin( λπ) = 0. Le cas√ b = 0 donne la
solution nulle et nous l’avons
√ déjà écartée. On a donc sin( λπ) = 0, ce qui
survient si et seulement si λ ∈ N. Finalement, on obtient des solutions de
la forme

yn (x, t) = sin(nx) (cn cos(3nt) + dn sin(3nt)) , n ∈ N, cn , dn ∈ R.

• Si λ = 0, les conditions au bord pour les solutions (2) s’écrivent

X(0) = a = 0 et X(π) = a + bπ = 0,

de sorte que a = b = 0 et seule la solution nulle convient dans ce cas.

382
Calcul différentiel, équations différentielles et EDP

• Si λ < 0, les conditions au bord pour les solutions (3) s’écrivent


√ √
−λπ
X(0) = a + b = 0 et X(π) = ae + be− −λπ
= 0.

Il s’agit d’un système


√ linéaire
√ de deux équations à deux inconnues a et b, de
déterminant e − −λπ −e −λπ 6= 0. Il est donc inversible, de sorte que l’on a
nécessairement a = b = 0, ce qui correspond à la solution triviale.
c) Puisque l’équation (E) et les conditions au bord (B) sont linéaires et homogènes,
on peut obtenir des solutions par le principe de superposition, à savoir les sommes
de séries de la forme
+∞
X +∞
X
y(x, t) = yn (x, t) = sin(nx) (cn cos(3nt) + dn sin(3nt)) , (4)
n=1 n=1

avec (cn )n∈N et (dn )n∈N des suites réelles telles que la série ci-avant converge et
vérifie les hypothèses du théorème de double dérivation terme à terme.
d) Effectuons une analyse du problème. Considérons une fonction y sous la
forme (4) et supposons que la série converge et vérifie les hypothèses du théorème
de double dérivation terme à terme. La première condition initiale s’écrit
+∞
X
y(x, 0) = cn sin(nx) = x(π − x).
n=1

Ainsi, les cn apparaissent comme les coefficients de Fourier de


x ∈ [0, π] 7→ x(π − x).

Rappelons que ceux-ci sont donnés par


8

2 π
Z 
 si n est impair,
cn = x(π − x) sin(nx)dx = (nπ)3
π 0 

0 sinon.

De plus, par application du théorème de dérivation terme à terme, la deuxième


condition initiale s’écrit
+∞
∂y X
(x, 0) = 3 ndn sin(nx) = 0,
∂t n=1

d’où l’on déduit que tous les coefficients dn sont nuls (par unicité des coefficients
d’une fonction développable en série de Fourier). Finalement, une solution du
système initial de l’équation des ondes est donnée par
X 8
y(x, t) = sin(nx) cos(3nt). (5)
n∈2N+1
(nπ)3

Réciproquement, on vérifie que la série définie par (5) vérifie les hypothèses du
théorème de dérivation terme à terme. La fonction y en (5) est donc bien définie
et de classe C 2 à l’intérieur du domaine. De plus, les calculs précédents prouvent
qu’elle vérifie l’équation des ondes (E) et satisfait les conditions (B) et (I).

383
65. Équation des ondes pour une corde vibrante

Commentaires.
© L’équation des ondes considérée dans ce développement est la modélisation
du problème physique de la corde vibrante : une corde tendue entre deux points
d’attache produit un son lorsqu’elle subit une déformation. La quantité y(x, t)
est la position en ordonnée du point de la corde situé à l’abscisse x ∈ [0, π] au
temps t, décrivant donc le mouvement de la corde dans l’espace et au fil du temps,
voir Figure 2.21. Il est intéressant de garder en tête l’interprétation physique du
problème, notamment pour se souvenir des conditions suivantes :
• y(x, 0) = x(π − x), qui traduit la déformation initiale imposée à la corde ;
∂y
• ∂t (x, 0) = 0, qui traduit l’immobilité de la corde en t = 0 ;

• y(0, t) = y(π, t) = 0, pour tout t > 0, traduit le fait que les deux extrémités
de la corde demeurent fixées.
Lorsque la déformation initiale impose une forme parfaitement sinusoïdale, se
confondant avec les solutions trouvées lors de la séparation de variables, la
vibration conserve la même forme sinusoïdale, seule l’amplitude changeant. Ces
modes propres (voir commentaire suivant) sont les harmoniques en musique. Le
son produit par une corde vibrante est en général la superposition de telles
harmoniques, ainsi qu’on l’exprime formellement dans la question b).

y t=0
π
t = 12
π
t= 8

π
t= 6 x
π

t= 24
π
t= 4
π
t= 3

Figure 2.21 – Évolution de la corde vibrante avec le profil initial


y(x, 0) = x(π − x).

© La méthode de séparation des variables illustrées ici remonte à Fourier et peut


être utilisée pour étudier de nombreuses équations aux dérivées partielles issues
de la physique. Il s’agit essentiellement d’une analyse du problème, consistant à
chercher les solutions à variables séparables, qui donnent des solutions particulières
appelées solutions modales ou modes propres ; une synthèse permet alors de
conclure que les solutions ainsi obtenues sont bien solutions du problème. Une
solution de l’équation différentielle s’obtient alors par le principe de superposition

384
Calcul différentiel, équations différentielles et EDP

de ces solutions modales, et une solution au problème particulier s’obtient en


tenant compte des conditions au bord et des conditions initiales, qui permettent de
déterminer les coefficients de la série de superposition. Si cette méthode aboutit,
et dans le cas où le problème admet une unique solution (c’est le caractère bien
posé du problème, voir commentaire ci-après), cela permet d’obtenir la solution
explicite du problème.

y y

x x
π π

x
π

Figure 2.22 – Les premières harmoniques de (E), pour n ∈ {1, 2, 3}, et leur
évolution.

© La constante apparaissant dans l’équation (E) des ondes dépend des caractéris-
tiques physiques de la corde. De manière générale, l’équation prend la forme

∂2y 2
2∂ y
(x, t) = c (x, t).
∂t2 ∂x2
où c est une constante dépendant de L et d’autres caractéristiques physiques de
la corde (telles que son élasticité). Dans l’exemple considéré ici, la corde a une
longueur L = π et le carré de la vitesse de l’onde c2 = 9, de sorte à simplifier les
calculs dans la décomposition de Fourier réalisée en dernière étape.
© On peut se demander si l’équation des ondes considérée admet une unique
solution, auquel cas la solution obtenue dans ce développement est la solution au
problème posé. La réponse est oui, mais c’est un résultat non trivial : il s’agit du
caractère bien posé de l’équation des ondes. Contrairement au cas des équations
différentielles linéaires, où le théorème de Cauchy-Lipschitz donne l’existence et
l’unicité d’une solution à un problème de Cauchy, on ne dispose pas de résultats
généraux d’existence et d’unicité des solutions d’équations aux dérivées partielles.
On pourra se référer au Développement 66 pour une preuve du caractère bien posé
d’une équation aux dérivées partielles (l’équation de transport) et de nombreux
commentaires sur le sujet.

385
65. Équation des ondes pour une corde vibrante

© Il est possible de retrouver la longueur de la corde à partir de l’équation :


en effet, le choix fait dans ce développement de prendre une longueur L = π
pour simplifier les calculs masque le rôle joué par L dans l’équation mais, en
gardant L quelconque, l’argumentation de la question b) pour trouver les solutions
stationnaires montrerait que les modes propres sont déterminés par

n2 π 2
λ= , n ∈ Z.
L2
Ainsi, la connaissance des modes propres (on parle aussi du spectre de l’équation)
permet donc de déterminer la longueur de la corde. Les connaissances des caracté-
ristiques géométriques de la corde ou spectrales du son produit permettent donc
d’obtenir les mêmes informations.
En dimension deux, l’équation analogue modélise la vibration d’une surface,
typiquement celle d’un tambour. Toutefois, le cas du tambour est beaucoup
plus riche. En 1966, Kac pose sa célèbre question « Can one hear the shape of
a drum? » (peut-on entendre la forme d’un tambour ?), qui signifie : peut-on
déterminer la surface (géométriquement, autrement dit à isométrie près) à partir
de la connaissance de son spectre, i.e. des modes propres de l’équation des ondes ?
La réponse est négative à partir de la dimension deux : il existe des surfaces qui
sont isospectrales (donc non distinguables à partir du seul son qu’elles peuvent
produire) mais non isométriques. Il s’agit d’un résultat établi par Gordon, Webb
et Wolpert en 1992.
© Le principe de superposition est une étape importante de l’argument. Il repose
sur fait que l’opérateur différentiel sous-jacent

∂2 ∂2
− 9
∂t2 ∂x2
est linéaire et continu, que l’équation est homogène et que les conditions au bord
sont également données par des fonctionnelles linéaires continues. De plus, une
somme infinie localement uniformément convergente de solutions particulières peut
être dérivée terme à terme, de sorte qu’elle est également solution de l’équation
aux dérivées partielles.
Un autre exemple d’équation résoluble par les mêmes méthodes est l’équation de
la chaleur modélisant l’évolution spatiale et temporelle de la température u(x, t)
dans une barre adiabatique unidimensionnelle de longueur π. Ce problème est
modélisé par le système

∂2u

∂u
(x, t) = k (x, t) pour 0 6 x 6 π, t > 0, (E)

0

 ∂t ∂x2



∂u ∂u

 (0, t) = 0 et (π, t) = 0 pour tout t > 0, (B)
 ∂x ∂x



u(x, 0) = x(π − x) pour tout x ∈ [0, π], (I)

pour un k0 > 0, appelé diffusivité thermique du système. Les conditions au bord


proviennent du caractère adiabatique de la barre à ses extrémités, et le profil de

386
Calcul différentiel, équations différentielles et EDP

chaleur initial est maximal au centre. On obtiendrait, par la même démarche que
celle suivie dans le développement,

π2 X 4 2
u(x, t) = − 2
cos (nx) e−k0 n t .
6 n∈2N∗
n

Questions.
1. Rappeler ce qu’est une fonction de classe C 2 sur [0, π].
2. Justifier que si f, g ∈ C 1 ([0, π]) sont telles que f (x) = g(t) pour tous x, t ∈ R,
alors ces deux fonctions sont constantes.
3. Rappeler pourquoi les solutions de l’équation différentielle y 00 + λy = 0 sont
celles données à la question a).
4. Calculer les coefficients de Fourier de la fonction x ∈ [0, π] 7→ x(π − x).
5. On suppose vérifiées les conditions énoncées à la question c). Montrer que
les séries de la forme (4) sont convergentes, que leur somme est de classe C 2 sur
]0, π[×]0, +∞[ à l’intérieur du domaine et qu’elles constituent en effet une solution
à l’équation de la corde vibrante.
Indication : utiliser le théorème de dérivation des sommes de séries de fonctions.
Pour montrer que la série de terme général cos(n)
n converge, penser à appliquer le
critère d’Abel.
6. Justifier le calcul des coefficients de Fourier de la question d) :
8

2 π
Z 
 si n est impair,
cn = x(π − x) sin(nx)dx = (nπ)3
π 0 

0 sinon.

7. Rappeler une preuve de l’unicité des coefficients de Fourier.


Indication : utiliser les relations d’orthogonalité entre les sin(n ·) dans L2 ([0, π]).
8. Traiter le cas de l’équation de la chaleur énoncé en commentaire.

387
66. Caractère bien posé : équation de transport

Développement 66 (Caractère bien posé : équation de transport FFF)

Soient T > 0 et L > 0. L’équation de transport en dimension 1 est donnée par


∂y ∂y
+ =0 (1)
∂t ∂x
sur ]0, T [×]0, L[. On la munit de la condition initiale y|t=0 = y0 sur ]0, L[
ainsi que de la condition au bord y|x=0 = u sur ]0, T [, où y0 ∈ L2 ([0, L]) et
u ∈ L2 ([0, T ]). Ceci en fait un problème de Cauchy.
Pour tout τ ∈ [0, T ], on note Tτ l’ensemble des fonctions de classe C 1
sur ]0, τ [×]0, L[ continues sur [0, τ ] × [0, L] et nulles en x = L.
On définit une solution faible de ce problème comme étant une fonction y
continue sur [0, T ], à valeurs dans L2 (]0, L[) et vérifiant pour tous τ ∈ [0, T ]
et ϕ ∈ Tτ l’équation
Z τ Z L Z τ
∂ϕ ∂ϕ

− (t, x) + (t, x) y(t, x)dxdt − u(t)ϕ(t, 0)dt
0 0 ∂t ∂x 0
Z L Z L
+ y(τ, x)ϕ(τ, x)dx − y0 (x)ϕ(0, x)dx = 0. (2)
0 0

a) Montrer qu’une solution forte, c’est-à-dire une fonction y de classe C 1


sur ]0, T [×]0, L[ continue sur [0, T ] × [0, L] vérifiant l’équation de transport,
est aussi une solution faible.
Dans la suite, nous montrons le caractère bien posé de ce problème de Cauchy.
b) Montrer l’unicité de la solution faible.
c) On se propose de montrer l’existence d’une telle solution dans le cas où u
est de classe C 2 sur [0, T ] avec u(0) = 0 et y0 ∈ H 1 ([0, L]) avec y0 (0) = 0.
On définit l’opérateur linéaire A : D(A) ⊂ L2 (]0, L[) → L2 (]0, L[) en donnant
son domaine D(A) = {f ∈ H 1 ([0, L]) : f (0) = 0} et, pour toute f ∈ D(A),
df
en posant au sens des distributions A(f ) = = f 0.
dx
(i) Montrer que A est maximal monotone.
(ii) En déduire l’existence d’une solution faible.
(iii) Montrer l’inégalité de continuité suivante :

∀τ ∈ [0, T ], ky|t=τ kL2 (]0,L[) 6 kukL2 (]0,T [) + ky0 kL2 (]0,L[) . (3)

d) Généraliser le résultat d’existence et l’inégalité de continuité (3) obtenus à


la question précédente au cas où u ∈ L2 (]0, T [) et y0 ∈ L2 (]0, L[).

Leçons concernées : 201, 208, 213, 222, 228, 234, 241

388
Calcul différentiel, équations différentielles et EDP

Ce développement présente une méthode générale pour prouver le caractère bien


posé d’une équation aux dérivées partielles linéaire (222). Ici, nous appliquons la
méthode au cas classique de l’équation de transport en dimension 1. On montre
l’existence, l’unicité et la dépendance continue par rapport aux conditions au bord
et initiale de la solution faible à un problème de Cauchy. Ainsi, ce développement
illustre la leçon 228. On peut donner une interprétation de l’application linéaire qui,
à ces conditions au bord et initiale associe la solution au problème de Cauchy. Par
conséquent, ce développement rentre dans le cadre de la leçon 208. L’intégrale au
sens de Lebesgue (234), le produit scalaire L2 ainsi que l’espace de Hilbert H 1 jouent
des rôles essentiels dans la preuve présentée ici, de sorte que ce développement
s’insère naturellement dans les leçons 201 et 213. L’utilisation d’une approximation
par une suite de fonctions fait enfin de ce développement une illustration de la
leçon 241.

Correction.
Dans ce développement, nous utilisons l’espace de Sobolev H 1 ainsi que la notion
de maximale monotonie et le théorème de Hille-Yosida qui sont rappelés en
commentaire.
a) Soit y une fonction de classe C 1 sur ]0, τ [×]0; L[ et continue sur [0, τ ] × [0, L],
solution forte de l’équation de transport. Soient τ ∈ [0, T ] et ϕ ∈ Tτ . Par l’équation
∂y ∂y
de transport, on a 0 = + . On multiplie cette équation par ϕ et on intègre
∂t ∂x
en espace puis en temps. Il vient
Z τ Z L
∂y ∂y

0= (t, x) +
(t, x) ϕ(t, x)dxdt
0 0 ∂t ∂x
Z LZ τ Z τZ L
∂y ∂y
= (t, x)ϕ(t, x)dtdx + (t, x)ϕ(t, x)dxdt.
0 0 ∂t 0 0 ∂x

Ici, on a pu séparer l’intégrale de la somme en somme des deux intégrales et


permuter l’ordre d’intégration dans la première intégrale car ce sont des intégrales
de fonctions continues sur des segments. On intègre à présent par parties chacun
des termes, sans oublier les termes de bord :
Z L Z τ
∂ϕ

0= [y(t, x)ϕ(t, x)]τt=0 − y(t, x) (t, x)dt dx
0 0 ∂t
Z τ Z L !
L ∂ϕ
+ [y(t, x)ϕ(t, x)]x=0 − y(t, x) (t, x)dx dt.
0 0 ∂x

On exprime ensuite chacun des crochets :


Z L Z L Z L
• [y(t, x)ϕ(t, x)]τt=0 dx = y(τ, x)ϕ(τ, x)dx − y0 (x)ϕ(0, x)dx en utili-
0 0 0
sant le fait que y|t=0 = y0 ,
Z τ Z τ
• [y(t, x)ϕ(t, x)]L
x=0 dt =− u(t)ϕ(t, 0)dt car y|x=0 = u et ϕ|x=L = 0.
0 0
Ainsi on obtient la formulation faible (2) du problème, comme souhaité.

389
66. Caractère bien posé : équation de transport

b) Soient y1 et y2 deux solutions faibles au problème de Cauchy. On définit


y = y1 − y2 , de sorte que y vérifie l’équation de transport avec des conditions au
bord (gauche) y|x=0 = 0 et initiale y|t=0 = 0.
On veut montrer que y est nulle presque partout.
Soit τ ∈ [0, T ]. On considère une suite de fonctions (fn )n∈N ∈ C 1 (R)N telle que
pour tout n ∈ N, fn est nulle sur [L, +∞[ et telle que la suite (fn )n∈N converge
vers y|t=τ dans L2 (]0, L[).
On définit alors, pour n ∈ N, la fonction ϕn ∈ Tτ par :

∀(t, x) ∈ [0, τ ] × [0, L], ϕn (t, x) = fn (τ + x − t).

Notons que les fonctions ϕn ainsi définies sont bel et bien nulles en x = L.
Alors, par (2), avec u = 0 et y0 = 0, on a
Z τ Z L Z L
∂ϕn ∂ϕn

− (t, x) + (t, x) y(t, x)dxdt + y(τ, x)ϕn (τ, x)dx = 0.
0 0 ∂t ∂x 0

Autrement dit,
Z τZ L Z L
−fn0 (τ fn0 (τ

− + x − t) + + x − t) y(t, x)dxdt + y(τ, x)fn (x)dx = 0,
0 0 0
Z L
de sorte que y(τ, x)fn (x)dx = 0.
0
Par passage à la limite pour la norme L2 (]0, L[) il vient ky|t=τ kL2 (]0,L[) = 0, ce qui
prouve que y|t=τ = 0 presque partout par l’axiome de séparation de la norme L2 ,
et conclut la preuve de l’unicité de la solution faible au problème de Cauchy de
l’équation de transport.
c) (i) Notons pour commencer que l’opérateur linéaire A est bien défini par
définition de l’espace fonctionnel H 1 (]0, L[) qui est l’espace des fonctions L2 (]0, L[)
dont la dérivée au sens des distributions est elle aussi L2 (]0, L[). De plus, L2 (]0, L[)
est un espace de Hilbert.
On veut montrer que A est monotone, c’est-à-dire que pour toute f ∈ D(A), on a
hA(f ), f iL2 > 0.
Soit f ∈ D(A). On a
Z L Z L
hA(f ), f iL2 = A(f )(x)f (x)dx = f 0 (x)f (x)dx
0 0
L
1 2 1

= f (x) = f 2 (L)
2 x=0 2
>0

car f (0) = 0. Ci-dessus, le crochet est à comprendre au sens des distributions


(tout comme le reste Rdes calculs), c’est-à-dire qu’évaluer f en 0 et en L signifie
calculer la limite de ϕn f où (ϕn )n∈N est une suite de fonctions régulières qui
approche les distributions de Dirac en 0 et en L respectivement.

390
Calcul différentiel, équations différentielles et EDP

Ainsi, A est bien monotone.


Pour montrer sa maximalité, on doit montrer que Id + A est surjectif, c’est-à-dire
que pour tout w ∈ L2 (]0, L[), il existe f ∈ D(A) telle que f + f 0 = w. Il s’agit
d’une équation différentielle linéaire d’ordre 1 avec second membre w ∈ L2 (]0, L[).
Même si w n’est pas régulière, la formule de Duhamel, qui donne explicitement
les solutions d’une telle équation différentielle, a un sens et reste valable au sens
faible. Ceci assure la surjectivité de Id + A. Ainsi, l’opérateur A est maximal
monotone.
(ii) On souhaite appliquer le théorème de Hille-Yosida rappelé dans les commen-
taires. Vérifions les hypothèses de ce théorème :
• L’opérateur A est maximal monotone par la question précédente.
• y0 ∈ D(A).
du
• ∈ C 1 ([0, T ], R) ⊂ C 1 ([0, T ], L2 (]0, L[)) puisque toute fonction constante
dt
sur ]0, L[ est en particulier dans L2 (]0, L[).
Ainsi, il existe une unique fonction
z ∈ C 1 ([0, T ], L2 (]0, L[)) ∩ C 0 ([0, T ], H 1 (]0, L[)) (4)
telle que z|x=0 = 0, z|t=0 = y0 et ∂z ∂z ∂z du
∂t + A(z) = ∂t + ∂x = − dt , avec l’abus de
notation A(z) signifiant A(z(t, ·)) pour tout t ∈ [0, T ].
On définit alors y ∈ C 1 ([0, T ], L2 (]0, L[)) ∩ C 0 ([0, T ], H 1 (]0, L[)) par
y : (t, x) 7→ z(t, x) + u(t).
On a donc ∂y ∂y
∂t + ∂x = 0 ainsi que y|t=0 = z|t=0 + u(0) = y0 car u(0) = 0, et
enfin, y|x=0 = z|x=0 + u = u car z|x=0 = 0. On vient de montrer que y vérifie le
problème de Cauchy. Par les mêmes calculs qu’à la question a) effectués au sens
des distributions, on en déduit que y vérifie la formulation faible (2).
(iii) Soit τ ∈ [0, T ]. Soit (ϕn )n∈N une suite de fonctions de Tτ convergeant en
norme L2 vers y|[0,τ ]×[0,L] . Pour tout n ∈ N, on peut écrire la formulation faible (2)
avec ϕn au lieu de ϕ. En passant à la limite pour n → +∞, on obtient :
Z τ Z L Z τ
∂y ∂y

− (t, x) + (t, x) y(t, x)dxdt − u(t)y(t, 0)dt
0 0 ∂t ∂x 0
Z L Z L
+ y(τ, x)y(τ, x)dx − y0 (x)y(0, x)dx = 0,
0 0
c’est-à-dire, étant données l’équation de transport et les conditions au bord et
initiale, Z τ Z L Z L
− u2 (t)dt + y 2 (τ, x)dx − y02 (x)dx = 0
0 0 0
2 2 2
donc ky|t=τ kL2 (]0,L[) = kukL2 (]0,τ [) + ky0 kL2 (]0,L[) . Or, pour tout a, b ∈ R+ , on
√ √
a a2 + b2 6 a2 + b2 + 2ab = a + b. On obtient donc l’inégalité
q
ky|t=τ kL2 (]0,L[) = kuk2L2 (]0,τ [) + ky0 k2L2 (]0,L[)
6 kukL2 (]0,τ [) + ky0 kL2 (]0,L[) .

391
66. Caractère bien posé : équation de transport

De plus, kukL2 (]0,τ [) 6 kukL2 (]0,T [) car ]0, τ [⊂]0, T [. On a donc

ky|t=τ kL2 (]0,L[) 6 kukL2 (]0,T [) + ky0 kL2 (]0,L[) ,

ce qui est exactement l’inégalité de continuité (3).


d) Soient y0 et u quelconques dans L2 (]0, L[) et L2 (]0, T [) respectivement. Par
densité de D(A) dans L2 (]0, L[), on se donne (y0,n )n∈N ∈ D(A)N une suite de
fonctions convergeant vers y0 en norme L2 (]0, L[). De même, par densité de
l’ensemble des fonctions de classe C 2 sur [0, T ] s’annulant en 0 dans L2 (]0, T [), on
prend une suite de fonctions (un )n∈N ∈ C 2 ([0, T ])N vérifiant, pour tout entier n,
la condition un (0) = 0 et approchant u en norme L2 (]0, T [).
D’après la question c), pour tout n ∈ N, il existe une solution faible yn de
l’équation de transport avec les conditions initiale y0,n et au bord (gauche) un .
De plus, pour tout n ∈ N, la solution yn vérifie l’inégalité :

∀τ ∈ [0, T ], kyn|t=τ kL2 (]0,L[) 6 ky0,n kL2 (]0,L[) + kun kL2 (]0,T [) . (5)

Montrons que (yn )n∈N est une suite de Cauchy. On prend n, m ∈ N. La fonc-
tion yn − ym est une solution faible de l’équation de transport avec les conditions
initiale y0,n − y0,m ∈ D(A) et au bord un − um ∈ C 2 ([0, T ]) nulle en 0. Donc, par
l’unicité déjà obtenue à la question b) et par la question précédente, pour tout
τ ∈ [0, T ], on a

kyn|t=τ − ym|t=τ kL2 (]0,L[) 6 ky0,n − y0,m kL2 (]0,L[) + kun − um kL2 (]0,T [) .

Soit τ ∈ [0, T ]. Par passage à la limite n, m → ∞, on obtient que (yn|t=τ )n∈N est
une suite de Cauchy dans l’espace complet L2 (]0, L[). On note y|t=τ ∈ L2 (]0, L[)
sa limite. L’inégalité de continuité (3) pour τ s’obtient alors par passage à la
limite dans l’équation (5).
On a ainsi défini y|t=τ pour tout τ ∈ [0, T ], ce qui définit une fonction y sur [0, T ].
Pour terminer la preuve, il reste à prouver que
• La fonction y est continue sur [0, T ] (à valeurs dans L2 (]0, L[)).
• La fonction y vérifie la formulation faible (2).
La borne supérieure de kyn|t=τ − ym|t=τ kL2 (]0,L[) pour τ ∈ [0, T ] existe et vérifie
 
sup kyn|t=τ − ym|t=τ kL2 (]0,L[) 6 ky0,n − y0,m kL2 (]0,L[) + kun − um kL2 (]0,T [) ,
τ ∈[0,T ]

donc, y est en fait la limite uniforme de la suite (yn )n∈N ∈ C 0 ([0, T ], L2 (]0, L[))N .
Comme la limite uniforme d’une suite de fonctions continues est continue, on en
déduit que y ∈ C 0 ([0, T ], L2 (]0, L[)).
De plus, on peut passer à la limite dans la formulation faible vérifiée par chaque yn
et obtenir la formulation faible (2) pour y.
En conclusion, l’équation de transport constitue un problème bien posé.

392
Calcul différentiel, équations différentielles et EDP

Commentaires.

© Le but de ce développement est de prouver que le problème de Cauchy associé


à l’équation de transport en dimension 1, muni d’une condition au bord gauche et
d’une condition initiale, est bien posé, au sens où :
• Il admet une solution (au sens faible) ;
• Cette solution est unique ;
• Elle dépend continûment des conditions initiale et au bord.
© L’inégalité (3) est bien une inégalité de continuité au sens de la continuité des
applications linéaires de L2 (]0, L[) dans L2 (]0, T [) × L2 (]0, L[).
© Dans la question c), nous utilisons A qui est l’opérateur linéaire de dérivation
sur L2 (]0, T [). Nous choisissons comme domaine l’ensemble H 1 (]0, L[) avec la
condition supplémentaire de nullité en x = 0 qui sert à obtenir la maximale
monotonie de A. Le choix de H 1 est naturel : c’est l’ensemble des fonctions L2
dont la dérivée au sens faible est L2 . Ceci assure que A est bien défini.
© Dans la question a), nous précisons et motivons le sens donné à une solu-
tion faible au problème de Cauchy associé à l’équation de transport. Dans les
questions b) à d), nous prouvons le caractère bien posé de cette équation.
© Notons que l’existence démontrée dans les questions c) et d) est en réalité
beaucoup plus simple à prouver. La solution est en effet explicite :
(
y0 (x − t) si t 6 x,
y : (t, x) ∈ [0, T ]×]0, L[ 7−→ (6)
u(t − x) sinon.

On a choisi de présenter une méthode plus générale car elle peut s’appliquer
à d’autres équations aux dérivées partielles linéaires dont la solution ne serait
pas explicite. Le candidat pourra choisir d’utiliser cette solution explicite plutôt
que la méthode utilisée dans la correction pour répondre aux questions c) et d).
Notons que cette formulation explicite justifie le choix des fn puis de ϕn fait à la
question b).
© Dans la question c)(i), nous avons démontré que A est un opérateur maximal
monotone c’est-à-dire que c’est un opérateur sur un espace de Hilbert H vérifiant
les propriétés suivantes :

Monotonie : ∀f ∈ D(A), hA(f ), f iH > 0 ;


Maximale monotonie : A est monotone et Id + A : D(A) → H est surjectif.

Dans la question c)(ii), on peut donc lui appliquer le théorème de Hille-Yosida.


Voici un énoncé de ce théorème fondamental dans l’étude des équations aux
dérivées partielles linéaires :

393
66. Caractère bien posé : équation de transport

Soit H un espace de Hilbert. Soit A un opérateur maximal monotone


sur H. Soit w ∈ C 1 ([0, +∞[, H). Alors, pour tout z0 ∈ D(A), il existe
une unique fonction

z ∈ C 1 ([0, +∞[, H) ∩ C 0 ([0, +∞[, D(A))

dz
telle que z(0) = z0 et + A(z) = w où A(z) désigne A(z(t, ·)) pour
dt
tout t ∈ [0, +∞[.

Le candidat pourra se référer au chapitre VII de [Bré87] pour plus de détails.


© Revenons sur l’ensemble de fonctions donné dans (4). Il s’agit de l’intersection
de C 0 ([0, T ], H 1 ) et de C 1 ([0, T ], L2 ). Une fonction z dans cet ensemble est vue
comme une fonction de [0, T ] à valeurs dans H 1 ⊂ L2 . Si l’on considère H 1 comme
ensemble d’arrivée, alors z est continue pour la norme H 1 , mais si on étend
l’ensemble d’arrivée à L2 alors, z est de classe C 1 pour la norme L2 (donc en
particulier continue).
Notons que si l’on voit z comme une fonction C 1 en temps, alors elle sera seule-
ment L2 en espace, alors que si l’on considère z comme une fonction C 0 en temps,
alors elle sera H 1 en espace. Autrement dit, plus on voit z comme étant régulière
en temps, moins elle est régulière en espace, et réciproquement.
© Nous nous sommes souvent permis de fermer l’intervalle [0, L], notamment
lorsque nous avons eu besoin d’écrire les crochets lors d’intégrations par parties.
Ceci est autorisé vu que les égalités sont énoncées au sens des distributions.
L’évaluation en 0 ou en L est alors à comprendre au sens des distributions comme
nous l’avons précisé dans la réponse à la question c)(i).
© Considérons la même équation aux dérivées partielles (1) mais changeons les
conditions au bord et initiale. La nouvelle condition au bord (à droite) s’exprime
alors comme y|x=L = v avec v ∈ L2 (]0, T [). La nouvelle condition initiale est en fait
une condition finale donnée à t = T , de la forme y|t=T = yT avec yT ∈ L2 (]0, L[).
Montrons que le caractère bien posé de ce nouveau problème de Cauchy, dit
rétrograde, est équivalent à celui du problème étudié précédemment.
Notons (Pr ) le problème de Cauchy de l’équation de transport rétrograde avec
la condition au bord y|x=L = v à droite et la condition initiale (ou plutôt fi-
nale) y|t=T = yT . Notons (Pd ) sa version originelle avec la condition au bord
y|x=0 = u et la condition initiale y|t=0 = y0 , où u et y0 sont définies par

u : t 7→ v(T − t) et y0 : x 7→ yT (L − x).

Soit y ∈ C 0 ([0, T ], L2 ([0, L])). Soit ψ : (t, x) ∈ [0, T ] × [0, L] 7→ (T − t, L − x). C’est
un C 1 -difféomorphisme involutif.
Montrons que y est une solution faible de (Pr ) si et seulement si y ◦ ψ est une
solution faible de (Pd ). Les calculs ci-après sont effectués au sens des distributions.
On a, par dérivation en chaîne,
∂(y ◦ ψ) ∂y ∂(y ◦ ψ) ∂y
=− ◦ψ et =− ◦ ψ.
∂t ∂t ∂x ∂x

394
Calcul différentiel, équations différentielles et EDP

En t = 0, pour tout x ∈ [0, L], on a y ◦ ψ(0, x) = y(T, L − x).


En x = 0, pour tout t ∈ [0, T ], on a y ◦ ψ(t, 0) = y(T − t, L).
En combinant ces trois égalités, on obtient directement l’équivalence souhaitée.
On en déduit que l’équation de transport rétrograde constitue elle aussi un
problème bien posé.
Ce résultat est en particulier utilisé dans le Développement 67. Le caractère bien
posé de l’équation de transport ainsi que de sa version rétrograde constituent des
arguments clés du Développement 67.

Questions.
1. Vérifier que la solution explicite (6) convient, c’est-à-dire qu’elle est dans le
bon espace de fonctions et qu’elle vérifie la formulation faible (2). Donner un
exemple de conditions u et de y0 telles que cette solution soit une solution forte.
Donner un exemple de cas dans lequel cette solution ne peut pas être forte.
2. Justifier l’existence de la suite de fonctions (fn )n∈N considérée dans la ques-
tion b).
3. Dans la question c)(i), pour montrer la maximale monotonie de A, nous mettons
à profit l’existence d’une solution à l’équation différentielle linéaire d’ordre 1 à
coefficients constants avec second membre L2 . Justifier cette existence grâce à la
formule explicite de Duhamel.
4. Justifier l’existence de la suite de fonctions (ϕn )n∈N ainsi que les permutations
limite-intégrale et limite-dérivée effectuées dans la question c)(iii).
5. Justifier les arguments de densité utilisés dans la question d).
6. Quelle serait la formulation faible du problème rétrograde avec condition au
bord à droite étudié dans le dernier commentaire ?
7. Dans quels espaces de fonctions choisit-on les conditions au bord et initiale
pour le problème (Pd ) ? Vérifier que les fonctions u et y0 considérées au début du
dernier commentaire sont dans ces espaces.
8. Adapter la méthode vue à la fin des commentaires pour prouver le caractère
bien posé de l’équation de transport dont la condition initiale serait en t = T et
la condition au bord en x = 0 (c’est-à-dire à gauche).
9. Montrer que pour tout τ ∈ [0, T ], l’application Ψ : (u, y0 ) 7→ y|t=τ qui, à un
couple de conditions au bord et initiale, associe l’état de la solution faible y de
l’équation de transport à l’instant τ , est une application linéaire continue.

395
67. Dualité contrôlabilité-observabilité

Développement 67 (Dualité contrôlabilité-observabilité FFF)

a) Le but de cette question est de prouver le théorème suivant :


Soient H1 et H2 deux espaces de Hilbert. Soit F ∈ L(H1 , H2 ) une
application linéaire continue. Notons F ∗ : H2 → H1 l’adjoint de F.
Il y a équivalence entre :
(A) F est surjective.
(B) Il existe c ∈ R+ tel que : ∀x ∈ H2 , kxkH2 6 ckF ∗ (x)kH1 .
(i) On suppose que (A) est vraie. Montrer que S = F|(Ker F )⊥ est une
bijection linéaire continue de (Ker F)⊥ dans H2 , puis en déduire (B).
(ii) On suppose (B) vraie. On considère l’application a de H22 dans R définie
par :
∀(x, y) ∈ H22 , a(x, y) = hx, F ◦ F ∗ (y)iH2 .
Montrer que a est une forme bilinéaire continue coercive 20 et en déduire
que (A) est vraie.
b) Soient T > 0 et L > 0. On considère l’équation de transport donnée par

∂y ∂y
+ =0 (E)
∂t ∂x
sur ]0, T [×]0, L[, que l’on munit de la condition initiale

y|t=0 (x) := y(0, x) = 0 pour tout x ∈ ]0, L[ (1)

ainsi que de la condition au bord

y|x=0 (t) := y(t, 0) = u(t) pour tout t ∈ ]0, T [, (2)

où u ∈ L2 ([0, T ]).
(i) Soit y ∈ C 1 (]0, T [×]0, L[)∩ C 0 ([0, T ]×[0, L]) une solution de l’équation de
transport (E). Montrer que, pour tout τ ∈ [0, T ] et toute fonction-test ϕ
de classe C 1 sur ]0, τ [×]0, L[ continue sur [0, τ ] × [0, L] telle que ϕ|x=L = 0
(on dira que ϕ ∈ Tτ ), on a la formulation faible du problème de transport
muni des conditions (1) et (2) :
Z τ Z L
∂ϕ ∂ϕ

− (t, x) + (t, x) y(t, x)dxdt
0 0 ∂t ∂x
Z τ Z L
− u(t)ϕ(t, 0)dt + y(τ, x)ϕ(τ, x)dx = 0. (3)
0 0

396
Calcul différentiel, équations différentielles et EDP

On admet que le problème de Cauchy de l’équation de transport est bien


posé 21 , c’est-à-dire que :
• pour une fonction u ∈ L2 ([0, T ]) donnée, il existe une unique fonction 22
y ∈ C 0 ([0, T ], L2 (]0, L[)) qui soit solution faible du problème i.e. vérifiant
l’équation (3) pour tout τ ∈ [0, T ] et toute ϕ ∈ Tτ ;
• et, pour tout τ ∈ [0, T ], on a l’inégalité de continuité :

ky(τ, ·)kL2 (]0,L[) 6 kukL2 (]0,T [) . (1)

On définit alors FT : u ∈ L2 (]0, T [) 7→ y(T, ·) ∈ L2 (]0, L[).


(ii) Montrer que FT est continue, puis exprimer son adjoint FT∗ .
Dans la question suivante, on admet que le caractère bien posé de l’équation de
transport est plus général, au sens où pour toute condition « initiale » ϕT dans
L2 (]0, L[), le problème de transport muni de la condition au bord ϕ|x=L = 0
sur ]0, T [ et de la condition au temps T donnée par ϕ|t=T = ϕT sur ]0, L[ est
bien posé.
(iii) Vérifier que la solution de l’équation de transport munie de la condition
« initiale » ϕ|t=T = ϕT , où ϕT ∈ L2 (]0, L[), ainsi que de la condition au
bord ϕ|x=L = 0 est donnée par

ϕ : (x, t) 7→ ϕT (T − t + x)106x<L+t−T (x, t).

En déduire que si T > L, alors FT est surjective.

Leçons concernées : 201, 208, 213, 222, 228

Dans ce développement, on donne d’abord un résultat général concernant la sur-


jectivité d’une application linéaire continue entre deux espaces de Hilbert (213,
208, 201) en la reformulant en termes d’une inégalité sur l’adjoint. On applique
ensuite ce résultat à un problème de contrôlabilité sur l’équation de transport en
dimension 1, exemple classique d’équation aux dérivées partielles linéaire (222).
Les notions de dérivée et de solution faible sont au cœur de ce développement, ce
qui en fait une bonne illustration de la leçon 228.

20. Rappelons que l’on dit qu’une forme bilinéaire a sur un espace de Hilbert H est coercive
lorsqu’il existe une constante C > 0 telle que

∀x ∈ H, a(x, x) > Ckxk2H .

21. Pour plus de détails et pour une preuve de ce caractère bien posé, le candidat pourra se
référer au Développement 66.
22. Dans cette définition, y est vue comme une fonction de [0, T ] à valeurs dans L2 (]0, L[).
C’est un abus de langage car y est une fonction de [0, T ]×]0, L[ dans R. On veut dire ici que
pour tout t ∈ ]0, T [, la fonction y(t, ·) : x 7→ y(t, x) est L2 sur ]0, L[ et de plus, t 7→ y(t, ·) est
continue sur [0, T ] à valeurs dans L2 (]0, L[) muni de sa norme canonique.

397
67. Dualité contrôlabilité-observabilité

Correction.
a) Tout d’abord, le fait que F est une application linéaire continue assure l’exis-
tence de son adjoint F ∗ ∈ L(H2 , H1 ) linéaire continu par le théorème de représen-
tation de Riesz.
On a H1 = Ker F ⊕ (Ker F)⊥ car Ker F est un fermé de H1 en tant qu’image
réciproque du fermé {0} par l’application continue F.
L’application S : (Ker F)⊥ → H2 est linéaire et continue car (Ker F)⊥ est un
sous-espace vectoriel de H1 et car F est linéaire continue. Soit x ∈ Ker S. On a
alors x ∈ (Ker F)⊥ et F(x) = S(x) = 0. On en déduit que

x ∈ Ker F ∩ (Ker F)⊥ = {0}.

Ainsi, S est injective.


(i) On suppose que (A) est vraie, donc que F est surjective. Soit y ∈ H2 .
Il existe donc x ∈ H1 tel que y = F(x). Or H1 = Ker F ⊕ (Ker F)⊥ , donc
il existe x0 ∈ Ker F et x⊥ ∈ (Ker F)⊥ tels que x = x0 + x⊥ . On a alors

y = F(x) = F(x0 + x⊥ ) = F(x⊥ ) = S(x⊥ ) ∈ Im S.

Ainsi, S est surjective. En conclusion, S est linéaire, continue et bijective.


On a aussi que (Ker F)⊥ est un sous-espace vectoriel fermé de l’espace de Hil-
bert H1 , et donc un espace de Hilbert. Ainsi, d’après le théorème d’isomorphisme
de Banach, S −1 est linéaire et continue.
Soit x ∈ H2 . On a alors

kxk2H2 = hx, xiH2


= hS ◦ S −1 (x), xiH2
= hF ◦ S −1 (x), xiH2
= hS −1 (x), F ∗ (x)iH1 par définition de l’adjoint
6 kS −1 (x)kH1 kF ∗ (x)kH1 d’après l’inégalité de Cauchy-Schwarz
6 |||S −1 ||| · kxkH2 kF ∗ (x)kH1 .

Donc, pour x 6= 0, il vient kxkH2 6 |||S −1 ||| · kF ∗ (x)kH1 , inégalité qui reste bien
sûr valide pour x = 0. Ainsi, (B) est prouvée.
(ii) On suppose que (B) est vraie. Si c = 0, on obtient que, pour tout x dans H2 ,
on a x = 0, donc H2 est réduit à {0} et (B) reste valide avec c = 1 > 0. On
suppose donc désormais que c > 0.
La bilinéarité de a provient du fait que F et F ∗ sont linéaires ainsi que de
la bilinéarité du produit scalaire sur H 2 . Par ailleurs, comme F et F ∗ sont
continues, a l’est aussi.
Pour tout x ∈ H2 , on a par définition de l’adjoint

a(x, x) = hx, F ◦ F ∗ (x)iH2 = hF ∗ (x), F ∗ (x)iH2 = kF ∗ (x)k2H2

398
Calcul différentiel, équations différentielles et EDP

d’où, en élevant au carré l’égalité apparaissant dans (B),

1
a(x, x) = kF ∗ (x)k2H1 > kxk2H2 .
c2
Autrement dit, a est coercive.
On veut maintenant montrer que F est surjective. Soit x2 ∈ H2 ; on cherche à
prouver l’existence d’un x1 ∈ H1 tel que F(x1 ) = x2 .
D’après le théorème de Lax-Milgram (rappelé dans les commentaires suivant ce
développement), il existe un unique u ∈ H2 tel que l’on ait, pour tout v ∈ H2 ,
l’égalité a(v, u) = hv, x2 iH2 . Par définition de a et par linéarité à droite du produit
scalaire, pour tout v ∈ H2 , on a hv, F ◦ F ∗ (u) − x2 iH2 = 0. Autrement dit,
on a que F ◦ F ∗ (u) − x2 ∈ H2⊥ = {0}. On en déduit que x2 = F(x1 ), avec
x1 = F ∗ (u) ∈ H1 , si bien que x2 ∈ Im(F). Ainsi, l’application F est surjective, ce
qu’il fallait démontrer.
∂y ∂y
b) (i) Soit τ ∈ [0, T ]. Soit ϕ ∈ Tτ . Par l’équation de transport, 0 = + .
∂t ∂x
On multiplie cette équation par ϕ et on intègre en espace puis en temps pour
trouver :
Z τ Z L
∂y ∂y

0= (t, x) + (t, x) ϕ(t, x)dxdt
0 0 ∂t ∂x
Z LZ τ Z τZ L
∂y ∂y
= (t, x)ϕ(t, x)dtdx + (t, x)ϕ(t, x)dxdt.
0 0 ∂t 0 0 ∂x

Ici, on a pu séparer l’intégrale de la somme en somme des deux intégrales et


permuter l’ordre d’intégration dans la première intégrale car les fonctions intégrées
sont continues sur le pavé compact [0, τ ] × [0, L]. À présent, intégrons par parties
chacun des termes, sans oublier les termes de bord :
Z L Z τ
∂ϕ

 τ
0= y(t, x)ϕ(t, x) t=0 − y(t, x) (t, x)dt dx
0 0 ∂t
Z τ Z L !
 L ∂ϕ
+ y(t, x)ϕ(t, x) x=0 − y(t, x) (t, x)dx dt.
0 0 ∂x

On exprime ensuite l’intégrale de chacun des crochets :


Z L Z L
 τ
• y(t, x)ϕ(t, x) t=0
dx = y(τ, x)ϕ(τ, x)dx car y|t=0 = 0,
0 0
Z τ Z τ
 L
• y(t, x)ϕ(t, x) x=0
dt = − u(t)ϕ(t, 0)dt car y|x=0 = u et ϕ|x=L = 0.
0 0
Ainsi, on obtient la formulation faible du problème, comme souhaité :
Z τ Z L
∂ϕ ∂ϕ

0=− (t, x) + (x, t) y(t, x)dxdt
0 0 ∂t ∂x
Z T Z L
− u(t)ϕ(t, 0)dt + y(τ, x)ϕ(τ, x)dx.
0 0

399
67. Dualité contrôlabilité-observabilité

(ii) Compte tenu de l’existence et de l’unicité de y à u ∈ L2 (]0, T [) donné,


l’application FT est bien définie. Or l’équation de transport peut s’écrire sous la
∂ ∂
forme D(y) = 0 avec D = ∂t + ∂x un opérateur différentiel linéaire, si bien que FT
est linéaire. De plus, l’inégalité de continuité (1) s’écrit en τ = T sous la forme
suivante : pour tout u ∈ L2 (]0, L[),
kFT (u)kL2 (]0,L[) 6 kukL2 (]0,L[) .
Ceci assure la continuité de FT (et donne |||FT ||| 6 1), donc FT∗ existe.
Soient u ∈ L2 (]0, T [), ϕT ∈ L2 (]0, L[). Notons y la solution faible de l’équation de
transport associée à la condition au bord u. On a alors
Z L Z L
hFT (u), ϕT iL2 (]0,L[) = FT (u)(x)ϕT (x)dx = y(T, x)ϕT (x)dx.
0 0

On pose ϕ la solution de l’équation de transport associée à la condition au bord


donnée par ϕ|x=L = 0 et à la condition « initiale » ϕ|t=T = ϕT . Ce problème étant
bien posé, il existe une unique telle ϕ ∈ C 0 ([0, T ], L2 ([0, L])). De plus, ϕ vérifie la
formulation variationnelle (voir questions suivant le Développement 66) suivante :
pour tout ỹ de classe C 1 sur ]0, T [×]0, L[ continue sur [0, T ] × [0, L] et nulle en
x = 0,
Z L Z T
ỹ(T, x)ϕT (x)dx = ỹ(t, 0)ϕ(t, 0)dt
0 0
Z TZ L
∂ ỹ ∂ ỹ
 
+ ϕ(t, x) (t, x) + (t, x) dxdt.
0 0 ∂t ∂x
Avec une telle ϕ, on a au sens des distributions :
Z L
hFT (u), ϕT iL2 (]0,L[) = y(T, x)ϕT (x)dx
0
Z TZ L
∂yϕ
= (t, x)dxdt
0 0∂t
par le théorème fondamental de l’analyse et y(0, ·) = 0
Z TZ L
∂ϕ ∂y
=− y(t, x) (t, x) + (t, x)ϕ(t, x)dxdt
0 0 ∂x ∂x
vu l’équation de transport vérifiée par y et par ϕ
Z T Z TZ L
∂y
= u(t)ϕ(t, 0)dt + (t, x)ϕ(t, x)dxdt
0 0 0 ∂x
Z TZ L
∂y
− (t, x)ϕ(t, x)dxdt,
0 0 ∂x
en intégrant par parties le premier terme, avec ϕ(·, L) = 0.
Z T
Ainsi, hFT (u), ϕT iL2 (]0,L[) = u(t)ϕ(t, 0)dt.
0
Autrement dit, par définition du produit scalaire, pour tout u ∈ L2 ([0, T ]) et
pour tout ϕT ∈ L2 ([0, L]), on a hFT (u), ϕT iL2 ([0,L]) = hu, ϕ(·, 0)iL2 ([0,T ]) . Ainsi,
l’adjoint FT∗ est donné par ϕT 7→ ϕ(·, 0).

400
Calcul différentiel, équations différentielles et EDP

(iii) Supposons T > L. L’application ϕ telle que définie dans l’énoncé est continue
de [0, T ] à valeurs dans L2 (]0, L[) et vérifie la condition « initiale » ϕ|t=T = ϕT .
Pour tout (t, x) ∈ [0, T ] × [0, L], on a aussi au sens des distributions

∂ϕ
(t, x) = −ϕ0T (T − t + x)106x<L+t−T (x, t)
∂t
∂ϕ
et (t, x) = ϕ0T (T − t + x)106x<L+t−T (x, t),
∂x
de sorte que l’équation de transport est vérifiée sur [0, T ] × [0, L].
Ainsi, par la définition de FT∗ donnée à la question b)(ii),
Z T
kFT∗ (ϕT )k2L2 (]0,T [) = ϕ(t, 0)2 dt
0
Z T
= ϕT (T − t)2 106T −t<L (t)dt
0
Z L
= ϕT (x)2 dx
0
= kϕT k2L2 (]0,L[) car T > L.

On obtient alors en particulier kϕT kL2 (]0,L[) 6 kFT∗ (ϕT )kL2 (]0,T [) , qui est l’inéga-
lité (B) avec c = 1. Par la question a), ceci équivaut à la surjectivité de FT , ce
qu’il fallait démontrer.

Commentaires.
© Ce développement est plutôt difficile, en particulier à cause de sa longueur.
Néanmoins, les questions qui le composent sont de difficulté croissante. Le candidat
pourra, suivant la leçon concernée et ses préférences, se contenter de présenter
la question a) qui est relativement élémentaire, ce qui donnerait un développe-
ment de niveau FF. Dans ce cas, le candidat aura le loisir de présenter chaque
détail minutieusement. Il pourra aussi mentionner le résultat de la question b)
comme application à l’équivalence contrôlabilité-observabilité (voir interprétation
ci-après).
© On utilise dans la preuve du sens direct de la question a) le théorème d’iso-
morphisme de Banach. Il s’agit d’une conséquence du théorème de l’application
ouverte, dont l’énoncé est le suivant :

Toute application linéaire continue surjective d’un espace de Banach


vers un autre espace de Banach est ouverte, au sens où l’image de tout
ouvert par cette application est ouverte.

© Le crochet h·, ·iH peut être à la fois interprété comme le produit scalaire sur H 2
ou comme un crochet de dualité h·|·iH 0 ,H via le théorème de représentation de
Riesz, qui permet de choisir un point de vue ou l’autre en fonction des besoins.
En voici un énoncé :

401
67. Dualité contrôlabilité-observabilité

Soit H un espace de Hilbert. On note h·, ·iH son produit scalaire.


Soit H 0 son dual topologique de H, c’est-à-dire l’ensemble des formes
linéaires continues de H. On note h·|·iH 0 ,H le crochet de dualité entre
H et H 0 , donné par hϕ|vi = ϕ(v) pour tous ϕ ∈ H 0 et v ∈ H.
Soit ϕ ∈ H 0 . Alors il existe un unique f ∈ H tel que pour tout v ∈ H
on a hϕ|viH 0 ,H = hf, viH . Autrement dit, toute forme linéaire continue
peut s’écrire sous la forme h·, viH .
© Le sens indirect de la question a) est un résultat de surjectivité de l’applica-
tion F, donc d’existence d’un antécédent par F. Le théorème de Lax-Milgram
est justement un résultat d’existence faisant intervenir un opérateur bilinéaire
continu et coercif. La preuve du sens indirect du théorème de la question a) repose
donc naturellement sur le théorème de Lax-Milgram dont le lecteur trouvera une
preuve dans [Bré87] et que l’on rappelle ici, en identifiant l’espace de Hilbert H
et son dual :
Soit a une forme bilinéaire d’un espace de Hilbert H. On suppose
que a est continue et coercive. Soit ϕ ∈ H. Il existe un unique u ∈ H
tel que pour tout v ∈ H on a a(v, u) = hv, ϕiH .
© Dans les questions b)(ii) et (iii), les calculs sont faits au sens des distributions
puisque l’on manipule des objets de L2 (solutions faibles) et non des fonctions de
classe C 1 (solutions fortes). On a passé sous silence les justifications de ce type de
calculs car l’intérêt du cadre des distributions est précisément de s’affranchir de
toutes les difficultés pouvant surgir lors du calcul de dérivées classiques. Le cadre
imposé dans la question b)(i) assure que tous les calculs effectués sur les intégrales,
en particulier les intégrations par parties, sont valides. L’intérêt principal de cette
question est de motiver et justifier la formulation faible choisie dans les questions
suivantes.
La théorie des distributions permet en fait de rendre valide ces calculs d’intégrales
dans un cadre plus général. Elle donne un sens presque partout à la dérivée de
n’importe quelle application L2 et met en place un cadre favorable à la résolution
des équations aux dérivées partielles — ou plus modestement déjà à l’énoncé de
tels problèmes. Plus précisément, pour f une application L2 , on définit sa dérivée
au sens des distributions f 0 de sorte que
Z Z
∀ϕ ∈ Cc1 , f 0ϕ = − f ϕ0 ,

où l’intégrale dans le membre de droite est bien définie au sens de Lebesgue.


Dans la question b)(i), on met justement en exergue le lien entre la formulation
forte et la formulation faible. On y montre qu’une solution forte est une solution
faible. La présentation très détaillée de cette question, motivant l’utilisation des
distributions, pourrait constituer un développement de niveau F.
© Le résultat admis entre les questions b)(i) et (ii) concernant le caractère bien
posé de l’équation de transport stipule qu’il existe une unique solution faible au
problème de Cauchy et que celle-ci dépend continûment de ses paramètres (ici, de
la condition au bord u). Pour une preuve de ce résultat, on pourra consulter le
Développement 66.

402
Calcul différentiel, équations différentielles et EDP

© Dans la question b), on obtient la surjectivité de FT ce qui assure en fait


l’existence du contrôle u : c’est un résultat de contrôlabilité. Dans notre cadre,
on s’intéresse uniquement à la contrôlabilité à partir de 0, c’est-à-dire que l’on
ne traite que le cas où l’état initial est y|t=0 = 0. En réalité, on pourrait montrer
que, dans le cas de l’équation de transport (mais aussi plus généralement pour
une équation aux dérivées partielles linéaire), la contrôlabilité à partir de 0 est
équivalente à la contrôlabilité à partir de n’importe quel état initial, c’est-à-dire
que pour T > L, pour tout état initial y0 ∈ L2 ([0, L]) et pour tout état final
yT ∈ L2 ([0, L]), il existe un contrôle u ∈ L2 (]0, T [), ici la condition au bord en
x = 0, telle que la solution y du problème vérifie y|t=0 = y0 et y|t=T = yT .
On n’aborde dans ce développement qu’un sens du résultat de contrôlabilité pour
l’équation de transport. En effet, on peut montrer que FT est surjective si et
seulement si T > L (voir par exemple [Cor07]).
© Le théorème démontré dans la question a) donne un cadre général à l’étude
de problèmes de contrôlabilité. La propriété (B) s’appelle inégalité d’observabilité
et constitue une reformulation cruciale des problèmes de contrôlabilité. En effet,
on remplace le problème de l’existence d’un contrôle u par la recherche d’une
inégalité pour toute solution d’une équation aux dérivées partielles. Lorsqu’il n’est
pas possible d’exhiber directement un contrôle, le problème de son existence est en
général difficile à traiter. En revanche, des résultats généraux peuvent permettre
d’établir l’inégalité d’observabilité (B), qui est essentiellement un résultat de
continuité.
© Dans la question b)(ii), on remarque le lien fort entre l’équation de transport
(avec condition initiale nulle en t = 0 et condition au bord en x = 0 quelconque)
et son problème dual (avec condition « initiale » quelconque en t = T et condition
au bord nulle en x = L). Résumons en un tableau cette dualité :

Problème de contrôle Problème dual


Équation de transport Équation de transport
Condition initiale : 0 en t = 0 Condition initiale : ϕT en t = T
Condition au bord : u en x = 0 Condition au bord : 0 en x = L
Problème d’existence Problème de « pour tout »

∃ ∀
« Il existe un contrôle u tel que... » « Pour toute solution, on a
l’inégalité d’observabilité... »

Ainsi, au lieu de montrer l’existence d’une condition au bord u répondant au pro-


blème de contrôle, on est ramenés à montrer une certaine inégalité d’observabilité
pour toute solution au problème dual. Dans ce développement, on a en fait prouvé
l’observabilité (à la fin de la question b)(iii) d’où l’on déduit la contrôlabilité, qui
est le résultat d’existence de u souhaité.

403
67. Dualité contrôlabilité-observabilité

© Le théorème démontré dans la question a) constitue un résultat important en


théorie du contrôle. Pour une équation aux dérivées partielles (ou une équation
différentielle) donnée, on cherche à établir une condition nécessaire et suffisante
pour que quelque soit l’état final yT souhaité à l’instant T , il existe un second
membre u permettant d’accéder à cet état final au temps T , i.e. tel que l’état
final FT (u) soit égal à yT . Ce second membre u est appelé contrôle. La théorie
du contrôle trouve beaucoup d’applications dans l’industrie et la vie de tous les
jours : automatisation, stabilisation de drones, réduction active du bruit, et même
en finance...
Les questions de contrôlabilité jouent un rôle important en mathématiques ap-
pliquées de nos jours. En effet, on peut représenter une action humaine sur des
systèmes physiques modélisés par des équations aux dérivées partielles comme
un contrôle u. Le cas étudié dans ce développement correspond par exemple
à l’agitation de l’extrémité d’une corde (en x = 0) de longueur L pendant un
temps T afin de mettre la corde dans l’état souhaité à l’instant T (pas seulement
au point x = 0, mais sur toute sa longueur). On normalise le système pour que
l’information se propage physiquement à vitesse 1 dans la corde. Aussi, pour avoir
la corde dans l’état voulu au temps T , il faut que l’information se soit propagée
dans toute la corde. En particulier, on ne peut pas espérer agir sur l’extrémité de
droite (x = L) avant que l’information ne l’atteigne. La condition T > L apparaît
heuristiquement de cette façon : pour une vitesse de propagation égale à 1, il faut
au moins un temps L pour contrôler l’état d’une corde de longueur L.
© Ces problèmes sont proches de ceux posés par la physique et l’industrie. L’étude
de systèmes dynamiques sans l’action de l’homme, c’est-à-dire sans contrôle u, est
aujourd’hui encore un problème difficile. Par exemple, on ne connaît toujours pas
de résultat d’unicité des solutions de l’équation de Navier-Stokes, qui modélise
l’écoulement d’un fluide newtonien. On ne sait même pas si ce problème est bien
posé (c’est l’un des sept problèmes du millénaire) ! Des résultats de contrôlabilité
sur ce type d’équation peuvent pourtant être établis. Après tout, à quoi bon
savoir comment un système évolue sans action de l’homme, si on peut déterminer
comment le forcer à évoluer selon nos objectifs ?

Questions.
1. Démontrer l’existence et l’unicité de F ∗ .
2. Démontrer que F ∗ est linéaire et continu.
3. Justifier que si E est un sous-espace fermé d’un espace de Hilbert H, alors
H = E ⊕ E ⊥ . Donner un contre-exemple dans le cas d’un sous-espace qui n’est
pas fermé.
4. Montrer que si (A) est vraie alors F ∗ est injective. La réciproque est-elle vraie ?
5. Justifier l’existence de la norme triple d’une application linéaire continue.
6. Pourquoi a est-elle bilinéaire et continue ?
7. Retrouver le théorème d’isomorphisme de Banach à partir du théorème de
l’application ouverte.

404
Calcul différentiel, équations différentielles et EDP

8. Justifier précisément les permutations d’intégrales et les intégrations par parties


réalisées dans la question b)(ii).
9. Définir la dérivée au sens des distributions et justifier les calculs présentés
en b)(ii).
10. Généraliser la formulation faible de la question b)(i) au cas où l’on donne une
condition initiale y0 ∈ L2 (]0, L[) et une condition au bord gauche y(t, 0) = u(t)
avec u ∈ L2 (]0, T [).
11. Comment pourrait-on en déduire « facilement » le caractère bien posé admis
dans la question b)(ii) ?

405
Analyse classique et complexe

L’analyse classique recouvre l’analyse réelle et complexe à une variable ainsi


que l’intégration. Les analogues discrets de ces notions sont aussi considérés : ce
sont les suites et les séries réelles et complexes (Dév. 68, 69, 70). D’apparence
élémentaire, ces objets s’appuient sur les idées fondamentales de l’analyse moderne,
et demeurent une intarissable source de défis.
Euler introduit la notion de fonction au XVIIIe siècle, début d’une ère où défini-
tions et propriétés implicites associées à ces fonctions sont le sujet de nombreux
débats et de nombreuses erreurs de raisonnement. Cauchy formalise pour la pre-
mière fois la théorie des fonctions en essayant de se défaire des manipulations
purement algébriques, esquissant les premières définitions de dérivées, puis utili-
sant des arguments et analogies essentiellement géométriques. Malgré des écueils,
de nombreuses idées modernes sont déjà présentes ; il faut toutefois attendre
Weierstrass un demi-siècle plus tard pour voir apparaître l’écriture formelle des
notions de continuité et de limites en termes de « ε » et « δ », dans un mouvement
d’arithmétisation formelle de l’analyse.
Le problème central de l’analyse demeure celui de l’approximation (de solution
d’équations, d’extremum, etc.). Si l’algèbre linéaire a pour objectif de comprendre
les espaces de solutions de systèmes linéaires Ax = b, omniprésents tant dans les
problèmes fondamentaux que dans les applications, il n’est pas toujours possible
d’expliciter une solution (à cause d’un manque d’inversibilité de la matrice A, de
l’instabilité numérique des méthodes algébriques ou encore de la complexité trop
élevée des algorithmes exacts). L’analyse supplée alors de puissantes méthodes
d’approximations de ces solutions (Dév. 74, 75, 76, 77).
L’introduction de l’analyse complexe remonte également à Cauchy. Contrairement
à l’analyse réelle, les fonctions complexes dérivables, appelées holomorphes, ont
une structure particulièrement rigide. Elles sont toutes développables en séries
entières localement, notamment de classe C ∞ (Dév. 78, 79). Le très riche théorème
des résidus permet de relier les intégrales sur le plan complexe aux pôles et aux
résidus des fonctions méromorphes (Dév. 80, 81), mettant l’étude des pôles et
des prolongements possibles au centre de nombreux domaines utilisant l’analyse
complexe, de la théorie des nombres à la physique quantique.
Analyse classique et complexe

Développement 68 (Méthode archimédienne pour approcher π F)

Pour tout n entier tel que n > 2, on note un l’aire d’un polygone régulier à 2n
côtés inscrit dans le cercle de centre O de cordonnées (0, 0) et de rayon 1 dans
le repère euclidien usuel.
a) Montrer que la suite (un )n>2 converge linéairement 23 vers π.
b) En déduire une méthode d’approximation de π.

Leçons concernées : 223, 228, 265

Ce développement, inspiré de la démarche historique d’Archimède, étudie la vitesse


de convergence d’une suite numérique vers la constante π en utilisant les outils
fondamentaux de l’analyse moderne que sont les développements limités, ainsi que
des arguments de trigonométrie élémentaires. Il permet donc d’illustrer la leçon
sur la convergence des suites numériques (223), la leçon sur la dérivation (228) et
celle sur l’utilisation des fonctions usuelles (265).

π
 A1
sin 4

O 1

A0
O 1

Figure 2.23 – À gauche, premiers polygones servant à la construction de la


suite (un )n>2 ; l’aire du carré est u2 , celle de l’octogone est u3 et celle de
l’hexadécagone est u4 . À droite, illustration dans le cas n = 3 du raisonnement
permettant le calcul explicite de un dans la question a).

23. Rappelons que l’on dit d’une suite réelle (un )n∈N qu’elle converge linéairement vers sa
un+1 −l
limite l ∈ R s’il existe M ∈ [0, 1[ tel que limn→+∞ un −l
= M . Le terme « linéairement » fait
référence au fait que l’exposant de l’erreur |un − l| dans l’inégalité ci-avant est 1, par opposition
par exemple au cas de la convergence quadratique, caractérisée quant à elle par la relation
|un+1 −l|
limn→+∞ (un −l)2 = M 0 pour un M 0 > 0.

409
68. Une méthode archimédienne pour approcher π

Correction.
a) On remarque toutqd’abord que y un est bien défini pour tout n > 2 : si l’on
n−1 − 1 le point A comme ayant pour coordonnées
définit pour

tout

k ∈ 0, 2 k

polaires 1, 2n−1 dans le repère euclidien usuel, alors un représente l’aire du
polygone convexe dont les sommets sont les points Ak .
Par ailleurs, si n > 2 alors un est égal à 2n fois l’aire du triangle de sommets O, A0
et A1 (voir Figure 2.23). On a donc
 
π
1 · sin 2n−1

π

n n−1
un = 2 =2 sin . (1)
2 2n−1

Comme sin(x) ∼ x lorsque x → 0, on a bien lim un = π. Plus précisément, le


n→+∞
développement limité de sin à l’ordre 3 en 0 donne, lorsque n tendant vers +∞ :
"  3 3 !#
1 π π 2π 3 1
  
n−1
π − un = 2 +o = +o n .
6 2n−1 2n−1 3·4 n 4

On a donc
|π − un+1 | 1
lim = ,
n→+∞ |π − un | 4
ce qui montre que (un )n>2 converge linéairement vers π.
b) La formule (1) ne peut pas être utilisée directement pour calculer numéri-
quement un si l’on ne dispose pas d’une approximation précise des valeurs de la
fonction sin ainsi que de celle de π... ce qui est exactement l’objectif de notre
développement ! Comme u2 = 2 est connu, on souhaite donc expliciter une rela-
tion de récurrence entre les termes successifs de la suite (un )n>2 ne faisant pas
apparaître le nombre π. Si n > 2, on peut écrire
π π π
     
sin = 2 sin cos n (2)
2n−1 2n 2
or s
π π π
     
2
1− sin2 = cos = 2 cos − 1,
2n−1 2n−1 2n
en vertu de la formule cos(2x) = 2 cos2 (x) − 1 valable pour tout x ∈ R, d’où
v r
u  
u 1 + 1 − sin2 n−1
u π
π
 
t 2
cos n =
2 2

donc (2) donne


v s
u
π π u π
    
sin = sin t2 + 2 1 − sin2 ,
2n−1 2n 2n−1

410
Analyse classique et complexe

soit  
π

π
 sin 2n−1
sin =s .
2n r  
π
2+2 1− sin2 2n−1

Ceci se réécrit
2−(n−1) un
2−n un+1 = r q ,
2+2 1−2 −2(n−1) 2
un

et donc √
2un
un+1 = r q .
1+ 1− 2−2(n−1) u2n

Cette relation de récurrence ne fait pas apparaître le nombre π et permet donc


le calcul explicite de un pour tout n > 2 (et donc l’approximation de π) par
multiplications, divisions et extraction de racines carrées.

Commentaires.
© Voici les premiers termes de la suite (un )n>2 retournés par l’algorithme :

u2 = 2 u3 = 3.06146745892 u4 = 3.12144515226
u5 = 3.13654849055 u6 = 3.14033115695 u7 = 3.14127725093
u8 = 3.14151380114 u9 = 3.14157294037 u10 = 3.14158772528.

© La méthode d’Archimède à proprement parler, présentée dans le traité d’Ar-


chimède intitulé De la mesure du cercle, consiste à considérer le périmètre pn du
polygone étudié dans ce développement et le périmètre Pn d’un polygone régulier
à 2n côtés circonscrit au cercle de centre (0, 0) et de rayon 1. On obtient alors
l’encadrement pn 6 π 6 Pn ainsi que
p 2pn Pn
pn+1 = pn Pn+1 et Pn+1 = (3)
pn + Pn
pour tout n > 2.
© En 1873, William Shanks fournit l’approximation de π la plus précise pour
l’époque, correcte jusqu’à la 527e décimale. Sans surprise, la recherche d’approxi-
mations est désormais effectuée par des ordinateurs : le 14 mars 2019, Google
a rendu public un nouveau record, qui s’établit à 31415 milliards de décimales.
L’algorithme à l’origine de ce résultat, proposé en 1988 par les frères Chudnovsky,
est fondé sur le calcul de la somme d’une série à convergence rapide, donnée par
+∞
X (−1)k (6k)!(545140134k + 13591409) 1
12 3 3k+3/2
= .
k=0
(3k)!(k!) (640320) π

© Une autre méthode historique d’approximation de π, la méthode de Buffon, est


étudiée dans le Développement 93.

411
68. Une méthode archimédienne pour approcher π

© D’innombrables techniques et algorithmes d’approximation de π ont été proposés


au fil des siècles. La page Wikipédia consacrée à l’approximation de π en recense
un nombre appréciable. Les méthodes numériques d’extraction de racines carrées
sont tout aussi nombreuses.

Questions.
1. Justifier pourquoi les polygones réguliers à 2n côtés (avec n > 2) inscrits dans
le cercle de centre O et de rayon 1 ont tous la même aire.
2. Démontrer rigoureusement que pour tout entier n tel que n > 2, un vaut 2n
fois l’aire du triangle de sommets (0, 0), A0 et A1 .
3. À mesure que n grandit, à quelle vitesse croît le nombre de décimales de π
estimées correctement par un ?
4. Justifier que u2 = 2.
2π 3
5. Montrer que un est effectivement une approximation de π à 3·4n près, c’est-à-
2π 3
dire que |π − un | 6 3·4n pour tout n > 2.

6. Montrer que les suites (pn )n∈N et (Pn )n∈N définies en commentaire vérifient

π π
   
pn = 2n sin et Pn = 2n tan
2n 2n

pour tout n ∈ N, puis justifier la relation de récurrence (3).


7. Montrer que la relation de récurrence (3) implique la convergence de (pn )n∈N
et (Pn )n∈N vers π.
8. Quelle est la vitesse de convergence de la méthode d’Archimède proposée en
commentaire ?
P (−1)k
9. Quelle est la vitesse de convergence de la série 4 k>0 2k+1 vers sa somme
4 arctan(1) = π ?

412
Analyse classique et complexe

Développement 69 (Convergence d’une suite de polygones FF)

Soit k > 2. Un vecteur z = (z(1), . . . , z(k)) ∈ Ck définit un polygone Z1 · · · Zk


du plan dont les sommets ont pour affixes z(1), . . . , z(k). On considère la
suite (zn )n∈N de polygones déterminée par z0 ∈ Ck et, pour tout n ∈ N,
1 
zn+1 (j) = zn (j) + zn (j + 1) , j ∈ J1, kK , (?)
2
avec zn (k + 1) = zn (1). Des itérations d’une telle suite sont représentées ici :

z0
z1
z2
z3
z4
z5

a) Déterminer la matrice P ∈ Mk (R) telle que zn+1 = P zn pour tout n ∈ N.


i h
1
b) Montrer qu’il existe α ∈ 0, 2 tel que P k (i, j) > α pour tous i, j ∈ J1, kK.
c) On fixe un élément y de l’ensemble
 
 k
X 
Σk = x ∈ Rk : x(1), . . . , x(k) > 0 et x(j) = 1 ,
 
j=1

et on pose yn = P n y, pour tout n ∈ N. Pour tout vecteur x ∈ Rk , on note


min(x) (resp. max(x)) le minimum (resp. maximum) de ses composantes.
(i) Montrer que pour tout n ∈ N,
(
max(yn+k ) 6 α min(yn ) + (1 − α) max(yn ),
min(yn+k ) > α max(yn ) + (1 − α) min(yn ).

(ii) En déduire que les suites (min(yn ))n∈N et (max(yn ))n∈N sont adjacentes,
puis que la suite (yn )n∈N converge vers ( k1 , . . . , k1 ) ∈ Σk .
d) Conclure que la suite (zn )n∈N converge vers (g, . . . , g) ∈ Ck où
1
g= (z0 (1) + · · · + z0 (k))
k
est l’affixe de l’isobarycentre du polygone défini par z0 .

Leçons concernées : 191, 223, 226

413
69. Convergence d’une suite de polygones

Ce développement trouve naturellement sa place dans la leçon portant sur la


convergence des suites (223) et dans celle concernant les suites définies par
récurrence (226). Il peut aussi être présenté dans la nouvelle leçon sur l’utilisation
des techniques d’algèbre en géométrie (191). La correction qui suit se limite à des
outils très élémentaires d’analyse (suites adjacentes, théorème d’encadrement),
mais le développement peut être mené à un niveau plus élevé pour illustrer des
résultats de réduction de matrice ou de convergence de chaînes de Markov (le
candidat devra alors s’attendre à des questions sur ces points).

Correction.
a) En interprétant matriciellement la relation (?), en faisant attention au cas
particulier zn (k + 1) = zn (1), on obtient zn+1 = P zn pour tout n ∈ N, où
 
1/2 1/2 ···
0 0
 .. .. 

 0 1/2 1/2 . .

P =
 .. .. .. .. 
∈ Mk (R).
 . . . . 0
0 · · · 0 1/2 1/2
 

1/2 0 ··· 0 1/2

b) Fixons i, j ∈ J1, kK. On a, par définition du produit matriciel,


X
P k (i, j) = P (i0 , i1 ) · · · P (ik−1 , ik ).
16i0 ,i1 ,...,ik 6k
i0 =i, ik =j

Les termes de cette somme étant tous positifs ou nuls, il suffit de trouver un
(k + 1)-uplet (i0 , . . . , ik ) pour lequel P (i0 , i1 ) = · · · = P (ik−1 , ik ) = 12 . Si i 6 j, on
peut par exemple considérer (i0 , . . . , ik ) = (i, . . . , i, i + 1, . . . , j). En revanche, dans
le cas i > j, on considère à la place (i0 , . . . , ik ) = (i, i + 1, . . . , k, 1, 2, . . . , j, . . . , j).
Avec ces choix, on obtient dans tous les cas P k (i, j) > α avec α = 2−k .
c) (i) On a yn+k = P k yn pour tout n ∈ N, et kj=1 P k (i, j) = 1 pour i ∈ J1, kK.
P

En considérant les indices j ∈ J1, kK tels que yn (j) = min yn et en observant que
chaque vecteur-ligne de la matrice P k appartient à Σk , on obtient, pour tous
entiers n ∈ N et i ∈ J1, kK,
X
yn+k (i) = P k (i, j)yn (j)
16j6k
   
 X   X 
6 P k (i, j) min yn + 1 − P k (i, j) max yn
   
   
16j6k 16j6k
min yn =yn (j) min yn =yn (j)
 
 X 
= max yn −  P k (i, j) (max yn − min yn )
 
 
16j6k
min yn =yn (j)

6 max yn − α (max yn − min yn )


= α min(yn ) + (1 − α) max(yn ),

414
Analyse classique et complexe

où l’on a utilisé la question b). D’où, pour tout n ∈ N,


max(yn+k ) 6 α min(yn ) + (1 − α) max(yn ).
En considérant cette fois les indices j tels que max(yn ) = yn (j), on obtient l’autre
inégalité
min(yn+k ) > α max(yn ) + (1 − α) min(yn )
pour tout n ∈ N.
(ii) Posons wn = max(yn ) − min(yn ) > 0, n ∈ N. Par ce qui précède, on a
l’inégalité wn+k 6 (1 − 2α)wn pour tout n ∈ N. D’où
0 6 lim sup wn 6 (1 − 2α) lim sup wn ,
n→+∞ n→+∞

et, puisque 1 − 2α < 1, la suite (wn )n∈N converge vers 0. De plus, comme
chaque composante de yn+1 est une combinaison convexe des composantes de yn ,
la suite (max(yn ))n∈N est décroissante et la suite (min(yn ))n∈N est croissante.
Par conséquent les suites (min(yn ))n∈N et (max(yn ))n∈N sont adjacentes. Elles
convergent donc vers une même limite ` ∈ R. Par le théorème d’encadrement,
on en déduit que (yn )n∈N converge vers (`, . . . , `). Enfin, puisque Σk est fermé et
stable par P , on a {yn } ⊂ Σk et (`, . . . , `) ∈ Σk , donc ` = k1 .
d) Soit (e1 , . . . , ek ) la base canonique de Ck . On a zn = P n z0 = kj=1 z0 (j)P n ej
P

par linéarité, et puisque ej ∈ Σk , on déduit de c) que P n ej tend vers ( k1 , . . . , k1 )


pour tout j ∈ J1, kK. Ainsi zn tend vers (g, . . . , g) où g = k1 (z0 (1) + · · · + z0 (k)).

Commentaires.
© Si l’on souhaite éviter la notion de limite supérieure pour montrer la convergence
de (wn )n∈N vers 0 à la question c)(ii), on peut à la place invoquer le lemme des
sous-suites. En effet, de l’inégalité 0 6 wn+k 6 (1 − 2α)wn on tire facilement
l’encadrement 0 6 wnk+j 6 (1 − 2α)n wj pour tous n ∈ N et 0 6 j < k. On
conclut en faisant tendre n vers +∞.
© La matrice P est une matrice stochastique : chacune de ses lignes correspond
à une loi de probabilité discrète. On peut l’interpréter comme la matrice de
transition de la marche aléatoire suivante dans le groupe Z/kZ :

1/2

1/2 1/2
1
1/2 k 2 1/2

1/2 1/2

1/2 k−1 3 1/2

1/2 ··· 1/2

Figure 2.24 – Marche aléatoire sur le groupe Z/kZ associée à la matrice P .

415
69. Convergence d’une suite de polygones

La question b) signifie que pour tous sommets i, j ∈ J1, kK de ce graphe et pour


tout n ∈ N, on peut toujours trouver un chemin de i à j de longueur n et de
probabilité au moins α.
© On peut aussi recourir à un argument de réduction : il est facile de voir dans le
cas présent que l’espace propre Ker (Ik − P ) associé à la valeur propre 1 est de
dimension 1, engendré par µk = ( k1 , . . . , k1 ) ∈ Σk , et que tout autre valeur propre λ
vérifie |λ| < 1 (c’est une conséquence de la condition nécessaire |λ − 12 | = 12 qui
s’observe aisément). Ainsi P n ej converge lorsque n → ∞ vers µk (unique élément
de Ker (Ik − P ) ∩ Σk ), pour tout j ∈ J1, kK.
© Le raisonnement proposé peut servir à démontrer que toute chaîne de Markov
ergodique sur un espace d’états fini converge en loi vers son unique distribution
invariante (qui n’est autre que l’unique élément de Ker (Ik − t P ) ∩ Σk , avec P
la matrice de transition de la chaîne). C’est aussi une application du puissant
théorème de Perron-Frobenius :
Toute matrice à coefficients strictement positifs admet son rayon
spectral comme valeur propre simple ainsi qu’un vecteur propre associé
dont les composantes sont toutes strictement positives.

Questions.
1. Démontrer l’affirmation de la question c) selon laquelle la suite (min yn )n∈N
(resp. (max yn )n∈N ) est croissante (resp. décroissante).
2. Démontrer succinctement le théorème des suites adjacentes.
3. Justifier que Σk est un compact de Ck stable par P .
4. Montrer que la suite (P n )n∈N converge vers une matrice dont tous les vecteurs-
lignes égalent µk . Interpréter cette convergence par rapport à la loi d’une particule
se déplaçant aléatoirement sur le graphe représenté en Figure 2.24.
5. Que se passe-t-il si l’on remplace (?) par une combinaison convexe telle que
zn+1 (j) = p zn (j) + (1 − p) zn (j + 1) pour tout j ∈ J1, kK , avec p ∈ [0, 1] ?
6. Soient Q ∈ Mk (R) une matrice stochastique et, pour tous i, j ∈ J1, kK, l’en-
semble N (i, j) = {n ∈ N : Qn (i, j) > 0}. On suppose que pour tous i, j ∈ J1, kK,
on a N (i, j) 6= ∅ (Q est irréductible) et que les éléments de N (i, i) sont premiers
entre eux dans leur ensemble (Q est apériodique).
i h Montrer que Q est régulière, au
1
sens où il existe un entier m ∈ N et α ∈ 0, 2 tels que Qm (i, j) > α pour tout
indices i, j ∈ J1, kK.
Indication : considérer a 6= b dans N (i, i) et montrer que tout entier n assez grand
peut s’écrire n = au + bv avec u, v ∈ N.
7. Soit (Xn )n∈N une chaîne de Markov sur J1, kK. On suppose (Xn )n∈N ergodique,
c’est-à-dire que sa matrice de transition Q est irréductible et apériodique. En
reprenant le développement ci-avant, montrer que (Xn )n∈N converge en loi vers
l’unique vecteur-probabilité µ ∈ Σk tel que µQ = µ (c’est-à-dire que Qn tend vers
une matrice dont toutes les lignes égalent µ). Montrer de plus que µ(j) > 0 pour
tout j ∈ J1, kK.

416
Analyse classique et complexe

Développement 70 (Développement en fractions continues FF)

Soit ξ ∈ R. On définit la suite (éventuellement finie) de réels (ξn )n∈N via


1
ξ0 = ξ et pour tout n ∈ N, ξn+1 = ξn −bξ nc
tant que ξn n’est pas entier. Le
développement en fraction continue de ξ est la suite (éventuellement finie)
d’entiers (an )n∈N où an = bξn c pour tout entier n. Par construction, pour
tout entier n tel que ξn+1 est défini, on a
1
ξ = a0 + 1 . (1)
a1 +
..
.+ 1
1
an +
ξn+1

On notera [a0 , . . . , an , ξn+1 ] la fraction précédente.


a) Montrer qu’il existe deux suites d’entiers (pn )n∈N et (qn )n∈N telles que,
pour tout n ∈ N tel que ξn est défini, on a
pn+1 ξn + pn
ξ= et pn+1 qn − pn qn+1 = (−1)n .
qn+1 ξn + qn

b) En déduire que ξ ∈ Q si et seulement si son développement est fini.


On suppose maintenant que ξ est irrationnel, donc que son développement
est infini. Le réel ξ est dit quadratique s’il est racine d’un polynôme de Q[X]
irréductible et de degré 2.
c) On suppose que le développement de ξ est périodique.
(i) Montrer qu’il existe un entier k tel que ξk est quadratique.
(ii) En déduire que ξ est quadratique.
d) Supposons que ξ est quadratique, et soit Q = αX 2 + βX + γ ∈ Z[X] un
polynôme annulateur de ξ irréductible sur Q.
(i) Pour tout n ∈ N, construire Qn ∈ Z[X] de degré 2 et annulant ξn .
(ii) Montrer que Qn et Q ont même discriminant, et en déduire que l’ensemble
{Qn : n ∈ N} est fini.
(iii) Conclure quant à la périodicité du développement de ξ.

Leçons concernées : 223, 226

Ce développement présente la notion de développement en fraction continue.


Comme on le verra dans les commentaires, ce concept permet d’obtenir des ap-
proximations d’un irrationnel donné, et justifie donc l’intégration de ce développe-
ment dans les leçons 223 et 226, aux côtés de la méthode de Newton, comme outil
séquentiel d’approximation.

417
70. Développement en fractions continues

Correction.
a) On procède par récurrence double sur n pour prouver la propriété voulue.
Dans le cas n 6 2, on pose (p0 , p1 , p2 ) = (0, 1, a0 ) et (q0 , q1 , q2 ) = (1, 0, 1). On a
alors
p1 ξ0 + p0 1 × ξ0 + 0
= = ξ0 = ξ,
q1 ξ 0 + q0 0 × ξ0 + 1
p2 ξ1 + p1 a 0 ξ1 + 1 1
= = a0 + = a0 + ξ0 − a0 = ξ.
q2 ξ 1 + q1 ξ1 ξ1
On a de plus
p1 q0 − p0 q1 = 1 et p2 q1 − p1 q2 = −1.
Ainsi, la propriété est vraie aux rangs 1 et 2.
Soit n > 2 un entier tel que ξn est défini, et supposons que p0 , . . . , pn et q0 , . . . , qn
soient définis. On veut alors déterminer deux entiers pn+1 et qn+1 de sorte que
pn+1 ξn + pn
ξ= .
qn+1 ξn + qn
Par définition de ξn , ceci se réécrit en
pn+1
ξn−1 −an−1 + pn (pn+1 − an−1 pn ) + pn ξn−1
qn+1 = .
ξn−1 −an−1 + qn (qn+1 − an−1 qn ) + qn ξn−1
Par hypothèse de récurrence, on a également
pn ξn−1 + pn−1
ξ= .
qn ξn−1 + qn−1
Ainsi, en posant pn+1 = pn−1 + an−1 pn et qn+1 = qn−1 + an−1 qn , on a bien
pn+1 ξn + pn
ξ= .
qn+1 ξn + qn
On a de plus
pn+1 qn − pn qn+1 = pn−1 qn − pn qn−1 + an−1 pn qn − an−1 pn qn = −(−1)n−1 = (−1)n ,
ce qui montre la propriété au rang n et achève la preuve par récurrence.
b) Si le développement de ξ est fini, alors il existe un entier n tel que ξn soit
entier. Par la question précédente,
pn+1 ξn + pn
ξ=
qn+1 ξn + qn
est une écriture de ξ comme quotient de deux entiers, donc ξ est rationnel.
Réciproquement, supposons qu’il existe n ∈ N tel que ξn = pq avec p ∧ q = 1
6 1. Alors ξn+1 = qr où r est le reste de la division euclidienne de p par q. En
et q =
particulier, quitte à simplifier la fraction qr (ce qui fait décroître la valeur de la
somme q + r), on peut supposer que q et r sont premiers entre eux et q + r < p + q.
Ainsi, si ξ = ξ0 est rationnel, alors tous les ξn (s’ils existent) sont rationnels, et la
suite des p + q est une séquence d’entiers strictement décroissante, qui est donc
finie. Finalement, on obtient bien que le développement de ξ est fini.

418
Analyse classique et complexe

c) (i) Supposons que le développement de ξ est périodique, c’est-à-dire qu’il


existe deux entiers k et T > 1 tels que ξk = ξk+T . Observons que le développement
en fraction continue de ξk est (ak+n )n∈N . En particulier, on a

ξk = [ak , . . . , ak+T −1 , ξk+T ] = [ak , . . . , ak+T −1 , ξk ].

D’après la question a), il existe des entiers p, p0 , q, q 0 tels que

pξk + p0
ξk = .
qξk + q 0

En particulier, le polynôme qX 2 +(q 0 −p)X −p0 est annulateur de ξk . Ce polynôme


est de degré 2 et ses coefficients sont entiers. Il est de plus irréductible sur Q, car
sinon sa racine ξk serait rationnelle, donc ξ aussi, ce qui est exclu. Ainsi, ξk est
quadratique.
(ii) Soit Q ∈ Q[X] un polynôme annulateur de ξk , irréductible de degré 2.
D’après la question a), il existe des entiers pn , qn , pn+1 , qn+1 tels que

pk+1 ξk + pk qk ξ − p k
ξ= d’où ξk = .
qk+1 ξk + qk −qk+1 ξ + pk+1

Ainsi, le polynôme

qk X − p k
 
2
(−qk+1 X + pk+1 ) Q
−qk+1 X + pk+1

est un polynôme à coefficients rationnels, de degré 2 et annulateur de ξ. Comme


la racine ξ n’est pas rationnelle, ce polynôme est irréductible sur Q et ξ est
quadratique.
d) (i) En s’inspirant de la construction de la question c)(ii), on pose

pn+1 X + pn
 
Qn (X) = (qn+1 X + qn )2 Q .
qn+1 X + qn
2 Q( pn+1 ), qui
Ce polynôme est à coefficients entiers et le coefficient de X 2 est qn+1 qn+1
est non nul car Q est irréductible sur Q. De plus, on a

Qn (ξn ) = (qn+1 ξn + qn )2 Q(ξ) = 0.

Ainsi, Qn est un polynôme annulateur de ξn . Il est en particulier irréductible


(sinon ξn et donc ξ seraient rationnels).
(ii) Soit ξ 0 un réel tel que les racines de Q soient les éléments de {ξ, ξ 0 }. En
particulier, on a Q = α(X − ξ)(X − ξ 0 ), et le discriminant ∆ de Q vérifie

∆ = α2 (ξ − ξ 0 )2 .

419
70. Développement en fractions continues

De même, le discriminant ∆n de Qn vaut αn2 (ξn − ξn0 )2 , où αn est le coefficient


qn ξ 0 −pn
dominant de Qn , et ξn0 = −qn+1 ξ 0 +pn+1 . On a donc

2
qn ξ 0 − p n
2 
pn+1 qn ξ − p n

4
∆n = qn+1 Q −
qn+1 −qn+1 ξ + pn+1 −qn+1 ξ 0 + pn+1
2
qn ξ − p n qn ξ 0 − pn

= α2 (pn+1 − qn+1 ξ)2 (pn+1 − qn+1 ξ 0 )2 −
−qn+1 ξ + pn+1 −qn+1 ξ 0 + pn+1
= α2 ((qn ξ − pn )(pn+1 − qn+1 ξ 0 ) − (qn ξ 0 − pn )(pn+1 − qn+1 ξ))2
= α2 (qn pn+1 − pn qn+1 )2 (ξ − ξ 0 )2
=∆

car (qn pn+1 − pn qn+1 )2 = (−1)2n = 1 d’après la question a).


Notons Qn = αn X 2 +βn X +γn . Pour montrer que la suite (Qn )n∈N ne prend qu’un
nombre fini de valeurs, on va montrer que les suites entières (αn )n∈N , (βn )n∈N
et (γn )n∈N sont bornées. Observons tout d’abord que

pn+1 pn+1 pn+2 ξn+1 + pn+1 ξn+1


−ξ = − = 61
qn+1 qn+1 qn+2 ξn+1 + qn+1 qn+1 (qn+2 ξn+1 + qn+1 )
car qn+1 > 1 et qn+2 > 1.
Ainsi, par inégalité des accroissements finis, on a
pn+1 pn+1
 
2 2 2
|αn | = qn+1 Q − Q(ξ) 6 qn+1 M − ξ 6 qn+1 M,
qn+1 qn+1

où M = sup|x−ξ|<1 |Q0 (x)|. La suite (αn )n∈N est donc bornée. C’est aussi le cas
de (γn )n∈N car
pn
 
2
γn = Qn (0) = qn Q = αn−1 .
qn
Enfin, on a
βn2 = ∆n + 4αn γn = ∆ + 4αn αn−1 6 ∆ + 4M 2 ,
ce qui conclut la démonstration.
(iii) Le principe des tiroirs assure qu’il existe n1 < n2 < n3 tels que les polynômes
Qn1 , Qn2 et Qn3 sont égaux. Pour tout j ∈ {1, 2, 3}, ξnj est racine de Qnj , donc
il existe bien i < j tels que ξni = ξnj . Le développement de ξ est donc bien
périodique à partir du rang ni , et sa période est majorée par nj − ni .

Commentaires.
© Les fractions continues apparaissent dans différents domaines des mathéma-
tiques. Elles sont à la base de la notion d’approximation diophantienne : étant
donné un nombre irrationnel x et un réel ε > 0, peut-on calculer facilement un
rationnel dans l’intervalle [x − ε, x + ε]. Le lemme de Dirichlet assure que pour tout
entier q > 1, il existe un entier p tel que |x − pq | < q12 . Cependant, ce résultat n’est
pas constructif. Avec les notations de l’énoncé, la fraction pqnn est appelée « réduite »

420
Analyse classique et complexe

de ξ. Comme on le verra dans les questions, la suite des réduites converge vers ξ,
et on a
pn 1
ξ− 6 2. (2)
qn qn
Ainsi, les fractions continues permettent de construire explicitement des approxi-
mations d’irrationnels. De plus, leur construction est peu coûteuse.
© On peut améliorer la majoration √ (2) d’un facteur 2 en ne considérant qu’une
réduite sur deux, et d’un facteur 5 pour une réduite sur trois. En revanche, il
n’est pas possible d’améliorer l’exposant en général (par un théorème de Thue-
Siegel-Roth).
On peut d’autre part montrer que les réduites sont des « meilleures approxi-
mations », c’est-à-dire qu’elles sont plus proches de ξ que n’importe quel autre
rationnel de plus petit dénominateur. C’est en fait une équivalence : les meilleures
approximations d’un irrationnel sont ses réduites. En particulier, calculer des
réduites a longtemps été une technique commune d’approximation de racine
carrées.
© Les fractions continues apparaissent aussi naturellement dans l’étude des équa-
tions de Pell-Fermat x2 − dy 2 = ±1. En effet, en réécrivant cette équation sous la
forme
x √ x √ 1
  
− d + d = ± 2,
y y y

on obtient que les
√ solutions fournissent des réduites de d car elles vérifient la
majoration | xy − d| < 2y12 . On peut alors montrer que toutes les solutions d’une

telle équation sont
√ obtenues comme
√ les coefficients de 1 √ d d’une certaine
et
puissance de α + dβ dans Z[ d], où αβ est une réduite de d.
© Le développement en fraction continue se généralise au cadre d’approximation
de fonctions : c’est la notion d’approximant de Padé, qui permet d’approcher une
fonction (analytique) par des fractions rationnelles.
© Dans le cas rationnel, le calcul du développement en fraction continue (fini)
consiste à effectuer les mêmes opérations que l’algorithme d’Euclide. On peut
même retrouver les coefficients de Bézout à partir de la dernière réduite pqnn .

© Dans le cas des irrationnels quadratiques de la forme d, le théorème de
Legendre fournit un peu plus d’information que la simple périodicité : le déve-
loppement est périodique à partir du second terme. De plus, sa période est de la
forme a1 , a2 , . . . , a2 , a1 , 2a0 , soit presque un palindrome.

Questions.
1. Démontrer l’équation (1).
2. Dans la question b), justifier que qn+1 ξn + qn 6= 0.
3. Montrer que si ξk est rationnel pour un certain entier k alors ξ est rationnel.
4. Est-ce que la suite (qn )n∈N des dénominateurs des réduites d’un irrationnel ξ
est toujours non bornée ?

421
70. Développement en fractions continues

5. Montrer que si ξn = pq avec q - p, alors ξn+1 = qr où r est le reste de la division


euclidienne de p par q. En déduire que si ξ est rationnel, le calcul du développement
en fraction continue effectue les mêmes calculs que l’algorithme d’Euclide.
6. Dans la dernière question, pourquoi doit-on considérer trois entiers n1 , n2 , n3
et non deux ?
√ √
7. Déterminer le développement en fraction continue de 1+2 5 et de 2.
8. Montrer que pour tout n ∈ N,
pn 1
−ξ 6 .
qn qn qn+1

En déduire que la suite des réduites converge vers ξ.


9. Montrer que l’application qui à un irrationnel associe son développement en
fraction continue est une bijection entre R+ \ Q et NN .

422
Analyse classique et complexe

Développement 71 (Théorèmes de Choquet et de Birkhoff FF)

Notons E un espace vectoriel normé et K un convexe compact de E. On


suppose que l’ensemble E(K) des points extrémaux de K est également
compact.
a) Montrer le théorème de Choquet :

On considère une fonctionnelle linéaire continue ` : K → R. Alors `


atteint un minimum sur K en un point extrémal de K.
Soit n > 1. Introduisons l’ensemble des matrices bistochastiques
 
 n
X n
X 
Bn = γ = (γij )ij ∈ Mn ([0, 1]) : ∀i, j ∈ J1, nK , γij = γij = 1 .
 
i=1 j=1

b) Montrer le théorème de Birkhoff :

Les points extrémaux de Bn sont les matrices de permutations.

Leçons concernées : 181, 203, 219, 253

Ce développement présente deux résultats très classiques et utiles en analyse


convexe (253), dans le cadre particulier d’ensembles compacts (203). L’application
au transport optimal donnée en commentaire ainsi que le théorème de Choquet
concernant les extremums de fonctions en font une illustration des problèmes
d’optimisation (219) et peuvent constituer un développement à part entière.

Correction.
a) Rappelons que les points extrémaux de K sont les points ne pouvant s’écrire
comme combinaison linéaire non triviale de plusieurs points de K. Plus précisément
x ∈ E(K) si, et seulement si,

∀a, b ∈ K, ∀λ ∈ [0, 1], (x = λa + (1 − λ)b =⇒ a = b ou λ ∈ {0, 1}) .

On commence par écrire ` comme limite croissante de fonctions strictement


concaves. En notant `n = ` − n1 k · k2 , on a

` = lim `n .
n→+∞

La convergence est de plus uniforme car K est compact donc borné, de sorte que
` − `n = − n1 k · k2 converge uniformément vers zéro.
Soit n ∈ N. La fonction `n = ` − n1 k · k2 est continue sur le compact K, elle admet
donc un minimum dans K. Ce minimum est atteint sur E(K) par stricte concavité
de `n . En effet, supposons que le minimum soit atteint en un point x ∈ / E(K). Par

423
71. Théorèmes de Choquet et de Birkhoff

le théorème de Krein-Milman, il est combinaison convexe de points extrémaux


x1 , . . . , xk ∈ E(K), disons
k
X k
X
x= λi xi , où λi ∈]0, 1[ avec λi = 1.
i=1 i=1

Mais alors, par stricte concavité de `n , on aurait


k k
!
X X
`n (x) = `n λi xi > λi `n (xi ),
i=1 i=1

et cela nécessiterait que l’un des `n (xi ) soit strictement inférieur à `n (x), contrai-
rement à l’hypothèse de minimalité. Ainsi, le minimum de `n est atteint en un
point extrémal.
Pour tout n ∈ N, notons xn ∈ E(K) un point minimisant `n . Par compacité
de E(K), on peut extraire de la suite (xn )n une sous-suite convergente, que l’on
note toujours de la même manière quitte à renommer les indices. Notons x ∈ E(K)
la limite de la suite extraite. Nous allons prouver que ce x minimise `. Pour
tout ε > 0, on a

∃n1 ∈ N, ∀n > n1 , |`(xn ) − `(x)| 6 ε,

parce que `n est continue, et

∃n2 ∈ N, ∀n > n2 , k`n − `k∞ 6 ε,

par convergence uniforme. Il vient alors par inégalité triangulaire, en prenant un


entier n > max(n1 , n2 ),

|`n (xn ) − `(x)| 6 |`n (xn ) − `(xn )| + |`(xn ) − `(x)|


6 k`n − `k∞ + |`(xn ) − `(x)|
6 2ε.

Ainsi, la suite (`n (xn ))n converge vers `(x). Or les `n sont toujours inférieurs
à `, donc en passant à la limite dans l’inégalité `n (xn ) 6 `n (x0 ), valable pour
tout x0 ∈ K par minimalité de xn , on obtient que x ∈ E(K) est un minimiseur
de ` sur K.
b) Vérifions que les matrices de permutations sont extrémales. Supposons qu’une
matrice de permutation P s’écrive λA + (1 − λ)B avec A, B ∈ Bn et λ ∈]0, 1[. En
traduisant cette relation pour chaque coefficient on a, pour tous i, j ∈ J1, nK, l’un
des deux cas

0 = λaij + (1 − λ)bij donc aij = bij = 0 car aij , bij 6 1,


1 = λaij + (1 − λ)bij donc aij = bij = 1 car aij , bij > 0.

424
Analyse classique et complexe

Donc A = B = P , ce qui prouve bien que les matrices de permutations sont


extrémales.
Réciproquement, il reste à prouver que les matrices extrémales de Bn sont à
coefficients dans {0, 1} pour avoir le résultat. En effet, ce sont alors exactement
les matrices de permutation car il doit y avoir un élément non nul par ligne (la
somme des éléments d’une ligne valant 1) et celui-ci vaut nécessairement 1. La
condition de stochasticité sur les colonnes prouve alors que les coefficients égaux
à 1 sont sur des colonnes distinctes, et que la matrice est donc une matrice de
permutation.
Nous allons désormais prouver qu’une matrice ayant un coefficient dans ]0, 1[ n’est
pas extrémale. Notons A = (aij )ij la matrice considérée et supposons qu’il existe
un coefficient ai0 j0 ∈]0, 1[. Nous voulons écrire la matrice A comme combinaison
convexe non triviale de matrices bistochastiques.
Puisque A est bistochastique, la somme des coefficients de la ligne i0 vaut 1 et il
existe donc un autre coefficient ai0 j1 dans ]0, 1[, avec j1 6= j0 . De même la somme
des éléments de la colonne j1 vaut 1, il existe donc un autre coefficient ai1 j1 dans
]0, 1[ avec i1 6= i0 . En itérant cette procédure, on construit par récurrence une suite
d’indices (ir , jr )r tels que air jr ∈]0, 1[ et ayant chacun leur ligne ou leur colonne
en commun avec le précédent, et seulement l’une des deux. Les coefficients de A
sont en nombre fini, donc le principe des tiroirs assure que l’on retombe sur un
coefficient déjà rencontré. Quitte à renuméroter, on peut supposer que le premier
coefficient déjà rencontré est ai0 j1 . On peut donc supposer que la première fois
que l’on retrouve un indice connu correspond à un indice de colonne, que nous
notons jk = j1 .
On peut alors perturber la matrice comme suit : on choisit ε > 0 qui est inférieur
au minimum des distances des coefficients de A avec 0 ou 1, autrement dit

0<ε< min min (aij , 1 − aij ) .


i,j∈J1,nK
aij ∈{0,1}
/

Ce choix de ε garantit que les aij ± ε sont dans ]0, 1[, pour tous i, j ∈ J1, nK tels
que aij ∈]0, 1[. On considère alors la matrice modifiée A+ obtenue à partir de A
en augmentant tous les air jr de ε, et en diminuant tous les air jr+1 de ε, pour
tous r ∈ J1, kK. Cela ne change pas le caractère bistochastique de la matrice ainsi
modifiée.
On a ainsi perturbé la matrice A en une matrice A+ sans sortir de Bn . Introduisons
également A− la matrice obtenue de manière similaire à A+ mais en remplaçant ε
par −ε. La matrice A− est toujours bistochastique pour les mêmes raisons que A+ .
On a alors
1
A = (A+ + A− ),
2
et la matrice A apparaît donc comme combinaison convexe non triviale de deux
matrices bistochastiques : elle n’est donc pas extrémale.

425
71. Théorèmes de Choquet et de Birkhoff

Commentaires.
© Ce développement contient deux théorèmes d’analyse convexe. Ces deux ré-
sultats sont indépendants et ne sont présentés conjointement que pour rendre
autocontenue l’application présentée dans les commentaires qui suivent, résol-
vant la question du transport optimal discret à poids entiers ou rationnels. Il
est possible de présenter ces deux théorèmes de manière cohérente en énonçant
que toute fonctionnelle linéaire continue sur les matrices bistochastiques atteint
son minimum en une matrice de permutation. Il s’agit d’une version abstraite
du résultat de transport optimal présenté ci-après, conséquence immédiate des
théorèmes de Choquet et Birkhoff.
© L’hypothèse que l’ensemble E(K) des points extrémaux de K est compact
n’est pas superflue pour la preuve présentée dans ce développement : des contre-
exemples existent. Toutefois le théorème de Choquet, ainsi que tous les résultats
présentés ici, demeurent sans cette hypothèse.
© La motivation originale de ce développement était la théorie du transport
optimal et son traitement dans le cas discret. Toutefois, dans le but de ne pas
alourdir le développement, notamment à cause de l’introduction du problème
du transport optimal, nous avons préféré reporter ici cette application dans ce
commentaire et les suivants. Le développement ainsi constitué pourrait être de
niveau FF. Le problème du transport optimal ainsi qu’introduit par Monge est
motivé par une question d’ingénierie militaire : comment minimiser l’effort pour
transporter le sable d’une dune vers un fossé à combler ? On peut modéliser la
distribution de sable initiale par une mesure µ de densité f et la distribution que
le sable doit épouser dans le fossé par une mesure ν de même masse totale :

µ T (x)
• •
x
ν

Le transport est modélisé par une application T qui décrit la position finale T (x)
du sable qui se trouvait originalement en x, et un transport optimal correspond
à un choix de T envoyant µ sur ν (le sens précis étant la condition sur le push
forward de mesures T #µ = ν) et minimisant le coût de ce transport, i.e. de la
fonctionnelle intégrale définie par
Z
C(T ) = f (x)c(x, T (x))dx, (1)
X

426
Analyse classique et complexe

où c(x, y) représente le coût du transport de la masse présente en x à celle en y.


© Le problème du transport optimal discret est naturel dans de nombreuses
situations courantes. Ainsi, supposons que n usines aient produit un container de
matériel chacune qu’il faut répartir entre n répartitions données. En notant c(i, j)
le coût pour transporter la caisse i à la localisation j, on cherche une assignation
de chaque caisse à une destination de sorte à minimiser le coût total du transport
défini par
n
X
C : σ ∈ Sn 7−→ c(i, σ(i)).
i=1

La fonction de coût a une grande importance et peut faire varier le résultat du


tout au tout. On le voit par exemple en considérant une étagère sur laquelle
sont rangés n livres identiques, et en étudiant le problème du décalage du bloc
des n livres d’une largeur vers la droite. Deux solutions immédiates peuvent être
envisagées :
• mettre le livre le plus à gauche tout à droite ;
• décaler chaque livre d’une épaisseur vers la droite.
Si le coût est proportionnel à la distance, les deux solutions sont optimales. S’il
est proportionnel au carré de la distance, seule la seconde est optimale : le coût
du transport croissant très rapidement, les déplacements de grande ampleur sont
à éviter. S’il est proportionnel à la racine carrée (ou même indépendant) de la
distance, seule la première est optimale : le coût est principalement dû à l’action du
transport et non à la distance parcourue donc, quitte à transporter un livre, autant
le transporter le plus loin possible. Les déplacements à privilégier dépendent donc
fortement du coût envisagé, i.e. de ce que l’on considère comme coûteux.
© Avec les outils présentés dans le développement, nous pouvons traiter entière-
ment le cas du transport optimal discret avec des masses uniformes. On formalise
le problème de transport par les deux mesures représentant les distributions
ponctuelles de masses situées aux points xi et yj d’un espace de Banach :
n n
1X 1X
µ= δx et ν = δy .
n i=1 i n j=1 j

On représente un transfert, autrement dit une procédure pour mouvoir la distribu-


tion µ vers la distribution ν, par une matrice précisant la répartition de la masse
initialement présente en xi entre les différentes destinations yj :
n
X
γ= γij δ(xi ,yj ) .
i,j=1

La matrice (γij )ij , que l’on identifie à γ, doit être bistochastique pour garantir la
conservation de la masse, autrement dit
n
X n
X
1 = µ({xi }) = γij et 1 = ν({yj }) = γij .
j=1 i=1

427
71. Théorèmes de Choquet et de Birkhoff

Réciproquement, il est clair que toute matrice bistochastique est un plan de


transfert admissible. La problème du transport optimal se reformule alors en
l’optimisation du coût
n
X
c(γ) = γij c(xi , yj ),
i,j=1

sur les matrices bistochastiques γ.


Les théorèmes de Choquet et de Birkhoff permettent alors de déduire que les plans
de transfert γ minimisant ce coût sont exactement les matrices de permutation.
Autrement dit, chaque xi est envoyé sur un yj de manière bijective, sans aucune
accumulation de masse à l’arrivée ni séparation de masse au départ : un tel
transfert de masse est appelé un transport.
Cette étude permet également d’obtenir les plans de transfert dans le cas du
transport discret avec des masses rationnelles, ce qui approche bien toutes les
situations rencontrées en pratique. En effet, quitte à réduire tous les rationnels au
même dénominateur et à normaliser, on peut supposer que les masses sont entières.
On se ramène alors au cas de masses uniformes en scindant un point de masse m
en m points de masse 1 situés au même endroit. Le résultat précédent affirme
que tous les transferts optimaux sont obtenus par des permutations. Cependant,
puisque nous avons scindé les masses avant de faire cela, nous ne pouvons plus
garantir que les transferts optimaux sont des transports : chaque masse de la
distribution initiale est susceptible d’être partagée entre plusieurs destinations.
© Des algorithmes existent pour déterminer les transports optimaux plus efficace-
ment que l’exploration exhaustive. L’un des plus importants est un algorithme
fondé sur le principe de la vente aux enchères, développé par Bertsekas en s’inspi-
rant des méthodes de Gauss-Seidel et de Jacobi (voir Développement 75 pour ces
algorithmes).

Questions.
1. Montrer que, si l est une fonctionnelle linéaire sur un espace vectoriel normé,
alors ` − k · k2 est une fonction strictement concave.
2. Montrer que si l est une fonction strictement concave sur un compact K, alors
ses minimums sont des points extrémaux de K.
3. Montrer que les déformations de matrices bistochastiques considérées à la
question b) restent bien des matrices bistochastiques.
4. Montrer que l’enveloppe convexe d’un compact est compacte en dimension
finie. Qu’en est-il de la dimension infinie ?
Indication : utiliser le théorème de Carathéodory.

428
Analyse classique et complexe

Développement 72 (Théorème de Nash FF)

Soient n ∈ N∗ et m1 , . . . , mn ∈ N∗ . Un jeu entre n joueurs est représenté par


des ensembles de stratégies S1 ⊂ Rm1 , . . . , Sn ⊂ Rmn convexes et compacts
ainsi que par des fonctions d’utilité continues u1 , . . . , un : S → R, où l’on a
posé S = S1 × · · · × Sn .
Pour tout i ∈ J1, nK et tout x = (x1 , . . . , xn ) ∈ S, on pose
Y
x̃i = (x1 , . . . , xi−1 , xi+1 , . . . , xn ) ∈ Sj
j6=i

et on définit la fonction d’utilité partielle ux̃i i sur Si en posant :

∀y ∈ Si , ux̃i i (y) = ui (x1 , . . . , xi−1 , y, xi+1 , . . . , xn ) .

Un point (x1 , . . . , xn ) ∈ S est appelé équilibre de Nash s’il vérifie

∀i ∈ J1, nK , ui (x1 , . . . , xn ) = max ux̃i i (x).


x∈Si

Sj , on suppose ux̃i i strictement concave.


Y
Pour tout i ∈ J1, nK et tout x̃i ∈
j6=i

a) Montrer qu’il existe pour tout i ∈ J1, nK une fonction de meilleure réponse
Y
bi : Sj −→ Si
j6=i
x̃i 7−→ argmax ux̃i i

où argmax ux̃i i est l’unique valeur maximisant ux̃i i . Montrer que cette fonction
est continue.
b) En admettant le théorème de Brouwer qui stipule que toute application
continue d’un compact convexe de Rm1 +···+mn dans lui-même admet un point
fixe, montrer que le jeu admet un équilibre de Nash.
c) Soit (fk )k∈N une suite de fonctions continues de S dans lui-même conver-
geant uniformément vers une fonction f : S → S, et soit (xk )k∈N une suite
de S convergeant vers un élément x ∈ S. Montrer que (fk (xk ))k∈N converge
vers f (x).
d) Généraliser le résultat de la question b) au cas où les fonctions d’utilité
partielles ux̃i i sont seulement supposées concaves (théorème de Nash).

Leçons concernées : 203, 223, 241, 253

On démontre dans ce développement le théorème de Nash, résultat fondamental de


théorie des jeux qui donne l’existence d’un équilibre de Nash pour un jeu donné sous
des conditions de concavité des fonctions d’utilité des joueurs. La compacité des
ensembles de stratégies est utilisée de façon fondamentale dans la première question

429
72. Théorème de Nash

ainsi que dans le théorème de Brouwer. À ce titre, ce développement trouve sa place


dans la leçon 203, ainsi que dans la leçon 223 pour le raisonnement sur les valeurs
d’adhérence (qu’il conviendra alors d’exprimer dans le cadre d’ensembles de stra-
tégies inclus dans R ou C). L’approximation des fonctions d’utilité partielles par
des suites de fonctions convergeant uniformément justifie quant à elle l’inclusion
de l’exercice dans la leçon 241. Enfin, la notion de convexité, omniprésente dans
le développement, en fait un choix naturel pour la leçon 253. Dans le cadre des le-
çons 203 et 253, il sera de bon ton de faire figurer l’énoncé du théorème de Brouwer
dans le plan et de présenter le théorème de Nash comme une application de celui-ci.

Correction.
a) Soient i ∈ J1, nK et x̃i = (x1 , . . . , xi−1 , xi+1 , . . . , xn ) ∈ j6=i Sj . L’ensemble Si
Q

est compact et ux̃i i est continue sur Si , donc ux̃i i admet bien un maximum sur Si .
Ce maximum est atteint en un unique point par stricte concavité de ux̃i : en effet,
si x, x0 ∈ Si sont tels que x 6= x0 et tels que ux̃i i (x) = ux̃i i (x0 ) = maxSi ux̃i i , alors
x + x0 1  x̃i
  
ux̃i i > ui (x) + ux̃i i (x0 ) = ux̃i i (x)
2 2
0
ce qui est absurde puisque x+x ∈ Si (rappelons que Si est convexe !). La fonction bi
Q2
est donc bien définie sur j6=i Sj .
Considérons une suite (x̃ki )k∈N
Q
Montrons à présent que bi est continue sur j6=i Sj .
Q
de j6=i Sj de terme général
 
x̃ki = xk1 , . . . , xki−1 , xki+1 , . . . , xkn

convergeant vers x̃i = (x1 , . . . , xi−1 , xi+1 , . . . , xn ) ∈ j6=i Sj ; on veut montrer


Q

que la suite (bi (x̃ki ))k∈N converge vers bi (x̃i ). Cette suite étant à valeurs dans le
compact Si , il suffit pour cela de montrer qu’elle admet bi (x̃i ) pour unique valeur
d’adhérence. Soit z ∈ Si une valeur d’adhérence de (bi (x̃ki ))k∈N et φ : N → N une
extractrice telle que  
φ(k)
lim bi x̃i = z.
k→+∞
On sait que pour tout k ∈ N et tout y ∈ Si ,
   
φ(k) φ(k) φ(k) φ(k)
ui x1 , . . . , xi−1 , bi x̃i , xi+1 , . . . , xφ(k)
n
 
φ(k) φ(k) φ(k)
> ui x1 , . . . , xi−1 , y, xi+1 , . . . , xφ(k)
n

puisque bi est la fonction de meilleure réponse de l’individu i. Par passage à la


limite et grâce à la continuité de ui , on en tire que, pour tout y ∈ Si ,

ui (x1 , . . . , xi−1 , z, xi+1 , . . . , xn ) > ui (x1 , . . . , xi−1 , y, xi+1 , . . . , xn ) .

On en déduit immédiatement que z = bi (x̃i ) par définition de la fonction de


meilleure réponse. Par compacité de Si , la suite (bi (xki ))k∈N converge donc vers le
point bi (xi ), d’où la continuité de bi .

430
Analyse classique et complexe

b) Un vecteur de stratégies (x1 , . . . , xn ) ∈ S est un équilibre de Nash si et


seulement s’il est point fixe de l’application
F : S −→ S
(x1 , . . . , xn ) 7−→ (b1 (x̃1 ), . . . , bn (x̃n )) .

Les applications (x1 , . . . , xn ) 7→ x̃i sont évidemment continues. La question précé-


dente permet d’affirmer que les bi le sont aussi, si bien que F l’est par composition.
Comme S = S1 × . . . × Sn est une partie compacte et convexe de Rm1 +...+mn , le
théorème de Brouwer implique que le jeu admet bien un équilibre de Nash.
c) Soit ε > 0 et soit k · k une norme quelconque sur Rm1 +...+mn . Par continuité
de f en x, il existe η > 0 tel que :
ε
∀y ∈ S, kx − yk < η =⇒ kf (x) − f (y)k < .
2
Par convergence uniforme de (fk )k∈N vers f sur S, il existe k1 ∈ N∗ tel que
ε
∀k > k1 , sup kf (y) − fk (y)k < .
y∈S 2

Par convergence de (xk )k∈N vers x, il existe k2 ∈ N∗ tel que

∀k > k2 , kxk − xk < η.

On a alors, pour tout k > k0 := max(k1 , k2 ),

kfk (xk ) − f (x)k 6 kfk (xk ) − f (xk )k + kf (xk ) − f (x)k

par l’inégalité triangulaire, d’où

kfk (xk ) − f (x)k 6 sup kf (y) − fk (y)k + kf (xk ) − f (x)k < ε.


y∈S

On en déduit la convergence de (fk (xk ))k∈N vers f (x).


d) On va se ramener au cas de fonctions d’utilité partielles strictement concaves
en perturbant légèrement les fonctions d’utilité partielles ux̃i . Considérons donc la
fonction strictement concave
Φ: S −→ R
(x1 , . . . , xn ) 7−→ −(x21 + · · · + x2n ).

Pour tout i ∈ J1, nK et tout ε > 0, on pose ui,ε = ui + εΦ. Notons d’ores et déjà
que pour tout i ∈ J1, nK on a

sup |ui,ε − ui | 6 ε sup |Φ| < +∞


S S

puisque la fonction continue Φ est bornée sur le compact S, donc pour toute
suite strictement positive (vn )n∈N de limite nulle la suite de fonctions (ui,vn )n∈N
converge uniformément vers ui .
Pour tout ε > 0, les fonctions d’utilité partielles ux̃i,ε associées aux fonctions
d’utilité ui,ε sont strictement concaves, donc le jeu défini à partir des ui,ε admet

431
72. Théorème de Nash

b) un équilibre de Nash x(ε) = (x1 (ε), . . . , xn (ε)) ∈ S. Notons


d’après la question 
que la suite x k −1 k∈N∗ est àvaleurs dans le compact S donc elle admet une sous-
suite que l’on note x ψ(k)−1 k∈N∗ , convergeant vers une limite (x1 , . . . , xn ) ∈ S,
dont on va montrer qu’il s’agit d’un équilibre de Nash pour notre jeu.
Pour cela, on commence par montrer que x1 est la meilleure réponse du joueur 1
à (x2 , . . . , xn ). Pour tout k ∈ N∗ et tout x ∈ S1 , on peut écrire

1 1
    
u1, 1 x, x2 , . . . , xn
ψ(k) ψ(k) ψ(k)
1 1
    
6 u1, 1 x1 , . . . , xn (1)
ψ(k) ψ(k) ψ(k)

puisque x1 ψ(k)−1 est la meilleure réponse du joueur 1 aux xj ψ(k)−1 (pour


 

un entier j ∈J2, nK) dans le cas du jeu défini par les fonctions d’utilité ui,ψ(k)−1 .
Mais la suite (u1,ψ(k)−1 )k∈N∗ converge uniformément vers u1 , si bien que la question
précédente permet d’écrire
1 1
    
lim u1, 1 x, x2 , . . . , xn = u1 (x, x2 , . . . , xn )
k→+∞ ψ(k) ψ(k) ψ(k)

pour tout x ∈ S1 ainsi que


1 1 1
      
lim u1, 1 x1 , x2 , . . . , xn = u1 (x1 , x2 , . . . , xn ) .
k→+∞ ψ(k) ψ(k) ψ(k) ψ(k)

On obtient finalement
∀x ∈ S1 , u1 (x, x2 , . . . , xn ) 6 u1 (x1 , . . . , xn )
en passant à la limite dans (1). La stratégie x1 est donc la meilleure réponse du
joueur 1 aux stratégies (x2 , . . . , xn ). On peut reproduire le même raisonnement
pour les autres joueurs, ce qui montre que (x1 , . . . , xn ) est un équilibre de Nash
et clôt la preuve.

Commentaires.
© Ce développement est adapté d’un exercice présenté dans [Tes12].
© Le résultat présenté dans la question c) est un lemme de convergence diagonale
classique qu’il peut être utile de mentionner dans le plan de certaines leçons.
© On considère ici une situation classique en théorie des jeux : n joueurs participent
à un jeu séquentiel au cours duquel ils choisissent tour à tour des stratégies (ici
représentées par des vecteurs de réels) correspondant par exemple à la localisation
d’un pion sur un plateau, à un comportement binaire, à une quantité de biens
échangés... Les joueurs sont en interaction : chaque joueur i possède une fonction
d’utilité ui associant au n-uplet (x1 , . . . , xn ) des stratégies adoptées par tous les
joueurs un niveau de contentement individuel ui (x1 , . . . , xn ). À son tour, le joueur
i est invité à modifier sa stratégie xi pour maximiser son utilité compte tenu des
choix x̃i = (x1 , . . . , xi−1 , xi+1 , . . . , xn ) des autres joueurs, qui sont alors considérés
432
Analyse classique et complexe

comme fixés : il cherche donc à maximiser la valeur prise par la fonction d’utilité
partielle ux̃i i sur Si , c’est-à-dire à fournir une (ou la) meilleure réponse bi (x̃i ) aux
stratégies des autres joueurs. L’équilibre de Nash est alors une situation dans
laquelle les joueurs n’ont pas d’intérêt à modifier leur stratégie s’ils tiennent
les stratégies des autres joueurs pour fixées : chaque joueur fournit la meilleure
réponse possible aux stratégies adoptées par les autres.
© En l’absence d’hypothèse sur les Si et les ui , il n’existe pas nécessairement
d’équilibre de Nash pour un jeu donné. Considérons l’exemple de deux joueurs
dont l’un exerce sur l’autre une attirance non réciproque et qui doivent choisir où
passer leur soirée. Chacun peut choisir d’aller au théâtre ou de passer la soirée sur
la plage ; le joueur 1 préfèrera toujours passer la soirée sans le joueur 2, tandis que
le joueur 2 cherchera toujours à rejoindre le joueur 1. La matrice des paiements
(c’est-à-dire le tableau des utilités associées aux différents couples de stratégies)
de ce jeu est représentée dans la Figure 2.25. Il est intuitivement clair qu’au cours
du jeu séquentiel, le joueur 1 changera sans cesse de stratégie pour fuir le joueur 2,
tandis que celui-ci adoptera à chaque étape la stratégie adoptée par le joueur 1 au
tour précédent : il n’existe pas de point de stabilisation du système, c’est-à-dire
pas d’équilibre de Nash pour ce jeu. Une manière graphique de s’en convaincre est
de choisir une cellule de la matrice des paiements de la Figure 2.25 et de suivre les
changements de stratégie des deux joueurs à partir de cette cellule (qui équivalent
à un déplacement le long des lignes pour le joueur 1 et le long des colonnes pour
le joueur 2), ce qui permet de s’apercevoir du fait qu’aucun couple de stratégies
n’est stable. Ce raisonnement graphique n’est pas absolument nécessaire dans le
cas d’un jeu à deux stratégies, mais il s’avère très pratique pour des jeux plus
complexes à ensembles de stratégies finis.

Joueur 1
Théâtre Plage
Joueur 2

Théâtre 0; 5 4; 0

Plage 6; 0 0; 7

Le premier nombre de chaque cellule correspond à l’utilité du joueur 1


associée au couple de stratégies correspondant, le deuxième nombre à
celle du joueur 2. En codant le choix « Théâtre » par 0 et le choix
« Plage » par 1, on a alors S1 = S2 = {0, 1}, et par exemple
u1 (0, 1) = 4 et u2 (0, 1) = 0.

Figure 2.25 – Jeu avec attirance non réciproque.

© La notion d’équilibre de Nash, centrale en théorie des jeux, admet un raffinement


probabiliste appelé équilibre de Nash en stratégies mixtes, dans lequel l’individu i
ne choisit plus une stratégie déterministe (dite stratégie pure) mais une distribution
de probabilité avec laquelle il adopte une stratégie donnée, correspondant à une
variable aléatoire Xi à valeurs dans Si . Les questions ci-après développent ce point
de vue.

433
72. Théorème de Nash

Questions.
1. Rappeler pourquoi une suite à valeurs dans un compact converge si et seulement
si elle admet une unique valeur d’adhérence.
2. Justifier qu’un produit fini de compacts convexes est un compact convexe.
3. Montrer que la fonction Φ considérée dans la question d) est strictement
concave et que ux̃i,εi l’est pour tout i ∈ J1, nK, tout x̃i ∈ j6=i Si et tout ε > 0.
Q

4. Y a-t-il unicité de l’équilibre de Nash mis en évidence dans la question c) ?


Indication : on pourra considérer un jeu avec n = 2, S1 = S2 = [0, 1] et

u1 (x1 , x2 ) = u2 (x1 , x2 ) = −(x1 − x2 )2 .

5. Le théorème de Nash est-il toujours valide sans l’hypothèse de concavité des


fonctions d’utilité ?
Indication : on pourra considérer un jeu avec n = 2, S1 = [0, 1], S2 = [0, 2],
u1 (x1 , x2 ) = x1 (x1 − x2 ) et u2 (x1 , x2 ) = x2 (x2 − 3x1 ).

6. Le théorème de Nash est-il toujours vrai sans l’hypothèse de convexité des Si ?


Indication : on pourra considérer un jeu à deux joueurs, assimiler R2 à C et définir
S1 = S2 = {z ∈ C : 1 6 |z| 6 2},
u1 (z1 , z2 ) = − |z1 − iz2 | et u2 (z1 , z2 ) = − |z2 − iz1 |
puis utiliser un raisonnement graphique.
7. Donner des exemples de situations pratiques pouvant être modélisées par les
jeux décrits dans les trois questions précédentes.
8. On examine à présent le célèbre dilemme du prisonnier. La police a arrêté
deux hommes suspectés d’avoir commis un crime ensemble ; chacun a le choix de
dénoncer son complice en échange d’une remise de peine ou de se taire. Dans le
cas où les deux gardent le silence, ils sont tous deux inculpés pour un délit mineur
et condamnés à une peine modérée. La matrice des peines est donnée dans la
Figure 2.26.

Joueur 1
Se taire Dénoncer
Joueur 2

Se taire 2 ;2 1 ;10

Dénoncer 10 ;1 5 ;5

Le premier nombre de chaque cellule correspond à la peine


de prison du joueur 1 associée au couple de stratégies
correspondant, le deuxième nombre à celle du joueur 2.

Figure 2.26 – Le dilemme du prisonnier.

434
Analyse classique et complexe

On considère que l’utilité d’un joueur est une fonction strictement décroissante
de la peine dont il écope. Déterminer l’unique équilibre de Nash de ce jeu. Est-il
« socialement optimal », au sens où les deux joueurs ne pourraient pas atteindre
par la négociation un équilibre plus avantageux pour chacun ?
9. Un autre exemple classique en théorie des jeux est le jeu dit Bach ou Stravinsky
(aussi présenté sous la forme d’un jeu nommé guerre des sexes et opposant un
homme amateur de football à son épouse amatrice d’opéra...). Deux personnes
souhaitent se rendre à un concert ; l’une d’entre elles aime Bach, l’autre Stravinsky,
mais leur priorité est de passer la soirée ensemble. La matrice des paiements
pour ce jeu est donnée par la Figure 2.27. Déterminer les équilibres de Nash
correspondants.

Joueur 1
Bach Stravinsky
Joueur 2

Bach 5 ;3 0 ;0

Stravinsky 2 ;2 3 ;5

Figure 2.27 – Matrice des paiements du jeu Bach ou Stravinsky.

10. Déterminer les équilibres de Nash possibles pour le jeu décrit par la matrice
des paiements présentée dans la Figure 2.28.

Joueur 1
A B C D

A 5 ;3 0 ;0 5 ;1 1 ;1
Joueur 2

B 7 ;2 5 ;9 2 ;5 0 ;8

C 2 ;9 2 ;8 6, ;4 2 ;9

D -1 ;3 -10 ;2 2 ;2 -2 ;12

Figure 2.28 – Matrice des paiements d’un jeu à quatre stratégies.

11. Considérons le cas où pour tout i ∈ J1, nK on a Si = J1, ri K avec ri ∈ N∗ .


On appelle stratégie mixte d’un joueur une distribution de probabilité πi sur Si ,
représentée par un élément du compact convexe
ri
( )
Rn+i
X
Πi = (πi (1), . . . , πi (ri )) ∈ : πi (k) = 1 .
k=1

Chaque joueur i choisit cette fois une stratégie mixte πi ∈ Πi ; s’il conserve cette
stratégie mixte, il adopte à la fin du jeu une stratégie au hasard dans Si selon

435
72. Théorème de Nash

la loi πi , au sens où la probabilité pour qu’il adopte la stratégie k ∈ Si est πi (k).


Montrer que pour le joueur i, l’espérance u(π1 , . . . , πn ) de l’utilité aléatoire tirée
de l’ensemble de stratégies mixtes (π1 , . . . , πn ) est
X
u(π1 , . . . , πn ) = ui (j1 , . . . , jn ) π1 (j1 ) · · · πn (jn ).
j1 ∈J1,r1 K
..
.
jn ∈J1,rn K

On définit un équilibre de Nash en stratégies mixtes comme un vecteur (π1 , . . . , πn )


de Π1 × · · · × Πn tel que pour tout i ∈ J1, nK et toute loi π̃i ∈ Πi on ait

u(π1 , . . . , πn ) = u(π1 , . . . , πi−1 , π̃i , πi+1 , . . . , πn ).

En utilisant le théorème de Nash sur l’ensemble Π1 × · · · × Πn , montrer que le jeu


admet nécessairement un équilibre de Nash en stratégies mixtes.
12. Montrer que si les Si sont finis, alors tout équilibre de Nash en stratégies pures
(c’est-à-dire défini comme dans l’énoncé de l’exercice) correspond à un équilibre
de Nash en stratégies mixtes.
13. Déterminer le ou les équilibres de Nash en stratégies mixtes sur l’exemple donné
dans la Figure 2.25, puis sur l’exemple du dilemme du prisonnier (Figure 2.26) et
sur l’exemple Bach ou Stravinsky (Figure 2.27).
Indication : on considère que les deux joueurs annoncent tour à tour la loi de
probabilité avec laquelle ils comptent adopter telle ou telle stratégie et qu’ils
adaptent leurs prévisions en fonction de ce que l’autre joueur a annoncé. Par
exemple, dans le premier cas, si le joueur 2 annonce vouloir se rendre à la plage
avec une forte probabilité, le joueur 1 sera tenté d’éviter la plage avec une forte
probabilité. Il importe donc avant tout de déterminer les fonctions de meilleure
réponse de chaque joueur à la stratégie annoncée par l’autre.
14. Comment expliquer que les économistes utilisent la concavité des fonctions
d’utilité pour modéliser l’aversion au risque des agents ?
Indication : on pourra comparer l’utilité espérée d’une loterie et l’utilité de son
espérance en utilisant l’inégalité de Jensen.

436
Analyse classique et complexe

Développement 73 (Formules de Frenet-Serret F)

On considère une courbe Γ de R3 paramétrée par une fonction trois fois


dérivable γ : [0, 1] → R3 telle que γ 0 ne s’annule pas. On note k · k la norme
euclidienne de l’espace orienté R3 . Pour tout t ∈ [0, 1], on définit le vecteur
tangent unitaire τ (t) à la courbe Γ au point γ(t) par

γ 0 (t)
τ (t) =
kγ 0 (t)k

ainsi que la courbure ρ(t), le vecteur normal unitaire n(t) et le vecteur binor-
mal b(t) de Γ en γ(t) par

τ 0 (t)
ρ(t) = kτ 0 (t)k, n(t) = et b(t) = τ (t) ∧ n(t),
ρ(t)

où ∧ représente le produit vectoriel dans R3 .


a) Montrer que pour tout t ∈ [0, 1], la famille (τ (t), n(t), b(t)) est une base
orthonormée directe de R3 , que l’on nomme trièdre de Frenet au point γ(t)
(voir la Figure 2.29 dans les commentaires suivant ce développement).
b) Établir les formules de Frenet-Serret :

0
 τ
 = ρn
n0 = −ρτ +κb
 b0 =

−κn

pour une certaine fonction κ : [0, 1] → R. Cette fonction est nommée torsion
de la courbe Γ.
c) Calculer la courbure et la torsion de l’hélice circulaire dont une paramétri-
sation est donnée par :
t t βt
     
∀t ∈ [0, 1], γ(t) = α cos , α sin ,
r r r

où α, β ∈ R∗+ et r =
p
α2 + β 2 .

Leçons concernées : 267

Ce développement élémentaire présente un outil d’étude du comportement local des


courbes en dimension 3 : le repère de Frenet. Son thème en fait une illustration
naturelle la leçon sur les courbes (267).

437
73. Formules de Frenet-Serret

Correction.
a) On remarque tout d’abord que τ , ρ, n et b sont des fonctions bien définies
sur le segment [0, 1] puisque γ 0 est dérivable et ne s’annule pas. Par ailleurs, pour
tout t ∈ [0, 1] le produit vectoriel b(t) des vecteurs τ (t) et n(t) leur est orthogonal
par définition. Pour tout t ∈ [0, 1], on a de plus
kb(t)k = kτ (t)k · kn(t)k · | sin(α)|,
où α ∈ [0, π[ est l’angle géométrique (c’est-à-dire non orienté) entre les vecteurs τ (t)
et n(t) dans le plan de R3 qu’ils engendrent, or kτ (t)k = kn(t)k = 1 donc b(t) est
de norme 1 si et seulement si τ (t) et n(t) sont orthogonaux. Il nous reste donc
à montrer que pour tout t ∈ [0, 1], les vecteurs τ (t) et n(t) sont orthogonaux,
c’est-à-dire que τ (t) et τ 0 (t) sont orthogonaux. Pour cela, on écrit simplement que
kτ k2 = hτ, τ i est une fonction constante (égale à 1), ce qui donne, par dérivation,
∀t ∈ [0, 1], hτ 0 (t), τ (t)i + hτ (t), τ 0 (t)i = 0
et donc
∀t ∈ [0, 1], hτ 0 (t), τ (t)i = 0.
Ainsi, pour tout t ∈ [0, 1], le vecteur τ (t) est orthogonal à τ 0 (t), et donc à n(t), ce
qui permet de conclure que (τ (t), n(t), b(t)) est une base orthonormée directe.
b) Démontrons successivement les trois formules attendues.
• On remarque en premier lieu que n (et donc b) est dérivable puisque γ est
trois fois dérivable. Par ailleurs, on a τ 0 (t) = ρ(t)n(t) pour tout t ∈ [0, 1] par
définition de n, ce qui établit la première formule de Frenet-Serret.
• Soit à présent t ∈ [0, 1]. On montre comme dans la question précédente que
les vecteurs n0 (t) et n(t) sont orthogonaux puisque n est à valeurs dans la
sphère unité de Rn . Le vecteur n0 (t) est donc dans le plan orthogonal n(t)⊥
de n(t), or τ (t) et b(t) forment une base orthonormale de n(t)⊥ d’après la
question précédente, donc on peut écrire la décomposition de n0 (t) dans cette
base sous la forme
n0 (t) = hn0 (t), τ (t)iτ (t) + hn0 (t), b(t)ib(t). (1)
Évaluons le premier produit scalaire apparaissant dans cette expression.
Comme hn(s), τ (s)i = 0 pour tout s ∈ [0, 1], on obtient en dérivant cette
relation et en l’évaluant en t :
d
hn0 (t), τ (t)i + hn(t), τ 0 (t)i = hn(s), τ (s)i = 0.
ds s=t
En utilisant la définition de n(t), on trouve alors
1 1
hn0 (t), τ (t)i = −hn(t), τ 0 (t)i = − hτ 0 (t), τ 0 (t)i = − kτ 0 (t)k2 = −ρ(t).
ρ(t) ρ(t)
La relation (1) donne alors
n0 (t) = −ρ(t)τ (t) + κ(t)b(t)
en posant κ(t) = hn0 (t), b(t)i, d’où la deuxième formule de Frenet-Serret.

438
Analyse classique et complexe

• Soit une fois encore t ∈ [0, 1]. Pour obtenir la troisième formule, dérivons la
relation b(s) = τ (s) ∧ n(s) en s = t : on obtient

b0 (t) = τ (t) ∧ n0 (t) + τ 0 (t) ∧ n(t) = τ (t) ∧ n0 (t)

car τ 0 (t) et n(t) sont colinéaires par définition, d’où

b0 (t) = τ (t) ∧ − ρ(t)τ (t) + κ(t)b(t) = −ρ(t) τ (t) ∧ τ (t) + κ(t) τ (t) ∧ b(t)
  

d’après la deuxième formule de Frenet-Serret et la bilinéarité du produit


vectoriel. On en tire enfin

b0 (t) = κ(t) τ (t) ∧ b(t) = −κ(t)n(t)




puisque (τ (t), b(t), −n(t)) forme une base orthonormée directe de R3 , ce qui
clôt la preuve.
c) Pour tout t ∈ [0, 1], on a

α t α t β
     
γ 0 (t) = − sin , cos , ,
r r r r r
d’où
α2 t t β2 α2 + β 2
    
0 2
kγ (t)k = 2 sin2 + cos 2
+ = =1
r r r r2 r2
et donc kγ 0 (t)k = 1. On en déduit que si t ∈ [0, 1], par définition de τ on a
τ (t) = γ 0 (t), soit

α t α t
     
0
τ (t) = − 2 cos , − 2 sin ,0 .
r r r r

Par définition de ρ et de n, on a alors pour tout t ∈ [0, 1] :

α t t
     
ρ(t) = 2 et n(t) = − cos , − sin ,0 .
r r r

Enfin, par définition de b, pour tout t ∈ [0, 1] on a

β t β t α
     
b(t) = sin , − cos ,−
r r r r r
et donc
β t t β β
     
b0 (t) = 2
cos , sin , 0 = 2 n(t) d’où κ(t) = .
r r r r r2
Le paramètre α est donc un paramètre de courbure, tandis que le paramètre β
est un paramètre de torsion.

439
73. Formules de Frenet-Serret

Commentaires.
© Une illustration graphique de la propriété démontrée dans la question a) s’im-
pose. La Figure 2.29 représente un trièdre de Frenet associé au point γ(t) de Γ.
En suivant à l’œil l’évolution de τ le long de Γ dans la direction indiquée par τ ,
on se convainc facilement du fait que la dérivée de τ en t est bien colinéaire
à n(t). Le coefficient ρ(t), ici très faible, représente quant à lui la propension
qu’a τ , c’est-à-dire la « direction locale de la courbe Γ », à évoluer rapidement au
voisinage de t, ce qui justifie le terme de courbure employé. Il est d’ailleurs aisé de
voir que si ρ ≡ 0 alors Γ est un segment de droite !

Figure 2.29 – Représentation du trièdre de Frenet au point γ(t) de la courbe Γ.

Questions.
1. Redémontrer les formules donnant les différentielles du produit scalaire et du
produit vectoriel sur (R3 )2 .
2. Justifier que la base (τ (t), b(t), −n(t)) de R3 est bien orthonormée et directe.
3. Montrer que la torsion de Γ est nulle si et seulement si Γ est contenue dans un
plan affine de R3 .
4. Si t ∈ [0, 1], rappeler la définition du plan osculateur de Γ au point γ(t) en
fonction de γ(t), τ (t) et n(t). Expliquer en quoi la torsion peut être interprétée
comme une mesure de la propension qu’a Γ à s’éloigner de ce plan osculateur,
puis comparer les notions de courbure et de torsion.
Indication : on pourra s’aider de la deuxième formule de Frenet-Serret.
5. Interpréter le rôle des paramètres α et β dans le calcul de la courbure et de la
torsion de l’hélice circulaire compte tenu des questions précédentes.
Indication : on pourra représenter l’hélice circulaire pour différentes valeurs de α
et β puis s’interroger sur l’allure de la courbe lorsque α ou β tend vers 0.
6. Que devient le résultat de la question c) si l’on choisit
γ(t) = (α cos(t), α cos(t), βt)
pour nouveau paramétrage (d’une portion) de l’hélice circulaire ?
7. Montrer que le trièdre de Frenet est invariant par tout reparamétrage de la
courbe préservant l’orientation.

440
Analyse classique et complexe

Développement 74 (Méthode de descente de gradient F)

Soit f une fonction réelle strictement convexe et de classe C 1 sur Rn . On


suppose que le gradient de f est lipschitzien, i.e. qu’il existe L ∈ R tel que

∀x, y ∈ Rn , k∇f (y) − ∇f (x)k 6 Lky − xk.

Soit t > 0. On définit la méthode de descente de gradient comme la suite


(
x0 ∈ Rn ,
xk+1 = xk − t∇f (xk ), pour tout k ∈ N.

a) Soit x∗ minimisant f . Montrer que pour t assez petit on a, pour k ∈ N,


t
f (xk+1 ) 6 f (xk ) − k∇f (xk )k2 .
2

En déduire que (xk )k∈N est décroissante ou stationnaire, et converge vers x∗ .


b) Pour t assez petit, déduire que
1
∀k ∈ N∗ , f (xk ) − f (x∗ ) 6 kx0 − x∗ k2 .
2tk

Leçons concernées : 215, 219, 223, 226, 228, 229, 253

Ce développement est un thème typique de l’analyse : minimiser une fonction


suffisamment lisse en utilisant un développement limité pour l’étudier localement.
Le cadre de la méthode de gradient est celui des fonctions différentiables à une ou
plusieurs variables (215, 228), et plus particulièrement des fonctions convexes (229,
253) qui ont une structure très rigide et fortement exploitée dans ce développement.
La méthode de gradient cherche avant tout à fournir un algorithme convergeant
vers le minimum absolu d’une fonction convexe (219), de sorte que la question se
réduit à un problème de convergence de suites récurrentes, ce qui en fait une très
bonne illustration des leçons 223 et 226.

Correction.
a) Par le théorème fondamental de l’analyse on peut écrire, pour tous x, y ∈ Rn ,
Z 1
f (y) = f (x) + h∇f (x + t(y − x)), y − xidt
0
Z 1
= f (x) + h∇f (x + t(y − x)) − ∇f (x) + ∇f (x), y − xidt
0
Z 1
= f (x) + h∇f (x), y − xi + h∇f (x + t(y − x)) − ∇f (x), y − xidt.
0

441
74. Méthode de descente de gradient

En appliquant l’inégalité de Cauchy-Schwarz au produit scalaire sous l’intégrale


et l’hypothèse de lipschitzianité du gradient, il vient
Z 1
h∇f (x+t(y − x)) − ∇f (x), y − xidt
0
Z 1
6 k∇f (x + t(y − x)) − ∇f (x)k · ky − xkdt
0
Z 1
6 Lky − xk kt(y − x)kdt
0
Z 1
L
6 Lky − xk2 tdt = ky − xk2 .
0 2

On obtient ainsi que, pour tous x, y ∈ Rn ,


1
f (y) 6 f (x) + ∇f (x) · (y − x) + Lky − xk2 .
2

La méthode de gradient motive à poser y = x − t∇f (x) de sorte que, pour x ∈ Rn ,


1
f (y) 6 f (x) + ∇f (x) · (y − x) + Lky − xk2
2
1
= f (x) − t∇f (x) · ∇f (x) + Lkt∇f (x)k2
2
Lt
 
= f (x) − 1 − tk∇f (x)k2 .
2

En choisissant t 6 1/L on en tire que, pour tout x ∈ Rn ,


t
f (x − t∇f (x)) 6 f (x) − k∇f (x)k2 , (1)
2
on en déduit donc, avec x = xk pour un k > 0, que
t
f (xk+1 ) 6 f (xk ) − k∇f (xk )k2 .
2

Or, 12 tk∇f (xk )k2 est toujours strictement positive à moins que ∇f (xk ) = 0, de
sorte que la suite est strictement décroissante sauf éventuellement si elle stationne
en un point critique xk . Dans tous les cas, elle converge comme suite décroissante
et minorée.
Par continuité, la suite (xk )k∈N doit converger vers un point fixe de la fonction itérée
dans la méthode, à savoir x 7→ x − t∇f (x), donc vers un point tel que ∇f (x) = 0,
autrement dit un point critique de f . Puisque f est strictement convexe, le seul
point critique éventuel x∗ est le minimum de f . Ainsi, (xk )k∈N converge vers x∗ .
b) Il reste à contrôler la vitesse de convergence. Supposons comme dans la question
précédente que t 6 1/L. Par convexité de f on a, pour tout x ∈ Rn ,

f (x) 6 f (x∗ ) + ∇f (x) · (x − x∗ ).

442
Analyse classique et complexe

On introduit alors cette inégalité dans (1) menant à, pour tous x, y ∈ Rn ,


t
f (y) 6 f (x) − k∇f (x)k2
2
t
6 f (x∗ ) + ∇f (x) · (x − x∗ ) − k∇f (x)k2 .
2
En retirant f (x∗ ) et en complétant le carré scalaire il vient, pour tous x, y ∈ Rn ,

1  
f (y) − f (x∗ ) 6 kx − x∗ k2 + 2t∇f (x) · (x − x∗ ) − t2 k∇f (x)k2 − kx − x∗ k2
2t
1
6 (kx − x∗ k2 − kx − t∇f (x) − x∗ k2 ),
2t
où l’on a utilisé, pour la dernière inégalité, le développement du carré scalaire

kx − t∇f (x) − x∗ k2 = kx − x∗ k2 − 2t∇f (x) · (x − x∗ ) + t2 k∇f (x)k2 .

Rappelons de plus que l’on a fait le choix y = x − t∇f (x), de sorte que l’inégalité
ci-avant se reformule en
1
f (y) − f (x∗ ) 6 (kx − x∗ k2 − ky − x∗ k2 ).
2t
On obtient alors par récurrence, avec x = xi pour un i > 0 et donc y = xi+1 , que
1
f (xi+1 ) − f (x∗ ) 6 (kxi − x∗ k2 − kxi+1 − x∗ k2 ).
2t
En sommant cette inégalité sur i ∈ J1, kK il vient, pour tout k > 0,
k k
1  
(f (xi ) − f (x∗ )) 6 kxi−1 − x∗ k2 − kxi − x∗ k2
X X

i=1 i=1
2t
1  
= kx0 − x∗ k2 − kxk − x∗ k2
2t
1
6 kx0 − x∗ k.
2t
Puisque f est décroissante sur chaque itération par la question précédente, on
peut donc écrire
k
1X
f (xk ) − f (x∗ ) = (f (xk ) − f (x∗ ))
k i=1
k
1X 1
6 (f (xi ) − f (x∗ )) 6 kx0 − x∗ k2 .
k i=1 2tk

Ainsi, la méthode de gradient converge vers le minimum x∗ de f , comme voulu.

443
74. Méthode de descente de gradient

Commentaires.
© La méthode de gradient est une méthode d’optimisation convexe très efficace
lorsqu’elle est utilisable. Elle est naturelle : pour minimiser la fonction, il suffit de
suivre la direction donnée par la plus grande pente descendante pendant un temps t,
puis itérer le processus en espérant converger vers un minimum. L’algorithme est
simple à implémenter, et chaque itération se réduit au calcul d’un gradient en un
point. Il est particulièrement rapide dans le cas de fonctions strictement convexes
ou lipschitziennes, comme dans ce développement. Toutefois, les problèmes réels
sont rarement modélisés par des fonctions strictement convexes et, surtout, cette
méthode ne peut en rien s’appliquer aux fonctions non différentiables.
© Ce développement permet de conclure à une convergence de la méthode de
descente de gradient avec une vitesse en O(1/k) lorsque k tend vers +∞. Ce
résultat demeure pour les fonctions seulement supposées convexes. Il est en fait
possible de montrer que la méthode de descente de gradient converge beaucoup
plus rapidement lorsque la fonction est strictement convexe, précisément en O(λk )
pour un certain 0 < λ < 1.
© Ainsi que constaté lors de la preuve, la méthode de gradient peut diverger
pour un pas t trop grand. Lorsque t est trop petit, l’algorithme peut être en
pratique beaucoup trop lent pour être utilisable. Il existe des algorithmes plus fins
permettant de choisir un t dépendant de k, par exemple la méthode de gradient à
pas optimal. Enfin, la méthode du gradient conjugué est un algorithme convergeant
vers la solution en un nombre fini d’étapes, au prix de l’utilisation du coûteux
procédé d’orthonormalisation de Gram-Schmidt.
© Un résultat de Nesterov énonce qu’en considérant des fonctions convexes diffé-
rentiables, on ne peut faire mieux qu’une convergence en O(1/k 2 ). Si l’on étend
la question aux fonctions qui sont lipschitziennes mais qui ne sont plus nécessaire-

ment différentiables, alors il existe un algorithme qui converge en O(1/ k), et
cette vitesse de convergence est optimale d’après un résultat de Carmon en 2017.

Questions.
1. Détailler l’utilisation du théorème fondamental de l’analyse faite dans la ques-
tion a).
2. Rappeler pourquoi un point critique d’une fonction convexe est nécessairement
un minimum. Est-il unique ?
3. Montrer que si ∇f est L-lipschitzienne, alors D2 f (y) − LIn est semidéfinie
négative pour tout élément y ∈ Rn .

444
Analyse classique et complexe

Développement 75 (Méthode de Gauss-Seidel F)

Soient n > 1. Dans tout ce développement, nous assimilerons Mn,1 (R) à Rn


et Mn,1 (C) à Cn .
Soient A = (aij )i,j ∈ Mn (R) et B ∈ Rn . On s’intéresse à une méthode
d’approximation d’une solution du système linéaire AX = B.
a) Soit T ∈ Mn (R). On note ρ(T ) le rayon spectral de T , i.e. le module
maximal de ses valeurs propres complexes.
(i) Montrer que la suite (T k )k∈N converge vers 0 si et seulement si ρ(T ) < 1.
(ii) Dans le cas où ρ(T ) < 1, montrer que In − T est inversible et que
+∞
−1
X
(In − T ) = T k.
k=0

(iii) Soit C ∈ Rn . Montrer que la méthode définie par la suite récurrente


(
X0 ∈ Rn
(1)
Xk+1 = T Xk + C pour tout k > 0,

converge vers l’unique solution X ∈ Rn de l’équation X = T X + C si et


seulement si ρ(T ) < 1.
Décomposons A sous la forme D − L − U où D est une matrice diagonale, L
une matrice strictement triangulaire inférieure et U une matrice strictement
triangulaire supérieure. On suppose D inversible et on introduit la méthode
itérative de Gauss-Seidel, définie par
(
X0 ∈ Rn
Xk+1 = (D − L)−1 U Xk + (D − L)−1 B pour tout k > 0.

b) Si A est à diagonale strictement dominante 24 , montrer que la méthode de


Gauss-Seidel converge vers l’unique vecteur X ∈ Rn solution de AX = B.

Leçons concernées : 162, 223, 226, 233

Ce développement présente une méthode classique d’approximation algorithmique


d’une solution d’un système linéaire. Il s’agit de construire, par itération d’une
transformation affine, une suite récurrente qui converge vers une solution du
système. Cette méthode est donc particulièrement adaptée aux leçons sur les sys-
tèmes linéaires (162) et leurs aspects numériques matriciels (233). C’est une
illustration typique de l’application des suites récurrentes à la résolution approchée
d’équations (226). Les méthodes utilisées reposent essentiellement sur la réduc-
tion des matrices, ce qui peut rendre ce développement pertinent dans la leçon
associée (223).

24. La définition d’une matrice à diagonale strictement dominante est donnée à la page 451.

445
75. Méthode de Gauss-Seidel

Correction.
a) (i) Notons |||·||| la norme subordonnée à la norme k · k∞ .
Supposons que ρ(T ) < 1. Vérifions qu’alors |||T ||| < 1. C’est immédiat si T = 0 ;
on suppose désormais T 6= 0. Quitte à mettre T sous forme normale de Jordan
(voir Développement 80), on peut la supposer diagonale par blocs, avec des blocs
de la forme  
λ 1
 .. .. 
 . . 
J =  ∈ Mm (C)
 
..

 . 1 

λ
pour un certain m ∈ J1, nK et une valeur propre λ ∈ C de T . Pour k supérieur à
la taille m de ce bloc, on obtient par récurrence
k k−1 k k−2 k  k−m+1
λk
 
1 λ 2 λ ··· m−1 λ
 
k k−1 k  k−m+2

 0 λk 1 λ ··· m−2 λ


k

J = .. .. .. .. 
.
 . . . . 

.. .. k k−1

. λk
 
. 1 λ
 
0 ··· ··· 0 λk

Comme on a supposé que ρ(T ) < 1, on a |λ| < 1 pour toute valeur propre λ de T .
En particulier, les blocs J k de la forme ci-avant convergent vers 0 lorsque k tend
vers +∞. En changeant les matrices de base, on en déduit que la suite (T k )k∈N
converge également vers 0 lorsque k tend vers +∞.
Réciproquement, supposons que ρ(T ) > 1. Il est aisé de vérifier que la suite (T k )k∈N
ne converge pas vers la matrice nulle lorsque k → +∞. En effet, il suffit de
considérer l’image par T k d’un vecteur propre X ∈ Cn \ {0} associé à une valeur
propre λ de module ρ(T ) > 1 : la suite (T k X)k∈N est alors égale à (λk X)k∈N qui
ne converge pas vers 0.
Ainsi, la suite (T k )k∈N converge vers la matrice nulle si et seulement si ρ(T ) < 1.
T k est convergente.
P
(ii) Supposons que ρ(T ) < 1. Montrons que la série
Puisque la norme d’opérateur |||·||| est sous-multiplicative, on a |||T k ||| 6 |||T |||k
pour tout k ∈ N. Par comparaison aux séries géométriques, on obtient donc que
la série |||T |||k est convergente, autrement dit que la série T k est absolument
P P

convergente. Puisque Mn (R) est de dimension finie, donc complet, on en déduit


que T k est convergente.
P

Or ρ(T ) < 1 donc la suite (T k )k∈N converge vers 0, de sorte que


r
X +∞
X
(In − T ) T k = In − T r+1 −−−−→ In = (In − T ) T k.
r→+∞
k=0 k=0

Ainsi, on a bien la relation voulue.

446
Analyse classique et complexe

(iii) Prouvons les deux sens de l’équivalence.


• Supposons que ρ(T ) < 1. Alors, par récurrence à partir de la relation (1), pour
tout r ∈ N∗ , on a l’expression
r−1
X
r
Xr = T X0 + T k C.
k=0

Puisque la série k T k converge par la question a)(i) et l’hypothèse ρ(T ) < 1,


P

et puisque (T r X0 )r∈N converge vers 0 par la question a)(i), la suite (Xr )r∈N
est convergente. On note X∞ sa limite. De plus, l’application U 7→ T U + C est
continue ; on peut donc passer à la limite dans la relation Xr+1 = T Xr + C valable
pour tout r > 0, ce qui donne

X∞ = T X∞ + C.

De plus, puisque ρ(T ) < 1, la question a)(ii) garantit que In − T est inversible,
de sorte que X∞ = (In − T )−1 C est l’unique solution au système X = T X + C.
Ainsi, si ρ(T ) < 1, la méthode (75) converge bien vers l’unique solution de
l’équation X = T X + C.
• Réciproquement, supposons que la méthode converge pour toute valeur initiale
vers une solution de X = T X + C et que cette solution est unique. Nous allons
prouver que pour tout Z ∈ Rn la suite (T k Z)k∈N tend vers 0 ∈ Rn .
Notons X ∈ Rn l’unique solution de X = T X + C et prenons Z ∈ Rn arbitraire.
Posons X0 = X − Z. Par définition on a la relation de récurrence Xk = T Xk−1 + C
pour tout k > 1, ainsi que la relation X = T X + C par hypothèse. On a donc,
par une récurrence immédiate,

∀k ∈ N, X − Xk = T (X − Xk−1 ) = · · · = T k (X − X0 ) = T k Z.

En particulier, T k Z tend vers 0 lorsque k → +∞ car X − Xk tend vers 0 par


l’hypothèse de convergence de la méthode.
En particulier, pour toute valeur propre λ de T et tout vecteur propre Z ∈ Mn,1 (C)
associé à λ, on déduit que T k Z tend vers 0 lorsque k → +∞. Mais on a aussi que
Tk Z = λk Z pour tout k > 0, de sorte que nécessairement λk tend vers 0 lorsque
k → +∞, autrement dit |λ| < 1. On en déduit que ρ(T ) < 1.
b) Supposons que A est à diagonale strictement dominante. La méthode de Gauss-
Seidel correspond à la méthode définie dans la question a)(i) avec T = (D−L)−1 U
et C = (D − L)−1 B. Considérons un vecteur propre X = (X1 , . . . , Xn ) ∈ Cn de T
pour la valeur propre λ. Soit xi0 ∈ C∗ une composante de X de module maximal
et soit ξ = X/xi0 . Puisque ξ est colinéaire à X, on a également T ξ = λξ, avec de
plus les relations |ξi0 | = 1 et |ξj | 6 1 pour tout j ∈ J1, nK.
On peut réécrire la relation T ξ = λξ sous la forme

U ξ = λ(D − L)ξ. (2)

447
75. Méthode de Gauss-Seidel

Rappelons que l’on a par définition −U = (aij δj>i )i,j et D − L = (aij δj6i )i,j . La
relation (2) s’écrit donc, en considérant le i-ème coefficient de U ξ = λ(D − L)ξ,
X X
− ai0 j ξj = λ a i0 j ξj . (3)
j>i0 j6i0

Par l’inégalité triangulaire, il vient alors

X X
ai0 j ξj > |ai0 i0 | − |ai0 j |,
j6i0 j<i0

et cette dernière quantité est strictement positive car on a supposé que A est à
diagonale strictement dominante. L’équation (3) permet alors d’écrire

X X X
ai0 j ξj |ai0 j | · |ξj | |ai0 j |
j>i0 j>i0 j>i0
|λ| = 6 X 6 X ,
X |ai0 i0 | − |ai0 j | · |ξj | |ai0 i0 | − |ai0 j |
a i0 j ξj j<i0 j<i0
j6i0

et cette dernière quantité est strictement inférieure à 1 car A est à diagonale


strictement dominante.
Comme ce raisonnement est valable pour toute valeur propre λ de T , on en déduit
que ρ(T ) < 1. Ainsi, la question a)(i) implique que (Xk )k∈N converge vers une
limite que l’on note X et qui est l’unique solution du système X = T X + C.

Commentaires.
© La preuve de la question a)(i) utilise de manière centrale la forme normale
de Jordan. Cet argument est à mettre en parallèle avec la démonstration d’un
résultat très proche dans le Développement 56, où les sous-espaces caractéristiques
sont utilisés de façon cruciale : il s’agit essentiellement de la même preuve.
© L’idée sous-jacente aux méthodes itératives permettant de résoudre le système
linéaire AX = B est de réécrire ce système en faisant apparaître les solutions
comme points fixes d’un opérateur affine, i.e. de la forme X 7→ T X + C. Ainsi,
sous la condition ρ(T ) < 1, la solution peut alors être approchée par la méthode
itérative (
X0 ∈ Rn
Xk+1 = T Xk + C, pour tout k > 0.

© Cette technique n’est pas sans rappeler les méthodes itératives de type lip-
schitzien. En effet, on peut dans un premier temps ignorer la constante C en
considérant l’application linéaire sous-jacente : on a alors une majoration de la
forme kT Xk+1 − T Xk k 6 ρ(T )kXk+1 − Xk k, si bien que la condition ρ(T ) < 1
implique que T est contractante et la méthode converge vers l’unique point fixe
de T .

448
Analyse classique et complexe

© Les méthodes d’approximation algorithmique de solutions de systèmes linéaires


sont rarement utilisées pour les problèmes en petite dimension, l’élimination de
Gauss étant une méthode suffisamment efficace pour des matrices de petite taille.
Les problèmes survenant dans certains cadres d’application, comme la météorologie
ou le traitement d’image, font toutefois intervenir d’immenses matrices. Les
méthodes d’approximation de solutions sont donc utilisées dans ces cadres et
s’avèrent redoutablement efficaces pour les matrices creuses, c’est-à-dire ayant
beaucoup de coefficients nuls.
© La méthode de Gauss-Seidel présentée ici est l’une des trois méthodes classiques
d’approximation algorithmique des solutions d’un système linéaire. On pourra se
référer au très complet livre [Ser67] qui donne un traitement vaste et précis de
l’analyse numérique matricielle, présente et discute en détail chacune des méthodes
et donne de nombreux commentaires concernant leur complexité et leur stabilité
numérique.
© Une autre méthode, celle de Jacobi, est définie matriciellement par le système
(
X0 ∈ Rn
Xk+1 = D−1 (L + U )Xk + D−1 B, pour tout k > 0.

Il est possible de comparer les méthodes de Jacobi et de Gauss-Seidel. Notons TG


et TJ les matrices associées aux méthodes de Gauss-Seidel et de Jacobi respective-
ment. Par un théorème dû à Stein et Rosenberg, si l’on considère une matrice A
avec des coefficients diagonaux strictement positifs et les autres négatifs, on se
trouve exactement dans l’une des quatre situations suivantes :
• 0 < ρ(TG ) < ρ(TJ ) < 1 ;
• 1 < ρ(TJ ) < ρ(TG ) ;
• ρ(TJ ) = ρ(TG ) = 0 ;
• ρ(TJ ) = ρ(TG ) = 1.
En d’autres termes, ce résultat énonce que, mis à part le cas de convergence très
rapide (superlinéaire) des deux méthodes (correspondant à ρ(TJ ) = ρ(TG ) = 0)
ou de divergence limite des deux méthodes (correspondant à ρ(TJ ) = ρ(TG ) = 1),
on est dans l’une des deux situations suivantes :
• Lorsque l’une des méthodes converge, les deux convergent et la méthode de
Gauss-Seidel converge plus rapidement.
• Lorsque l’une des méthodes diverge, les deux divergent et la méthode de
Gauss-Seidel diverge plus rapidement.
Ainsi, la méthode de Gauss-Seidel est essentiellement meilleure puisque dans le
seul cas utile, celui où la méthode converge, elle converge plus rapidement que la
méthode de Jacobi.
© Il se peut que la méthode de Gauss-Seidel converge très lentement en pratique.
Pour optimiser la convergence, il est alors utile d’introduire un facteur (dit de
relaxation) qui perturbe les valeurs des Xi , pour i < k, lors du calcul de Xk . Cette
stratégie est très efficace lorsque ρ(T ) n’est pas trop proche de 1 (voir [Ser67]
ainsi que le Développement 76 pour cette méthode itérative plus fine).

449
75. Méthode de Gauss-Seidel

Questions.
1. Écrire en détail la réduction de la question a)(i) au cas des blocs de Jordan.
2. Pourquoi la condition |λ| < 1 implique-t-elle que le bloc J k défini dans la
question a)(i) converge vers la matrice nulle lorsque k tend vers +∞ ?
3. La condition ρ(T ) < 1 est-elle nécessaire pour que In − T soit inversible ?
4. Montrer que la convergence absolue implique la convergence si et seulement si
l’espace considéré est complet.
5. Montrer que AX = B si et seulement si

X = (D − L)−1 U X + (D − L)−1 B.

Justifier alors le fonctionnement de la méthode de Jacobi.


6. Donner une matrice T vérifiant ρ(T ) > 1 mais telle que l’on puisse choisir
X, Y ∈ Rn tels que (T k X)k∈N converge vers zéro et (T k Y )k∈N diverge.
7. Rappeler pourquoi les normes subordonnées sont sous-multiplicatives.
8. Montrer que pour toute norme subordonnée |||·||| sur Mn (C) et toute matrice
A ∈ Mn (C), on a ρ(A) 6 |||A|||.
9. Exhiber une matrice A ∈ Mn (R), un vecteur x ∈ Rn et une norme k · k sur Rn
tels que kAxk > ρ(A)kxk.
10. Soit A ∈ Mn (C) une matrice hermitienne. Montrer que pour tout x ∈ Cn , on
a kAxk2 6 ρ(A)kxk2 , où k · k2 est la norme hermitienne sur Cn .
11. Soit A ∈ Mn (C) et |||·||| une norme matricielle subordonnée. Montrer que,
pour tout k > 1, on a ρ(A) 6 |||Ak |||1/k .
12. Montrer la formule de Gelfand : pour tout A ∈ Mn (C) et toute norme
matricielle |||·|||, on a
ρ(A) = lim |||Ak |||1/k . (4)
k→+∞

450
Analyse classique et complexe

Développement 76 (Méthode de relaxation F)

Soient n > 2 et A ∈ Mn (C). Supposons que A = M − N , avec A et M


inversibles. On introduit la suite définie par
(
x0 = M −1 (N x + b),
(1)
xn+1 = M −1 (N xn + b), ∀n ∈ N.

a) Une méthode converge si, pour tous x, b ∈ Cn , (xn )n∈N converge vers A−1 b.
n
(i) Montrer que, pour tout n ∈ N, on a xn − A−1 b = M −1 N (x0 − A−1 b).
(ii) En déduire que la méthode (xn )n∈N est convergente si ρ(M −1 N ) < 1.
b) Montrer le théorème de Gershgorin :

Si λ est une valeur propre de A = (aij )i,j ∈ Mn (C), alors


 
n
[  n
X 
λ∈ B
aii , |aij |
.
i=1 j=1
j6=i

c) Écrivons A sous la forme D − E − F où D est une matrice diagonale


inversible, E une matrice strictement triangulaire supérieure, et F une matrice
strictement triangulaire inférieure. Soit ω ∈]0, 1] et
1
M= D − E,
ω
1
 
N= − 1 D + F.
ω

Si la matrice A est une matrice à diagonale strictement dominante 25 , montrer


que la méthode de relaxation (1) est convergente pour ω ∈]0, 1].

Leçons concernées : 152, 153, 162, 226, 233

Le développement présente la convergence de la méthode de relaxation, qui approche


les solutions d’un système linéaire, illustrant ainsi les leçons 162 et 233. Les outils
sont ceux de l’algèbre linéaire et des propriétés de localisation des valeurs propres
d’une matrice, rendant les arguments pertinents pour la leçon 153. L’utilisation
du déterminant et de sa multiplicativité sont centrales, motivant ce développement
pour la leçon 152. Enfin, la méthode itérative est une suite récurrente vectorielle,
en faisant un exemple bienvenu dans la leçon associée (226).

25. On dit qu’une matrice A = (aij )ij est à diagonale dominante si


n
X
∀i ∈ J1, nK , |aii | > |aij |.
j=1
j6=i

451
76. Méthode de relaxation

Correction.
a) (i) Notons que (M − N )A−1 b = b par définition de l’inverse et puisqu’on a
la décomposition A = M − N . On a donc, en multipliant par M −1 à gauche,

A−1 b = M −1 b + M −1 N A−1 b.

On vérifie alors que, pour tout n ∈ N,

xn+1 − A−1 b = M −1 (N xn + b) − M −1 b − M −1 N A−1 b


 
= (M −1 N ) xn − A−1 b ,

ce qui permet de conclure par une récurrence immédiate.


(ii) Si le rayon spectral de M −1 N est strictement inférieur à 1, alors les ité-
rés (M −1 N )n convergent vers zéro lorsque n tend vers +∞. En particulier
 n  
xn − A−1 b = M −1 N x0 − A−1 b −−−−−→ 0,
n→+∞

ce qui est exactement le résultat voulu.


b) Soit λ ∈ C une valeur propre de A, de sorte qu’il existe x = (x1 , . . . , xn ) non
nul tel que Ax = λx. En écrivant cette relation pour chaque coordonnée de x, on
en tire que, pour tout i ∈ J1, nK,
n
X
aij xj = λxi .
j=1

Soit i ∈ J1, nK tel que |xi | = maxj |xj | > 0. On déduit alors
n
X
(λ − aii )xi = aij xj ,
j=1
j6=i

donc, en utilisant l’inégalité triangulaire, il vient que


n n
X |xj | X
|λ − aii | 6 |aij | 6 |aij |,
j6=i
|xi | j6=i
 Pn 
de sorte que λ est bien dans le disque B |aii |, j6=i |aij | .

c) Remarquons que A = M − N avec A et M inversibles. Par a)(ii), il suffit donc


de montrer que le rayon spectral de M −1 N est strictement inférieur à 1. On a

M −1 N = (ωM )−1 (ωN ).

Soit λ une valeur propre non nulle de M −1 N = (ωM )−1 (ωN ). C’est en particulier
une racine du polynôme caractéristique

det((ωM )−1 (ωN ) − λIn ) = det(ωM )−1 det(ωN − λωM ).

452
Analyse classique et complexe

De plus, det(ωM )−1 6= 0 donc, en utilisant les expressions de M et N en fonction


de D comme dans l’énoncé, on en déduit que λ est une racine de

det(ωN − λωM ) = det((1 − ω − λ)D + ωF − λωE)


= det(D) det((1 − λ − ω)In + ωD−1 (F − λE)),

de sorte que λ + ω − 1 est valeur propre de la matrice ωD−1 (F − λE). Rappelons


que, par définition des matrices D, E et F , on a ωD−1 (F − λE) = (xij )i,j où
 aij
 ω si i > j,
aii






xij = 0 si i = j,



 aij
 −ωλ si i < j.


aii

Par la question b) appliquée à la valeur propre λ + ω − 1 de ωD−1 (F − λE), on


en déduit donc la borne
   
 ω X X 
|λ + ω − 1| 6 max |λ| |aij | + |aij | : 1 6 i 6 n . (2)
 |aii | 
j<i j>i

Supposons que |λ| > 1. Cela implique


 
 ω|λ| X 
|λ + ω − 1| 6 max |aij | : 1 6 i 6 n .
 |aii | 
j6=i

Puisque A est à diagonale strictement dominante, on en déduit que

|λ + ω − 1| < ω|λ|,

donc en particulier |λ| 6 |λ + ω − 1| + |1 − ω| < |λ|ω + 1 − ω, en d’autres termes


on a (|λ| − 1)(1 − ω) < 0 ce qui n’est pas possible car |λ| > 1 et ω 6 1.
Ainsi, toutes les valeurs propres de M N −1 sont de module strictement inférieur
à 1. En particulier, la question a)(ii) garantit la convergence de la méthode de
relaxation, ce qu’il fallait démontrer.

Commentaires.
© La méthode de relaxation est l’une des méthodes itératives de base d’approxima-
tion des solutions d’un système linéaire. En effet, considérons le système linéaire
générique donné sous la forme

Ax = b, A ∈ Mn (C), b ∈ Cn .

En prenant une décomposition de A sous la forme A = M − N avec M inversible,


le système se réécrit sous la forme

x = M −1 (N x + b).

453
76. Méthode de relaxation

Cette équation fait apparaître les solutions x comme des points fixes, motivant
l’utilisation d’une méthode itérative, introduisant comme dans l’énoncé la suite
(
x0 = M −1 (N x + b),
xn+1 = M −1 (N xn + b), ∀n ∈ N.

© Le résultat de la question b) est un résultat de localisation des valeurs propres


d’une matrice : elles sont situées dans les disques de Gershgorin. Ceux-ci ont
l’avantage de réduire le champ de recherche algorithmique des valeurs propres,
et d’être accessibles en temps très raisonnables puisqu’ils ont des centres et des
rayons qui sont polynomiaux en les coefficients de la matrice. Numériquement,
cela permet une recherche exhaustive sur un maillage de précision donnée.
© La méthode de relaxation est bien définie pour toute matrice, mais nécessite
des hypothèses supplémentaires pour s’assurer de la convergence de la méthode.
Voir [Ser67] d’où est tiré ce développement pour des discussions plus avancées de
la stabilité numérique de la méthode et de sa complexité, ainsi que de la présen-
tation d’autres méthodes classiques et itératives d’approximations des solutions
d’un système linéaire, accompagnées de nombreux résultats de convergence et
d’optimisation.
© D’autres méthodes d’approximation de solutions de systèmes linéaires sont
les méthodes de Gauss-Seidel (Développement 75) et de Kaczmarz (Développe-
ment 77). On pourra se référer à ces autres développements pour de nombreux
commentaires historiques et algorithmiques. On peut noter que le choix du para-
mètre ω = 1 revient à la méthode de Gauss-Seidel. Sa raison d’être est qu’il est
une liberté utilisée pour optimiser le rayon spectral (borné par 1 à la question c))
de sorte à accélérer la convergence.

Questions.
1. Prouver la réciproque de la question a).
2. Montrer que si ρ(M ) < 1, alors M n tend vers zéro lorsque n → +∞.
3. Justifier que le théorème de Gershgorin permet de déduire (2).
4. Montrer qu’une matrice à diagonale strictement dominante est inversible.

454
Analyse classique et complexe

Développement 77 (Méthode de Kaczmarz F)

On considère l’espace RN muni de sa structure euclidienne canonique. Pour


tout M ∈ MN (R), on note |||M ||| la norme de M subordonnée à la norme
euclidienne.
a) Soit u ∈ RN un vecteur unitaire. Montrer que la matrice M de la projection
orthogonale sur l’hyperplan Vect (u)⊥ s’écrit M = IN − ut u. Vérifier de plus
que |||M ||| = 1, et que pour tout x ∈ RN \ Vect (u)⊥ , on a kM xk < kxk.
Soient A ∈ GLN (R) et b ∈ RN . Soit x̄ la solution du système linéaire Ax = b.
Pour i ∈ J1, N K, on note t ai la i-ème ligne de A (ai ∈ RN est donc un vecteur
colonne) et bi la i-ème composante de b, ainsi que

ai bi
αi = ∈ RN , βi = ∈ R,
kai k kai k

et l’hyperplan affine Hi = {x ∈ RN : t αi x = βi } = βi αi + Vect (αi )⊥ .


b) Montrer que {x̄} est l’intersection des N hyperplans affines H1 , . . . , HN .
La méthode de Kaczmarz est une méthode itérative de résolution du système
linéaire Ax = b. Partant de x0 ∈ RN , on construit une suite (xn )n∈N de
vecteurs de RN comme suit :
• On projette orthogonalement x0 sur H1 , ce qui définit x1 .
• On projette orthogonalement x1 sur H2 , ce qui définit x2 .
• On itère la procédure jusqu’à projeter xN −1 sur HN , ce qui définit xN .
• On recommence à partir de xN (on projette xN sur H1 , etc.).
Pour i ∈ J1, N K, on note Mi = IN − αi t αi la matrice de la projection orthogo-
nale sur l’hyperplan vectoriel Vect (αi )⊥ , et on pose T = MN MN −1 · · · M1 .
c) Pour n ∈ N, on note εn = xn − x̄. Montrer que la suite (kεn k)n∈N converge.
d) Montrer que |||T ||| < 1. En déduire que lim εn = 0.
n→+∞

Cette dernière question prouve la convergence de la méthode de Kaczmarz.

Leçons concernées : 160, 162, 226, 233

La méthode de Kaczmarz, de nature essentiellement géométrique, sied parfaitement


à la leçon 162, où elle vient compléter le panel de méthodes itératives classiques de
résolution de systèmes linéaires (Jacobi, Gauss-Seidel, etc.), ainsi qu’à la leçon 233
sur l’analyse numérique matricielle. Elle met en avant les projections orthogonales
sur les hyperplans d’un espace vectoriel euclidien et trouve ainsi également sa
place dans la leçon 162. Enfin, l’aspect analytique de ce développement, qui étudie
la convergence de suites numériques et vectorielles, justifie son positionnement
dans la leçon 226.

455
77. Méthode de Kaczmarz

Correction.
a) Soit x ∈ RN . Comme u est unitaire, le projeté orthogonal de x sur la droite
vectorielle Vect (u) est hu, xi u. De ce fait, le projeté orthogonal de x sur l’hyperplan
vectoriel Vect (u)⊥ est
     
t t
x − hu, xi u = x − ux u = x − u ux = IN − ut u x,

ce qui montre que M = IN − ut u.


Par ailleurs (IN − M )x et M x sont orthogonaux donc, d’après le théorème de
Pythagore,

kxk2 = k(IN − M )x + M xk2 = k(IN − M )xk2 + kM xk2 > kM xk2 ,

si bien que |||M ||| 6 1.


Si x ∈ Vect (u)⊥ , on a
   
(IN − M )x = ut u x = u t
ux = 0,

d’où kxk = kM xk. On en déduit alors que |||M ||| = 1.


Enfin, si x 6∈ Vect (u)⊥ , alors (IN − M )x 6= 0 par le calcul précédent, et
donc kM xk < kxk.
b) Pour x ∈ RN , dire que x appartient à l’intersection des hyperplans H1 , . . . , HN
équivaut à dire que t ai x = bi , pour tout i ∈ J1, N K ce qui traduit exactement le
fait que x est solution du système linéaire Ax = b, et donc que x = x̄.
c) Par construction de la suite (xn )n∈N , pour tout n ∈ N, on a

εn+1 = Mi εn ,

où i ∈ J1, N K est tel que n + 1 ≡ i mod N . Il s’ensuit que

kεn+1 k 6 kMi k · kεn k 6 kεn k .

Ainsi, la suite (kεn k)n∈N est décroissante et minorée par 0, donc converge vers un
réel ` > 0.
d) On sait déjà que |||T ||| 6 |||MN ||| · |||MN −1 ||| · · · |||M1 ||| = 1. Supposons qu’il
existe un vecteur x ∈ RN tel que kT xk = kxk. Il s’agit de montrer que x = 0.
Pour tout i ∈ J1, N K, on a

kxk = kT xk 6 |||MN ||| · · · |||Mi+1 ||| · kMi (Mi−1 · · · M1 x)k


= kMi (Mi−1 · · · M1 x)k
6 kxk ,

d’où
kMi (Mi−1 · · · M1 x)k = kxk . (∗)
Montrons alors par récurrence sur i ∈ J1, N K que

x ∈ Vect (αi )⊥ et Mi · · · M1 x = x.

456
Analyse classique et complexe

• D’après l’équation (∗) pour i = 1, on a kM1 xk = kxk. La question a) assure


alors que x ∈ Vect (α1 )⊥ . De plus, comme M1 est la matrice de la projection
orthogonale sur Vect (α1 )⊥ , on a M1 x = x.
• Soit i ∈ J2, N K tel que Mi−1 Mi−2 · · · M1 x = x. Comme précédemment,
l’équation (∗) fournit

kxk = kMi (Mi−1 · · · M1 x)k = kMi xk ,

d’où x ∈ Vect (αi )⊥ par la question a). De plus,

x = Mi x = Mi (Mi−1 · · · M1 x),

ce qui conclut la récurrence.


Ainsi, pour tout i ∈ J1, N K, on a x ∈ Vect (αi )⊥ . Par définition de α1 , . . . , αN ,
cela implique que Ax = 0, donc x = 0 puisque A est inversible. On a finalement
bien montré que |||T ||| < 1.
Pour conclure, il suffit de remarquer que pour tout k ∈ N, on a εkN = T k ε0 , d’où

kεkN k 6 |||T |||k kε0 k

et donc, par passage à la limite, ` = 0.

Commentaires.
© Il convient de compléter la présentation du développement par la Figure 2.30
ci-après.

H2

x2 x0
• •
x4 H1
a1 • •
x1
• •
• • x3
x̄ ••

a2

Figure 2.30 – Illustration des projections successives dans la méthode de


Kaczmarz en dimension 2.

Sur ce dessin, les vecteurs a1 , a2 ∈ R2 sont les transposées des lignes d’une
matrice inversible A ∈ GL2 (R). Leurs orthogonaux donnent la direction des

457
77. Méthode de Kaczmarz

droites affines H1 = x̄ + Vect (a1 )⊥ et H2 = x̄ + Vect (a2 )⊥ , dont l’intersection {x̄}


est la solution d’un système linéaire Ax = b avec b ∈ R2 . La méthode de Kaczmarz
consiste, en partant d’un vecteur x0 ∈ R2 quelconque, à projeter successivement
et en alternance sur H1 et H2 . La convergence apparaît clairement sur la figure.
© Le fait de considérer les matrices Mi des projections orthogonales sur les
hyperplans vectoriels Vect (αi )⊥ plutôt que les projections orthogonales sur les
hyperplans affines Hi = βi αi + Vect (αi )⊥ permet de se ramener d’une relation
de récurrence par transformation affine sur la suite (xn )n∈N à une relation de
récurrence par transformation linéaire sur la suite (εn )n∈N . Ce changement de
point de vue rend la convergence de la suite bien plus simple à étudier.
© Lorsque A n’est pas inversible, la méthode de Kaczmarz converge tout de même,
sous réserve que l’ensemble des solutions de l’équation Ax = b ne soit pas vide.
Plus précisément, si x̄ désigne le projeté orthogonal de x0 sur le sous-espace affine
S = {x ∈ RN : Ax = b}, alors la suite (xn )n∈N converge vers x̄. Adaptons la
preuve ci-avant afin de vérifier cette affirmation.
Pour n ∈ N, on note comme précédemment εn = xn − x̄. La suite (kεn k)n∈N
converge alors par l’argument de la question c).
On a ε0 = x0 − x̄ ∈ S ⊥ , soit ε0 ∈ S 0⊥ , où S 0 = {x ∈ RN : Ax = 0} est la
direction de S = x0 + S 0 . Pour tout i ∈ J1, N K, Mi stabilise S 0 , donc stabilise
également S 0⊥ (du fait que Mi est symétrique). On en déduit que T stabilise S 0⊥ ,
puis par récurrence que εn ∈ S 0⊥ , pour tout n ∈ N.
On considère alors la restriction T |S 0⊥ de T à S 0⊥ et on reproduit la démonstration
effectuée à la question d). Pour x ∈ S 0⊥ , si kT xk = kxk alors x ∈ S 0 , d’où x = 0.
Il s’ensuit que kT |S 0⊥ k < 1, et enfin que lim εn = 0.
n→+∞
© Autre cas de figure, si l’équation Ax = b n’admet pas de solution, alors la
méthode de Kaczmarz diverge. En effet, si la suite (xn )n∈N convergeait, alors pour
chaque i ∈ J1, N K, la suite extraite (xi+kN )k∈N d’éléments de l’hyperplan affine Hi
convergerait dans Hi (fermé car RN est de dimension finie). La suite (xn )n∈N
convergerait donc dans l’intersection des Hi , qui est vide.
© Intéressons-nous à la vitesse de convergence et au coût d’une itération de la
méthode de Kaczmarz.
Rappelons que pour tout n ∈ N on a εn+1 = Mi εn , où i ∈ J1, N K vérifie la relation
de congruence n + 1 ≡ i mod N . Ainsi,

kεn+1 k
6 kMi k < 1.
kεn k

La suite (xn )n∈N converge donc au pire linéairement vers x̄, mais sa vitesse exacte
de convergence est toutefois difficile à évaluer.
Par ailleurs, la suite (xn )n∈N est déterminée par la relation de récurrence

∀n ∈ N, xn+1 = Mi xn + βi αi = xn − hxn , αi iαi + βi αi ,

où i ∈ J1, N K est tel que n + 1 ≡ i mod N .

458
Analyse classique et complexe

On peut calculer au préalable chaque αi et βi , et même chaque βi αi . Pour ce faire,


on calcule chacune des N valeurs de kai k ; chaque calcul requiert N multiplications,
N − 1 additions et une racine carrée. Ensuite, le calcul de chaque αi requiert N
divisions, et celui de chaque βi une division ; enfin, le calcul de chaque βi αi requiert
N multiplications. Au total, le coût de ce prétraitement est en O(N 2 ) opérations
élémentaires.
Ce coût mis à part, une itération de la méthode de Kaczmarz nécessite :
• N multiplications et N − 1 additions pour le calcul de hxn , αi i ;
• N multiplications pour le calcul de hxn , αi iαi ;
• 2N additions pour le calcul final de xn+1 .
Le coût d’une itération est par conséquent en O(N ) opérations élémentaires.
À titre de comparaison, les méthodes itératives usuelles (Jacobi et Gauss-Seidel
notamment) convergent linéairement et leur complexité est en O(N 2 ) pour chaque
itération, voir Développement 75. Toutefois, elles ne convergent pas systématique-
ment, contrairement à la méthode de Kaczmarz. Enfin, mentionnons le fait que la
complexité de la méthode du pivot de Gauss, qui fournit la solution exacte en un
nombre fini d’étapes, est en O(N 3 ).
© Un peu d’histoire ne peut pas porter préjudice, Kaczmarz faisant figure d’illustre
inconnu. Stefan Kaczmarz (1895-1940) est un mathématicien polonais, qui périt
vraisemblablement en 1940 dans le massacre de Katyn, bien que les circonstances
de sa mort demeurent floues. Il enseigna les mathématiques dans la faculté
d’ingénierie mécanique de l’université de Lviv en Ukraine de 1919 à 1939, où il
collabora notamment avec Stefan Banach.

Questions.
1. Soient x ∈ RN et u ∈ RN \ {0} unitaire. Justifier les affirmations suivantes for-
mulées à la question a) : le projeté orthogonal de x sur la droite vectorielle Vect (u)
est hu, xi u, puis le projeté orthogonal de x sur l’hyperplan vectoriel Vect (u)⊥ est
 
x − hu, x, ui = IN − ut u x.

2. Soient (E, k·k) un espace vectoriel normé réel et f un endomorphisme de E. Si E


est de dimension finie, montrer qu’il existe x ∈ E \ {0} tel que kf (x)k = kf k · kxk.
Est-ce encore vrai si E est de dimension infinie ?
3. On reprend les notations du développement et on suppose que A est orthogonale.
Que peut-on dire de la famille (α1 , . . . , αN ) de vecteurs de RN ? Montrer que la
méthode de Kaczmarz est alors exacte et se termine en au plus N itérations. La
méthode est-elle vraiment utile dans ce cas ?
4. Justifier que la matrice M ∈ MN (R) d’une projection orthogonale de RN est
symétrique.
5. Soit M ∈ MN (R) une matrice symétrique. Soit F un sous-espace vectoriel
de RN . Montrer que F est stable par M si et seulement si F ⊥ est stable par t M .
Que peut-on dire si M est symétrique ?

459
77. Méthode de Kaczmarz

6. Soit S une matrice réelle symétrique définie positive. Montrer qu’il existe une
matrice A ∈ GLN (R) telle que S = At A. La matrice A est-elle unique ?
7. On reprend à nouveau les notations du développement. On considère le système
linéaire At Az = b. Soit (zn )n∈N la suite des itérés de la méthode de Gauss-Seidel ap-
pliquée à ce système pour z0 = (t A)−1 x0 (voir Développement 75). Pour i ∈ J1, nK,
(i)
on note zn la i-ème composante de zn , et on définit ζr ∈ RN de la manière
suivante pour tout r ∈ N :

ζ0 = z0 ,
t (1) (2) (i) (i+1) (N )

ζ
jN +i = zj+1 , zj+1 , . . . , zj+1 , zj , . . . , zj pour tous j > 0 et i ∈ J1, N K .

La suite (ζr )r∈N est donc la suite des itérés de la méthode de Gauss-Seidel actualisés
composante par composante.
(i) Soit r = jN + i > 1. Montrer que t αi t Aζr = βi , autrement dit que ζr ∈ Hi .
Indication : écrire la relation qui lie zj à zj+1 par la méthode de Gauss-Seidel,
et examiner leur i-ème composante.
(ii) Montrer que pour tout r = jN + i > 1, t Aζr est le projeté orthogonal
de t Aζr−1 sur Hi .
Indication : on pourra examiner le produit scalaire donné par
t Aζ − t Aζ t
r r−1 , Aζr − x , pour x ∈ Hi .
(iii) Montrer que pour tout r ∈ N, xr = t Aζr .
(iv) En déduire une preuve de la convergence de la méthode de Gauss-Seidel
appliquée à une matrice réelle symétrique définie positive.

460
Analyse classique et complexe

Développement 78 (Prolongement analytique suivant une courbe F)

Une fonction locale est un couple (f, D) où D est un disque ouvert non vide
et f est une fonction holomorphe sur D. Soit γ : [0, 1] → C une courbe. Un
prolongement analytique (voir Figure 2.31) de (f, D) le long de γ est une
famille de fonctions locales (ft , Dt )t∈[0,1] telle que
a) (f0 , D0 ) = (f, D),
b) pour tout t ∈ [0, 1], γ(t) est le centre de Dt ,
c) pour tout t ∈ [0, 1], il existe ε > 0 tel que pour tout t0 ∈ [0, 1] vérifiant
|t − t0 | < ε, γ(t0 ) ∈ Dt ∩ Dt0 et ft ≡ ft0 sur cette intersection.

γ(t)
• • •
γ(0) Dt0 γ(1)
Dt •
γ(t0 )
Dt ∩ Dt0

Figure 2.31 – Exemple de prolongement analytique (ft , Dt )t le long de γ.

Soit (f, D) une fonction locale et γ un chemin tel que γ(0) soit le centre de D.
Considérons (f1 , D1 ) et (fe1 , D
e 1 ) les éléments terminaux de deux prolongements
analytiques de (f, D) le long de γ.
Montrer que f1 et fe1 sont égales sur D1 ∩ D
e 1.

Leçons concernées : 204, 207, 245

Ce développement est une version fine de prolongement analytique le long d’un


chemin, illustrant parfaitement la leçon sur les prolongements de fonctions (207).
Il s’appuie essentiellement sur une application de la connexité des segments, en
faisant un développement adapté à la leçon 204. Bien entendu, les objets centraux
demeurent les fonctions holomorphes (245). Enfin, cela peut être une illustration
originale de l’utilisation de courbes en dimension deux (267).

Correction.
Introduisons l’ensemble
n o
S = t0 ∈ [0, 1] : ∀t ∈ [0, t0 ], ft ≡ fet sur Dt ∩ D
et .

L’ensemble S n’est pas vide car il contient 0 par définition. Puisque le segment [0, 1]
est connexe, il suffit de prouver que S est ouvert et fermé pour conclure que l’on
a S = [0, 1].

461
78. Prolongement analytique suivant une courbe

• Prouvons que S est fermé.


Si t0 ∈ S, alors tous les t 6 t0 sont également dans S, de sorte que pour prouver
que S est fermé il suffit de prouver que toute limite de suite croissante (tj )j∈N
d’éléments de S demeure dans S. Soit (tj )j∈N une telle suite et t∞ sa limite
dans [0, 1].
Par la propriété (iii) appliquée à (ft∞ , Dt∞ ), il existe ε > 0 tel que pour
tout t0 ∈ [0, 1] vérifiant |t0 − t∞ | < ε, donc on en déduit que γ(t0 ) appartient à
Dt∞ ∩ Dt0 et
ft∞ ≡ ft0 sur Dt∞ ∩ Dt0 .
Par la propriété (iii) appliquée à (fet∞ , D e t ), il existe εe > 0 tel que pour

tout t ∈ [0, 1] vérifiant |t − t∞ | < εe, donc on en déduit que γ(t0 ) appartient à
0 0

Det ∩ D e 0 et
∞ t
fet∞ ≡ fet0 sur D
et ∩ D

e 0.
t

Soit j ∈ N suffisamment grand tel que |tj − t∞ | < min(ε, εe). En particulier, il
vient

ft∞ ≡ ftj sur Dt∞ ∩ Dtj resp. fet∞ ≡ fetj sur D


et ∩ D

et .
j (1)

De plus, par la propriété (ii) on a


e t ∩ Dt ∩ D
γ(tj ) ∈ Dtj ∩ D j ∞
et .
∞ (2)

Puisque tj ∈ S, on a également

ftj ≡ fetj sur Dtj ∩ D


et .
j

Ainsi, on obtient ft∞ ≡ ftj ≡ fetj ≡ fet∞ sur l’intersection Dtj ∩ D e t ∩ Dt ∩ D


j ∞
et

qui n’est pas vide. En particulier, ft∞ ≡ fet∞ sur cette intersection. Par le principe
des zéros isolés ft∞ et fet∞ coïncident donc sur Dt∞ ∩ D e t , autrement dit t∞ ∈ S.

Ainsi, S est fermé.
• Prouvons que S est ouvert.
Soit T le complémentaire de S dans [0, 1]. Prouvons que T est fermé. Soit (tj )j∈N
une suite de T convergeant vers une limite notée t∞ . Pour j ∈ N, puisque tj ∈/ S,
il existe sj ∈ [0, 1] tel que sj 6 tj et

fsj 6≡ fesj sur Dsj ∩ D


es .
j (3)

Quitte à extraire une sous-suite de (sj )j∈N , on peut supposer qu’elle converge vers
une limite notée s∞ ∈ [0, 1]. On a alors s∞ 6 t∞ car pour tout j > 1 on a sj 6 tj .
Il suffit donc de prouver que

fs∞ 6≡ fes∞ sur Ds∞ ∩ D


es .

Si tel n’était pas le cas, on aurait fs∞ ≡ fes∞ sur Ds∞ ∩ D


e s . On serait donc dans

la même situation que (1) par la propriété (iii) pour (fs∞ , Ds∞ ) et (fes∞ , D
e s ).

Ainsi, pour j assez grand on aurait

fsj ≡ fs∞ ≡ fes∞ ≡ fesj sur Dsj ∩ D


e s ∩ Ds ∩ D
j ∞
es ,

462
Analyse classique et complexe

avec cette intersection qui est non vide pour les mêmes raisons que (2). Cela est
contraire à l’hypothèse (3). Ainsi, t∞ ∈ T et donc T est fermé, autrement dit S
est ouvert.
On conclut par connexité que S = [0, 1] et en particulier que 1 ∈ S. Ainsi, par
définition de S, on déduit que f1 et fe1 coïncident sur D1 ∩ D
e 1.

Commentaires.
© Le problème de l’existence d’un prolongement analytique pour une fonction
holomorphe donnée est un problème fondamental dans de nombreux domaines
des mathématiques, de la géométrie à la théorie des nombres. Autour d’un point
où une fonction est holomorphe, elle admet un prolongement analytique qui est
unique par le principe des zéros isolés. Cet argument peut permettre d’obtenir,
de proche en proche, un prolongement analytique sur des domaines plus grands
que le domaine initial. Le résultat prouvé ici garantit qu’en suivant un chemin
donné, une telle extension est unique si elle existe.
© La question se complique lorsque plusieurs chemins sont possibles. Si une
fonction est holomorphe au voisinage d’un point x0 et admet un prolongement
holomorphe de proche en proche le long de deux chemins γ et γ 0 qui se terminent
en un point x1 , rien ne garantit que les deux prolongements obtenus coïncident au
voisinage de x1 . Ainsi, la racine carrée admet deux prolongements holomorphes
en suivant les deux demi-cercles reliant 1 à −1, mais ces deux prolongements ne
coïncident pas au voisinage de −1.
© Ces questions sont le début de la théorie de la monodromie. L’un des premiers
résultats de cette théorie, qui se prouve avec les mêmes idées que le développement
présenté ici, est le suivant.
Soit Ω ⊂ C un ouvert connexe. Soit (f, D) une fonction locale où D ⊆ Ω
et x0 le centre de D. Supposons que f admette un prolongement
analytique le long de toute courbe de Ω commençant en x0 . Alors
si γ et γ 0 sont deux courbes commençant en x0 , terminant en x1 ∈ Ω
et homotopes dans Ω (autrement dit, qui peuvent être continûment
déformées l’une en l’autre tout en restant dans Ω), alors les deux
prolongements analytiques le long de γ et γ 0 coïncident.
Ainsi, même si le chemin suivi pour le prolongement est différent, la fonction
locale au point final est toujours la même tant qu’il n’y a pas de « trou » dans
le domaine de définition qui est entouré par les deux chemins (c’est le sens de
l’hypothèse d’homotopie) : on dit que le groupe de monodromie de la surface est
trivial, c’est par exemple le cas de la sphère ou du plan... mais pas du tore !

Questions.
1. Que dire du domaine d’holomorphie de z 7→ n>0 z n ?
P

2. Soit D = D(2, 1) et f (z) = ln |z| + iarg(z) où −π/6 < arg(z) < π/6. Montrer
que f admet deux prolongements analytiques différents jusqu’à −1.
Remarque : on peut prouver que toutes les branches du logarithme complexe
peuvent être obtenues par prolongement le long d’une courbe à partir de D(2, 1).

463
79. Domaines d’holomorphie à une variable

Développement 79 (Domaines d’holomorphie à une variable FF)

Soit U ⊂ C un ouvert connexe non vide distinct de C. Notons ∂U sa frontière


et δ(z) = d(z, C \ U ) pour tout z ∈ C. Soit j > 2. Introduisons

1 1
 
Aj = z ∈ U : < δ(z) 6 j .
4j+1 4

Figure 2.32 – Définition des couronnes Aj .

Pour tous k, l ∈ Z, introduisons le carré ouvert Cj (k, l) de sommets

k l k+1 l k l+1 k+1 l+1


       
, , , , , j , , j .
8j 8j 8j 8j 8 j 8 8j 8

Notons Cj l’ensemble des carrés Cj (k, l) avec k, l ∈ Z. Notons que les carrés
fermés Cj (k, l), pour k, l ∈ Z, forment un recouvrement du plan complexe.
Considérons zj (k, l) le centre du carré Cj (k, l). Voir Figure 2.33.
a) Soient j > 2 et k, l ∈ Z tels que C j (k, l) ∩ Aj 6= ∅. Montrer que

1
zj (k, l) ∈ U et δ(zj (k, l)) 6 .
4j−1
Considérons l’ensemble Dj des zj (k, l) tels que C j (k, l) ∩ Aj 6= ∅, avec k, l ∈ Z.
Puisque c’est un ensemble dénombrable, il en va de même de D = ∪j>2 Dj .
b) Prouver qu’il n’existe pas de point d’accumulation de D dans U .
c) Prouver que tout point de ∂U est un point d’accumulation de D.
d) Conclure que U est un domaine d’holomorphie, autrement dit :

Il existe une fonction holomorphe sur U qui n’admet de prolonge-


ment analytique sur aucun voisinage d’aucun point de ∂U .

Leçons concernées : 201, 207, 245

464
Analyse classique et complexe

Ce développement est un fait aussi élémentaire qu’étonnant concernant les fonc-


tions holomorphes d’une variable complexe. Un ouvert étant donné, il s’agit de
construire soigneusement une fonction holomorphe sur cet ouvert qui ne peut se
prolonger sur aucun voisinage non trivial. Il s’agit d’une utilisation de la rigidité
des fonctions holomorphes pour montrer l’impossibilité d’un tel prolongement,
illustrant ainsi la leçon 207. Le développement s’insère de manière pertinente dans
les leçons 201 et 245 relatives aux espaces de fonctions, particulièrement holo-
morphes. En particulier, la preuve du résultat repose sur le théorème de Weierstrass
donnant l’existence d’une fonction analytique aux zéros prescrits, et rappelé en
commentaire.

Figure 2.33 – Définition des carrés Cj (k, l) et des centres zj .

Correction.
a) Supposons que C j (k, l) ∩ Aj 6= ∅ et considérons un point z dans cette inter-
section. Par définition de Aj on √ a δ(z) > 4−(j+1) . Puisque zj (k, l) est√le centre du
carré Cj (k, l) qui est de rayon 22 · 8−j , on a aussi d(z, zj (k, l)) 6 22 8−j < 8−j .
Alors le centre zj (k, l) est dans U car, par l’inégalité triangulaire et puisque j > 2,
1 1
δ(zj (k, l)) = d(zj (k, l), C\U ) > δ(z) − d(z, zj (k, l)) > − > 0.
4j+1 8j
Par ailleurs, par définition de Aj on a également δ(z) 6 4−j . Ainsi, par inégalité
triangulaire on a également
1 1 1
δ(zj (k, l)) 6 d(z, zj (k, l)) + δ(z) 6 √ j
+ j 6 j−1 .
2·8 4 4
b) Supposons qu’il y ait un point d’accumulation de D dans U . Dans ce cas,
quel que soit J ∈ N∗ , il existerait deux points distincts z et z 0 de D tels que
|z − z 0 | < 16−J . Ces points ne peuvent pas être dans un Dj avec j < J, car ils
seraient alors centres ou sommets de deux carrés distincts 26 de côtés 8−J , et leur
26. Noter que, pour tout j > 1, les Scentres des carrés de Cj sont parmi les sommets des carrés
de Cj+1 , de sorte que les éléments de j<J Dj sont tous parmi les centres et sommets des carrés
de CJ par une récurrence

immédiate. En particulier, ils sont distants d’au moins un demi-diamètre
de carré, soit 22 8−J

465
79. Domaines d’holomorphie à une variable


2 −J
distance serait au moins 2 8 > 16−J , ce qui n’est pas. On en conclut que

z, z 0 ∈
[
Dj . (1)
j>J

On aurait alors δ(z) < 41−J et δ(z 0 ) < 41−J par définition de Dj et par la
question a). Ainsi, si a est un point d’accumulation de D, alors il ne peut être
dans aucun Dj puisqu’il existe des points z 0 de D arbitrairement proches de a et,
par ce qui précède, (1) serait donc vérifiée pour tout J ∈ N∗ . Ainsi, tout point
d’accumulation a de D vérifie δ(a) = z, autrement dit est dans ∂U .
c) Soit j > 2. Soit z0 ∈ ∂U , et soit 0 < ε < 1/4. Par définition de la frontière,
on a U ∩ B(z0 , ε) 6= ∅, où B(z0 , ε) est la boule de centre z0 et de rayon ε > 0,
donc il existe z ∈ U ∩ B(z0 , ε), de sorte que δ(z) < ε. Soit j > 2 l’entier tel
que z ∈ Aj , autrement dit qui vérifie δ(z) ∈ ]4−(j+1) , 4−j ]. Puisque les C j (k, l)
recouvrent Aj , il existe k, l ∈ Z tels que z ∈ C j (k, l). Le centre zj (k, l) de ce carré
est alors dans Dj , et de plus par l’inégalité triangulaire on a
1
d(zj (k, l), z0 ) 6 d(zj (k, l), z) + d(z, z0 ) 6 + ε < δ(z) + ε < 2ε.
8j
Ainsi, le disque B(z0 , 2ε) contient un point de D pour tout ε > 0, ce qui prouve
que z est un point d’accumulation de D.
d) Par le théorème du produit de Weierstrass, puisque D est dénombrable et
sans point d’accumulation dans U par la question b), il existe une fonction f
holomorphe sur U dont l’ensemble des zéros est exactement D.
Supposons qu’il existe un prolongement holomorphe de f sur un voisinage du
point z ∈ ∂U , que l’on note encore f . Par la question précédente, z ∈ ∂U est un
point d’accumulation d’éléments de D, donc un point d’accumulation des zéros de
f . Par le principe des zéros isolés, puisque U est connexe, la fonction f est nulle,
ce qui n’est pas le cas puisque l’ensemble des zéros de f sur U est D ( U .
Ainsi f ne peut être prolongée analytiquement au voisinage d’aucun point de ∂U .

Commentaires.
© La preuve de ce résultat est la formalisation d’un argument géométrique assez
facile, et il est important de ne pas se laisser noyer dans le formalisme mais de s’ap-
puyer régulièrement sur des dessins pour comprendre et motiver les constructions
et les arguments. Nous ne prouvons trop conseiller de présenter cette preuve à
l’oral, avec comme seul appui des dessins des différentes quantités considérées dans
le plan complexe. Cela sera un exercice utile comme pont entre vision géométrique
et formalisme, et un entraînement pour répondre à des questions naturelles du
jury qui se justifient clairement sur un dessin de la situation.
© On appelle domaine d’holomorphie l’ensemble maximal d’existence d’une fonc-
tion holomorphe, i.e. un domaine où la fonction est holomorphe sans qu’elle
n’admette de prolongement analytique sur un domaine strictement plus grand.
Puisque toute fonction holomorphe sur un domaine U est analytique au voisinage

466
Analyse classique et complexe

de tout point de U , les domaines d’holomorphie sont ouverts. Le résultat prouvé


ici est une réciproque partielle de ce fait : tout ouvert connexe de C est un domaine
d’holomorphie.
© Ce résultat est très spécifique à l’analyse d’une variable complexe. C’est une
situation que l’on peut voir comme pathologique : la rigidité des fonctions ho-
lomorphes ne contraint pourtant guère la forme des domaines d’holomorphie.
Ce n’est plus le cas si la fonction est bornée : le théorème de prolongement
de Riemann assure que l’on peut supprimer les singularités isolées à l’intérieur
du domaine d’holomorphie. Ce n’est plus le cas non plus à plusieurs variables
complexes : le théorème de prolongement de Hartog énonce que toute fonction
holomorphe (sur des domaines raisonnables) admet un prolongement analytique à
l’enveloppe convexe du domaine, interdisant en particulier l’existence de domaines
d’holomorphie (raisonnables) non convexes.
© Le développement repose sur un résultat classique, mais non immédiat : le
théorème de Weierstrass permettant de construire des fonctions holomorphes
ayant un ensemble discret de zéros fixé à l’avance. C’est un résultat classique
d’analyse complexe qui mérite tout à fait sa place dans les plans des leçons
d’analyse complexe ou sur les prolongements de fonctions. Nous le rappelons ici,
voir [GK06].
Soit U un ouvert de C. Soit (an )n une suite (finie ou non) d’éléments
de U sans point d’accumulation. Il existe alors une fonction holomorphe
sur U dont les zéros sont exactement les éléments de (an )n comptés
avec multiplicités.
Il existe un théorème analogue énonçant l’existence de fonctions holomorphes
ayant un ensemble discret fixé à l’avance de pôles comptés avec multiplicités :
c’est le théorème de Mittag-Leffler.
© L’analyse complexe est une mine de développements et d’idées de pans de leçons
pour illustrer de nombreuses leçons d’analyse, notamment celles sur la topologie,
l’intégration, les prolongements de fonctions et les espaces fonctionnels. Les
arguments ne sont jamais très compliqués et les ouvrages sur le sujet sont souvent
suffisamment autocontenus pour que nous recommandions un investissement dans
cette direction. Voir par exemple [GK06] pour un ouvrage efficace et clair sur
l’analyse complexe à une variable.

Questions.
1. Préciser pourquoi δ(z) > 0 est équivalent à z ∈ U .
2. Dans la correction de la question a), justifier que

d(zj (k, l), C\U ) > δ(z) − d(z, zj (k, l)).

3. Expliquer pourquoi si a n’est dans aucun Dj pour j > 2, alors a ∈


/ U.
4. Montrer que la distance δ(z) est bien définie et strictement positive pour z ∈ U .
5. Le résultat reste-t-il valide sans la connexité ?

467
79. Domaines d’holomorphie à une variable

6. Tout ouvert de C est-il un domaine d’holomorphie ?


7. Montrer qu’une fonction holomorphe définie sur un domaine distinct de C
admet au moins une singularité au bord de son domaine d’holomorphie, autrement
dit un point au voisinage duquel elle n’admet pas de prolongement analytique.
8. Soit R = P/Q une fraction rationnelle, avec P, Q ∈ C[z]. Soit f holomorphe
sur C\{z1 , . . . , zn } admettant des pôles aux points zi . Supposons que |f | 6 |R|
sur leur ensemble de définition commun. Montrer que f est un multiple de R, en
particulier qu’elle est rationnelle.
Indication : considérer le quotient f /R.

468
Analyse classique et complexe

Développement 80 (Forme normale de Jordan et résidus FFF)

Soit n > 1. Soit A ∈ Mn (C).


a) On définit la résolvante R de A par R(λ) = (λIn − A)−1 pour λ ∈
/ Sp(A).
(i) Montrer que R est analytique 27 sur DA = C \Sp(A).
(ii) Montrer que pour λ, λ0 ∈ DA , on a l’identité entre résolvantes
R(λ) − R(λ0 ) = (λ0 − λ)R(λ)R(λ0 ). (1)

Notons λ1 , . . . , λr les différentes valeurs propres de A, où r > 1. Soit η > 0


tel que η < 12 mink6=j |λk − λj |. Pour tout k ∈ J1, rK, on introduit le contour
défini par γk : t ∈ [0, 1] 7→ λk + η exp(2iπt) ainsi que les intégrales 28
1
Z
Pk = R(λ)dλ,
2iπ γk
1
Z
Nk = (λ − λk )R(λ)dλ.
2iπ γk

b) Montrer que les Pk sont les matrices dans la base canonique de Cn des
projections associées à la décomposition
r
M
Mn,1 (C) = Ek ,
k=1

où Ek = Im(Pk ), c’est-à-dire que :


(i) Pk Pj = δjk Pk ,
r
X
(ii) Pk = In .
k=1
c) Montrer que pour tous j, k ∈ J1, rK :
(i) Nk Pj = δjk Nk = Pj Nk .
(ii) Nk Nj = 0 si k 6= j.
(iii) Pk (A − λk In ) = Nk .
(iv) Si αk est la multiplicité de λk dans le polynôme caractéristique de A, la
matrice Nk est nilpotente d’indice au plus αk .

27. Une fonction à valeurs dans Mn (C) est analytique si elle l’est composante par composante.
Tous les résultats classiques de la théorie des fonctions holomorphes d’une variable complexe,
notamment le théorème de Cauchy, se transposent à ce cadre.
28. Les intégrales de matrices sont définies composante par composante : pour un chemin γ
dans C et une fonction f : C → Mn (C), on définit la matrice γ f dont les composantes sont,
R

pour tous j, k ∈ J1, nK, Z  Z


f = fj,k .
γ j,k γ

469
80. Forme normale de Jordan et résidus

d) En déduire la décomposition
r
X
A= (λk Pk + Nk ) , (1)
k=1

et que A est semblable à la matrice diagonale par blocs


 
λk 1
A1
 
 .. .. 
..
 . . 
B= où Ak =  .
   
.  ..
Ar

 . 1 

λk

Dans l’écriture ci-avant, les éléments omis représentent des zéros. La matrice B
est la forme normale de Jordan de A.

Leçons concernées : 152, 153, 154, 157, 245

L’idée maîtresse de la réduction est de ramener l’étude d’un endomorphisme


(ou d’une matrice) à celle d’endomorphismes (ou de matrices) plus simples. Ce
développement illustre donc parfaitement les leçons sur la réduction (153, 154, 157).
L’utilisation explicite des propriétés du déterminant et du polynôme caractéristique
justifient par ailleurs son intégration dans la leçon associée (152). Enfin, l’outil
principal de la preuve est le théorème des résidus, ce qui rend ce développement
bienvenu dans la leçon sur les fonctions d’une variable complexe (245).

Correction.
a) (i) La formule de la comatrice donne, pour λ ∈
/ Sp(A), la relation explicite
t com(λI − A)j,k
n
R(λ)j,k = , (2)
det(λIn − A)

pour tous j, k ∈ J1, nK. Les coefficients de la comatrice sont des déterminants
de sous-matrices de A − λIn , de sorte que ce sont des polynômes en λ et donc
des fonctions holomorphes. Les seuls pôles possibles des R(·)j,k sont les valeurs
de λ annulant det(λIn − A), autrement dit les valeurs propres de A. Ainsi, R est
analytique sur DA .
(ii) Soient λ, λ0 ∈ DA . Puisque A et λIn − A commutent, A et R(λ) commutent.
De plus, par définition, R(λ)(λIn − A) = In et (λ0 In − A)R(λ0 ) = In , de sorte que

R(λ) − R(λ0 ) = R(λ)(λ0 In − A)R(λ0 ) − (λIn − A)R(λ)R(λ0 )


= (λ0 − λ)R(λ)R(λ0 ).

b) (i) Supposons k 6= j. En utilisant l’identité entre résolvantes (1) on obtient,


par le théorème de Fubini appliqué à la fonction holomorphe R sur les contours à

470
Analyse classique et complexe

support compact γk et γj ,
R(λ) − R(λ0 )
Z Z Z Z
0 0
2
(2iπ) Pk Pj = R(λ)R(λ )dλdλ = dλdλ0
γk γj γk γj λ0 − λ
!
dλ0 dλ
Z Z Z Z 
0
= R(λ) dλ − R(λ ) dλ0 .
γk γj λ0 − λ γj γk
0
λ −λ

Or les intégrales intérieures sont nulles. En effet, par le choix de η, on a


|λ − λ0 | > |λk − λj | − |λ − λk | − |λ0 − λj | > |λk − λj | − 2η > 0,

pour tout λ ∈ γk ([0, 1]) et λ0 ∈ γj ([0, 1]), de sorte que la quantité λ−λ0 ne s’annule
pas. Ainsi, les intégrales intérieures sont des intégrales de fonctions holomorphes
sur des contours fermés n’entourant aucun de leurs pôles (sinon on aurait l’inégalité
|λk − λj | 6 η, ce qui n’est pas le cas par définition de η), et sont donc nulles par
le théorème de Cauchy.
Supposons à présent k = j. Introduisons le contour
γ̃k : [0, 1] −→ C
1
t 7−→ λk + 2 η exp(2iπt),
dont l’image est contenue dans le disque ouvert délimité par γk . Par holomorphie
de R, on a
1 1
Z Z
Pk = R(λ)dλ = R(λ0 )dλ0 ,
2iπ γk 2iπ γ̃k
de sorte que
1
Z Z
Pk2 = R(λ)R(λ0 )dλdλ0
(2iπ)2 γk γ̃k
1 dλ0 1 dλ
Z Z  Z Z 
0
= R(λ) 0−λ
dλ − R(λ ) 0−λ
dλ0 . (3)
(2iπ)2 γk γ̃k λ (2iπ) 2
γ̃k γk λ
Pour λ ∈ γk ([0, 1]) et λ0 ∈ γ̃k ([0, 1]), le contour γ̃k n’entoure pas λ, de sorte que
la première intégrale intérieure est nulle par holomorphie. Le contour γk fait une
fois le tour de λ0 dans le sens direct, donc son indice est 1, de sorte que la seconde
intégrale intérieure vaut −2iπ par le théorème des résidus. Ainsi, l’équation (3)
donne Pk2 = Pk comme souhaité.
(ii) Pour ρ > 0, introduisons le contour γρ : t ∈ [0, 1] 7→ ρ exp(2iπt). Puisque A
admet un nombre fini de valeurs propres, le contour γρ fait le tour de chaque
valeur propre une et une seule fois dans le sens direct pour ρ assez grand. Soit un
tel ρ. Il vient alors par holomorphie
r r Z
1 X 1
X Z
Pk = R(λ)dλ = R(λ)dλ
k=1
2iπ k=1 γk 2iπ γρ
1 1
Z

= R(λ)(λIn − A) + R(λ)A dλ
2iπ γρ λ
In dλ A R(λ)
Z Z
= + dλ,
2iπ γρ λ 2iπ γρ λ

471
80. Forme normale de Jordan et résidus

car A et R(λ) commutent.


La première intégrale vaut 2iπ par le théorème des résidus, quel que soit ρ > 0.
Montrons que la seconde tend vers 0 lorsque ρ tend vers l’infini : le numérateur
de l’expression R(λ)j,k , donné par la relation (2), est un polynôme de degré n − 1
en λ, et son dénominateur un polynôme de degré n. Ainsi, R(λ)j,k est borné en
module par C/ρ, où C est une constante positive ne dépendant que de A. On a
donc, puisque le périmètre du cercle γρ ([0, 1]) est égal à 2πρ,
R(λ) 2πC
Z
dλ 6 .
γρ λ ρ

Lorsque ρ tend vers l’infini, la seconde intégrale tend donc vers zéro, donnant le
résultat voulu.
c) (i) Avec l’identité (1) entre résolvantes on a, pour k 6= j et en appliquant le
théorème de Fubini,
Z Z
2
(2iπ) Nk Pj = (λ − λk )R(λ)R(λ0 )dλdλ0
γk γj
R(λ) − R(λ0 )
Z Z
= (λ − λk ) dλdλ0
γk γj λ0 − λ
λ − λk λ − λk
Z Z Z Z
= R(λ)dλdλ0 − R(λ0 )dλdλ0
γk γj λ0 − λ γk γj λ0 − λ
!
dλ0 λ − λk
Z Z  Z Z
0
= R(λ)(λ − λk ) dλ − R(λ ) dλ dλ0 ,
γj γk λ0 − λ γk γj λ0 − λ

et par holomorphie, comme dans la question b)(i), les deux intégrales de contour
intérieures sont nulles, donc Nk Pj = 0.
Si j = k, le même calcul que dans la question b)(i), en ajoutant les facteurs λ − λk
dans les intégrandes, prouve que Nk Pk = Nk .
Par ailleurs, l’application ci-avant du théorème de Fubini prouve que l’on a l’égalité
Nk Pj = Pj Nk pour tous k, j ∈ J1, rK.
(ii) De la même manière on a, pour k 6= j,
Z Z
(2iπ)2 Nk Nj = (λ − λk )(λ0 − λj )R(λ)R(λ0 )dλdλ0
γk γj
(λ − λk )(λ0 − λj )
Z Z
= R(λ)dλdλ0
γk γj λ0 − λ
(λ − λk )(λ0 − λj )
Z Z
− R(λ0 )dλdλ0
γk γj λ0 − λ
λ0 − λj 0
Z Z 
= R(λ)(λ − λk ) 0
dλ dλ
γj γk λ − λ
!
λ − λk
Z Z
0 0
− R(λ )(λ − λj ) dλ dλ0 ,
γk γj λ0 − λ

et les deux intégrales de contour intérieures sont nulles par holomorphie.

472
Analyse classique et complexe

(iii) Soit k ∈ J1, rK. En revenant à la définition de la résolvante, on a


1
Z
Pk (A − λk In ) = R(λ)(A − λk In )dλ
2iπ γk
1
Z
= (A − λIn )−1 ((A − λIn ) + (λ − λk )In )dλ
2iπ γk
In 1
Z Z
= dλ + (λ − λk )R(λ)dλ.
2iπ γk 2iπ γk

La première intégrale est nulle par calcul direct et la seconde est exactement 2iπNk
par définition, comme voulu.
(iv) Soit k ∈ J1, rK. La formule de la comatrice montre que λ 7→ (λ − λk )αk R(λ)
admet un prolongement analytique en λk . En effet, en écrivant
t com(A− λIn )
(λ − λk )αk R(λ) = (λ − λk )αk ,
det(A − λIn )
on constate que le pôle d’ordre αk de R en λk , dû au zéro d’ordre αk du poly-
nôme caractéristique det(A − XIn ) en λk , est exactement compensé par le terme
(λ − λk )αk .
Rappelons que les matrices Pk et A commutent et que Pk est un projecteur. De
ce fait et du résultat de la question précédente on tire que pour tout m > 1,

2iπNkm = (2iπ)Pkm (A − λk In )m = (2iπ)Pk (A − λk In )m


Z
= R(λ)(A − λk In )m dλ.
γk

De plus, puisque R(λ)(A − λIn ) = In pour tout λ ∈ DA et puisque l’intégrale le


long du contour fermé γk de la constante (A − λk In )m−1 est nulle, ce qui précède
se réécrit
Z h i
2iπNkm = R(λ) (A − λk In )m − (A − λk In )m−1 (A − λIn ) dλ
γk
Z
= R(λ)(A − λk In )m−1 (λ − λk )dλ.
γk

En itérant ce processus, on obtient par une récurrence immédiate que


Z
2iπNkm = R(λ)(λ − λk )m dλ.
γk

Puisque l’intégrande est holomorphe dans le disque délimité par γk pour m > αk ,
on en tire que la matrice Nk est nilpotente et que son indice de nilpotence est au
plus égal à αk .
d) Par les résultats des points b)(ii) et c)(iii), on obtient
r
X r
X r
X r
X r
X
A = In A = Pk A = λk Pk + Pk (A − λk In ) = λ k Pk + Nk .
k=1 k=1 k=1 k=1 k=1

473
80. Forme normale de Jordan et résidus

P
Puisque k Pk = In , les sous-espaces Ek sont supplémentaires dans E. Comme Nj
et Pk commutent pour tous j, k ∈ J1, rK d’après la question c)(i), les sous-
espaces Ek sont stables par l’action naturelle des Nj . L’action de A sur l’espace Ek
est donnée par b)(i) et c)(i). Plus précisément, pour k ∈ J1, rK on a :

∀v ∈ Ek , Av = λk v + Nk v.

Soit v un vecteur de Ek tel que Nkαk −1 v 6= 0 ; un tel vecteur existe par la ques-
tion c)(iv). Il est classique de vérifier qu’alors le système (Nkαk −1 v, . . . , Nk2 v, Nk v, v)
forme une famille libre, engendrant un sous-espace F stable par Nk . Dans cette
base, Nk admet pour matrice
 
0 1
 .. .. 
 . . 
 ∈ Mαk (C).
 

..

 . 1 

0

Par récurrence sur la dimension, ce raisonnement permet de décomposer Ek en


somme de tels sous-espaces stables Fk (dit cycliques) pour Nj . Cela achève la
preuve de l’existence de la décomposition de Jordan, chaque Ak requis étant la
matrice de λk Pk + Nk dans une base cyclique de Fk .

Commentaires.
© Le développement peut paraître long à cause des nombreux détails de calculs
qui y figurent, ce qui justifie son niveau de difficulté FFF. Il est important
de faire des choix pour synthétiser les trois étapes principales de la preuve :
établir l’identité entre résolvantes, vérifier les propriétés des Pk et Nk , et enfin
traduire ces dernières en termes de décomposition de Jordan. Les candidats moins
à l’aise pourraient présenter avec beaucoup de détails les questions a) et b)
seulement, qui sont très riches. On pourrait aussi penser à limiter la question c) à
la démonstration du point (iv) en expliquant que les autres points qui composent
cette question ne posent pas de difficulté et reposent sur les mêmes manipulations
que ceux de la question b), de sorte à pouvoir passer davantage de temps sur la
démonstration de la décomposition de Jordan. Il est envisageable de présenter les
seules questions a) et b)(i) en tant qu’illustrations élémentaires du théorème des
résidus ; on obtiendrait ainsi un développement de niveau F, toutefois seulement
adapté aux leçons sur l’holomorphie.
© Ce développement propose une approche élégante et originale d’un résultat très
classique de réduction des endomorphismes : l’existence de la forme normale de
Jordan. Il s’agit d’un raffinement du résultat de trigonalisabilité des matrices com-
plexes. La preuve proposée ici construit explicitement les matrices des projections
et les matrices nilpotentes au moyen d’intégrales de contour. Les outils essentiels
de ce développement sont le théorème des résidus pour les fonctions méromorphes
ainsi que les propriétés élémentaires des endomorphismes : caractérisation des
projections, nilpotence, stabilité déduite de la commutativité, etc.

474
Analyse classique et complexe

© L’holomorphie et la méromorphie sont des propriétés fortes qui permettent de


décomposer et déformer les contours d’intégration. Il faut seulement faire attention
aux pôles que l’on pourrait ainsi traverser. Une fois les premières justifications de
ce type présentées rigoureusement dans la première question, il est raisonnable
de passer un peu plus rapidement sur les arguments similaires rencontrés dans
les questions suivantes, en mentionnant explicitement que les arguments sont les
mêmes et en étant capable de les détailler sur demande du jury.
© L’existence d’une décomposition de Jordan est vraie dans tout corps algébri-
quement clos, et plus généralement pour une matrice donnée si son polynôme
caractéristique est scindé dans le corps considéré. Il est aisé de lire de nombreuses
propriétés d’une matrice sur sa forme normale. En particulier, la multiplicité géo-
métrique d’une valeur propre donnée (la dimension du sous-espace propre associé)
est égale au nombre de blocs associés à cette valeur propre, et sa multiplicité
algébrique (l’ordre de la racine correspondante en tant que racine du polynôme
caractéristique) est la somme des tailles des blocs associés. Dans le même ordre
d’idées, la multiplicité d’une valeur propre dans le polynôme minimal de la matrice
est la taille du plus grand bloc de Jordan associé.
© La forme normale de Jordan d’une matrice est unique, à permutation près
des blocs de Jordan. Cela peut être prouvé par un raisonnement par analyse-
synthèse, en inspectant le rang des puissances de A − λIn . En effet, notons dk
la dimension du noyau Ker((A − λIn )k ). La suite (dk )k∈N croît donc strictement
jusqu’à atteindre la multiplicité algébrique de λ en tant que valeur propre de A,
puis stationne. Alors la différence dk − dk−1 est le nombre de blocs de taille au
moins k associés à λ. Cela détermine entièrement le nombre et la taille des blocs
de Jordan associés à λ. Une question naturelle qui pourrait émerger d’un tel
développement, ou de tout plan faisant mention de la forme normale de Jordan,
est de savoir comment obtenir en pratique la forme normale d’une matrice donnée.
La discussion précédente permet par exemple de répondre algorithmiquement à la
question.

Questions.
1. Montrer que si A et B commutent et si B est inversible, alors A et B −1
commutent.
2. Justifier que le contour γ̃k : t ∈ [0, 1] 7→ λk + 12 η exp(2iπt) a son support
contenu dans le disque ouvert délimité par γk : t ∈ [0, 1] 7→ λk + η exp(2iπt).
3. Si N est nilpotente d’indice α et si v est un vecteur tel que N α−1 v =
6 0, montrer
que (v, N v, N 2 v, . . . , N α−1 v) forme une famille libre.
4. Justifier précisément la démonstration par récurrence sur la dimension évoquée
dans la dernière question pour obtenir la décomposition de Jordan : pourquoi
existe-t-il un supplémentaire de l’espace engendré par (Nkαk −1 v, . . . , Nk2 v, Nk v, v)
stable par Nk et Pk ?
5. Montrer que A ∈ Mn (C) est nilpotente si, et seulement si, Tr(Ak ) = 0 pour
tout k > 1.

475
80. Forme normale de Jordan et résidus

6. Rappeler pourquoi une matrice est trigonalisable si, et seulement si, son poly-
nôme caractéristique est scindé.
7. Montrer que l’indice de nilpotence de la matrice Nk est exactement αk .
8. Dans le cas de matrices réelles, montrer qu’il existe une décomposition de
Jordan par blocs analogue à celle dans le cas complexe, où les éléments diagonaux
peuvent être soit des matrices scalaires soit des matrices carrées de taille 2.
9. Comment obtenir la forme normale de Jordan de la matrice
 
3 1 −1
 1 3 −1 ?
 
2 2 0

10. Calculer les puissances de


 
0 0 1 0
 11 6 −4 −4 
.
 
22 15 −8 −9

 
−3 −2 1 2
P
11. Détailler le passage permettant de déduire de l’égalité k Pk = In que les
Im(Pk ) sont en somme directe et de somme égale à Mn,1 (C).
12. Justifier que les propriétés (i) et (ii) prouvées à la question b) sont équivalentes
au fait que les Pk sont les matrices dans la base canonique de Cn des projecteurs
associés à la décomposition
r
M
Mn,1 (C) = Im(Pk ).
k=1

13. Trouver une matrice A ∈ Mn (C) admettant une valeur propre λ avec une
multiplicité algébrique r et une multiplicité géométrique s < r.
14. Rappeler pourquoi, si deux endomorphismes commutent, les images et noyaux
de l’un sont stables par l’autre.
15. Soient λ ∈ C et A ∈ Mn (C). Montrer que les suites (Ik )k∈N et (Kk )k∈N
définies par Ik = Im(A − λIn )k et Kk = Ker(A − λIn )k sont monotones (pour
l’inclusion) et stationnaires à partir d’un certain rang.
16. Déduire de l’existence de la forme normale de Jordan d’une matrice celle de
sa décomposition de Dunford additive A = D + N , où D est diagonalisable, N
est nilpotente et DN = N D. Montrer que D et N sont alors uniques et sont des
polynômes en A.

476
Analyse classique et complexe

Développement 81 (Espace des formes modulaires FFF)

On appelle demi-plan de Poincaré l’ensemble H = {z ∈ C : Im(z) > 0}.


Soit k un entier. Une forme modulaire de poids k est une fonction holomorphe
sur H et à l’infini (notion rappelée en début de correction), vérifiant

az + b
 
a b = (cz + d)k f (z).

∀z ∈ H, ∀ c d ∈ SL2 (Z), f (1)
cz + d

L’équation fonctionnelle (1) implique que f est déterminée par son image sur
le domaine fondamental D = {z ∈ H : |z| > 1, Re(z) ∈ [−1, 1]}, permettant
dorénavant de voir f comme fonction sur D.
Soient Mk l’espace vectoriel des formes modulaires de poids k et f ∈ Mk \{0}.
a) Expression intégrale du nombre de zéros.
Soit X > 0. Considérons le contour représenté sur la Figure 2.34, où le
chemin β est porté par la droite {Im(z) = X} et les δx sont des arcs de cercles
autour de x de rayon ε > 0. On note j = exp(2iπ/3) et ̃ = −j 2 . On note DX,ε
le domaine fermé entouré et on suppose que f n’a aucun zéro sur le contour.
(i) Justifier que les zéros de f sont dans DX,ε pour X assez grand et ε assez
petit. Montrer que ces zéros sont en nombre fini.
(ii) Relier l’intégrale de f 0 /f sur ce contour et les zéros de f .
b) Formule des ordres.
Pour tout p ∈ H ∪ {+∞}, on note vp (f ) l’ordre de f en p, i.e. l’entier v tel
que la fonction z 7→ f (z)(z − p)−v est holomorphe en p.
(i) Montrer que
f0 f0
Z Z
+ = 0.
α f α̃ f
(ii) Montrer que, lorsque ε tend vers zéro,

f0 f0 kπ
Z Z
+ −→ .
γ f γ̃ f 6

(iii) Montrer que


f0
Z
= −v∞ (f ).
β f
(iv) Montrer que, lorsque ε tend vers zéro,

f0 1 f0 1 f0 1
Z Z Z
−→ − vi (f ), −→ − vj (f ) et −→ − v̃ (f ).
δi f 2 δj f 6 δ̃ f 6

477
81. Espace des formes modulaires

(v) Conclure à la formule des ordres :

1 1 X k
vi (f ) + vj (f ) + vp (f ) = . (1)
2 3 p ∈D∪{+∞}
12
f (p)=0
p6=i,j,̃

c) Dimension. En déduire que dim M0 = 1 et que dim Mk 6 1 pour k 6 4.

Leçons concernées : 151, 201, 236, 239, 245

α α̃
DX,ε
δi
δj δ̃

j γ i γ̃ ̃

-1 -1/2 0 1/2 1

Figure 2.34 – Le contour d’intégration.

Une bonne partie du développement repose sur le calcul d’intégrales sur des por-
tions de contour (236, 239). Ce développement s’intègre naturellement aux leçons
d’analyse complexe (245) comme archétype d’application du théorème des résidus.
Il propose d’étudier un espace formé par des fonctions (201) qui constituent l’ana-
logue des fonctions périodiques en dimension supérieure dans le plan hyperbolique.
Il mobilise enfin certaines méthodes de détermination des dimensions d’espaces
vectoriels (151) : les conditions définissant l’espace apparaissent alors comme
des contraintes qui bornent sa dimension, et il suffit pour conclure de trouver
suffisamment d’éléments libres pour en obtenir une base.

478
Analyse classique et complexe

Correction.
Rappelons tout d’abord la définition de l’holomorphie de f à l’infini. La relation (1)
implique, avec c = 0 et a = b = d = 1, que f (z + 1) = f (z), c’est-à-dire que la fonc-
tion f est 1-périodique. Il existe donc une fonction g telle que f (z) = g(exp(2iπz))
pour tout z ∈ H. Le changement de variable z 7→ exp(2iπz) envoie H sur le disque
épointé D(0, 1)\{0}, domaine sur lequel g est donc définie et holomorphe. Dire
que f est holomorphe à l’infini signifie que g admet un prolongement holomorphe
en 0, encore noté g. On dit que la valeur de f à l’infini est la valeur de g en zéro.
Les notions de zéro et de multiplicité pour f à l’infini sont par définition celles
concernant g en 0.
a) (i) La fonction f est holomorphe et non nulle, donc ses zéros dans D sont
isolés par le principe des zéros isolés. En particulier, pour ε > 0 assez petit elle
n’a pas de zéro dans les disques D(i, ε), D(j, ε) et D(̃, ε), hormis éventuellement
aux points i, j et ̃ respectivement.
La fonction g est holomorphe et non nulle, donc ses zéros sont isolés. En particulier,
pour η < 1 assez petit, g n’a pas de zéro tel que 0 < |q| < η. Cela signifie, puisque
q = exp(2iπz), que f n’a aucun zéro z ∈ D de partie imaginaire strictement
supérieure à −(2π)−1 ln(η) qui est une constante positive. Ainsi, pour X supérieur
à cette constante, les zéros de f sont contenus dans DX,ε , sauf éventuellement i,
j, ̃ et l’infini.
Les zéros de f forment un ensemble discret. Puisque le domaine DX,ε est un
compact de D, f n’y admet qu’un nombre fini de zéros.
(ii) Rappelons que le contour noté ∂DX,ε est orienté comme sur le schéma. Le
contour est d’indice 1 par rapport aux zéros. Le théorème des résidus donne donc

1 f 0 (z)
Z X
dz = vp (f ). (2)
2iπ ∂DX,ε f (z) p ∈D X,ε
f (p)=0

b) (i) La relation (1) implique que f (z +1) = f (z) et f 0 (z +1) = f 0 (z) pour tout
z ∈ H. Puisque α̃ − 1 est égal à α parcouru dans le sens opposé, le changement
de variable z 7→ z + 1 donne

f0 f 0 (z + 1) f 0 (z + 1) f0
Z Z Z Z
= dz = − dz = − .
α̃ f α̃−1 f (z + 1) α f (z + 1) α f

Cela permet donc de conclure que

f0 f0 f0 f0
Z Z Z Z
+ =− + = 0.
α̃ f α f α f α f

(ii) La relation (1) implique que f (−1/z) = z k f (z) pour tout z dans H et donc
que la dérivée satisfait z −2 f 0 (−1/z) = kz k−1 f (z)+z k f 0 (z). Puisque le changement
de variable z 7→ −1/z envoie γ̃ sur γ parcouru dans le sens opposé, il vient par

479
81. Espace des formes modulaires

changement de variable puis par le théorème d’intégration sur les petits arcs :
f0 f0 f0 f 0 (−1/z) −2
Z Z Z Z
+ = − z dz
γ̃ f γ f γ̃ f γ̃ f (−1/z)
f0 kz k−1 f (z) + z k f 0 (z)
Z Z
= − dz
γ̃ f γ̃ z k f (z)
dz π
Z
=k −−−→ k.
γ̃ z ε→0 6

(iii) Le chemin β est transformé par z 7→ exp(2iπz) en un cercle C(0, η) autour


de l’origine n’entourant que le possible zéro de g à l’origine et parcouru dans le
sens indirect. Ainsi, en appliquant la formule des résidus, on obtient
1 f0 1 g0
Z Z
= = −v0 (g) = −v∞ (f ).
2iπ β f 2iπ C(0,η) g

(iv) Pour les intégrales sur les arcs autour des points i, j et ̃, on utilise le
théorème des petits arcs. Tous les arcs de cercles sont parcourus dans le sens
indirect. Les écarts angulaires des arcs de cercles centrés en j et en ̃ tendent
vers 2π/6 lorsque ε tend vers zéro, donc
1 f0 1 1 f0 1
Z Z
−→ − vj (f ) et −→ − v̃ (f ).
2iπ δj f ε→0 6 2iπ δ̃ f ε→0 6

Enfin, l’écart angulaire de l’arc de cercle δi tend vers π lorsque ε → 0, d’où


1 f0 1
Z
−→ − vi (f ).
2iπ δi f ε→0 2

(v) Rappelons que les zéros de f sont dans l’intérieur de DX,ε par la ques-
tion a)(i), hormis éventuellement i, j, ̃ et le point à l’infini. En sommant les
contributions précédentes, notant que vj (f ) = v̃ (f ) par invariance de f par le
changement de variable z 7→ z + 1, (2) implique
1 1 X k
vi (f ) + vj (f ) + vp (f ) = .
2 3 p ∈D∪{+∞}
12
f (p)=0
p6=i,j,̃

c) Notons qu’il n’existe pas de forme modulaire non triviale de poids impair,
puisque la relation de modularité donne, avec le choix a = d = −1 et b = c = 0,
que f (z) = −f (z) pour tout z ∈ H.
• Supposons k = 0. Supposons que a ∈ C soit une valeur atteinte par f , i.e. que
la fonction f − a admet un zéro. C’est toujours une forme modulaire de poids nul.
Si f − a n’est pas la fonction nulle, la formule des ordres donne alors
1 1 X k
0 < vi (f ) + vj (f ) + vp (f ) = = 0,
2 3 p ∈D
12
f (p)=0
p6=i,j,̃

480
Analyse classique et complexe

ce qui est absurde, donc f = a. Réciproquement, toute fonction constante sur H


est une forme modulaire de poids nul, donc M0 est l’ensemble des fonctions
constantes sur H.
• Supposons k = 2. L’équation donnée par la formule des ordres (1) n’a pas de
solution : on ne peut écrire 1/6 comme combinaison linéaire à coefficients entiers
positifs de 1/3 et 1/2. La fonction nulle est donc le seul élément de M2 .
• Supposons k = 4. Si f est une forme modulaire de poids 4 non nulle, la formule
des ordres implique
1 1 1
a+ b+c= ,
2 3 3
où a, b et c sont des entiers. La seule solution est donc a = c = 0 et b = 1,
autrement dit une forme modulaire de poids 4 n’a que j et ̃ comme zéros dans D,
et ces zéros sont tous deux d’ordre un. Si g est une autre telle fonction, alors le
quotient f /g est donc encore holomorphe, et donc une forme modulaire de poids
nul et donc constante par ce qui précède. Ainsi, toute forme modulaire f non
nulle de poids 4 engendre la droite vectorielle des formes modulaires de poids 4.

Commentaires.
© Ce développement s’intéresse à un espace de fonctions très important dans les
mathématiques actuelles et peu illustré dans le cadre de l’agrégation : les formes
modulaires, omniprésentes en théorie des nombres et dans de nombreux domaines
connexes. Ce sont des fonctions holomorphes ayant de fortes propriétés de symétrie,
et ces contraintes font qu’elles forment des espaces de petites dimensions, ce que
l’exercice propose d’établir.
© La preuve exploite les résultats classiques de théorie des fonctions analytiques
qui doivent apparaître dans le plan des leçons d’analyse complexe : théorème des
résidus, principe des zéros isolés, et théorème d’intégration sur les petits arcs. Ce
dernier est un peu moins classique mais fort utile. En voici l’énoncé :

Soit p ∈ C. Soient θ ∈ [0, 2π] et ε > 0. Soit un arc ` d’écart angulaire


θ du cercle ∂D(p, ε) et une fonction holomorphe f définie au voisinage
de `. Alors, lorsque ε tend vers zéro, on a

1 f0 θ
Z
−→ vp (f ).
2iπ ` f ε→0 2π

Ce résultat est utile mais non nécessairement inclus dans toutes les leçons d’analyse
complexe ; il est donc naturel qu’un examinateur consciencieux en demande des
éclaircissements. Notons que si le cercle est entier, i.e. si θ = 2π, on retrouve bien
le résultat donné par le théorème des résidus, sans même faire tendre ε vers zéro :
il suffit qu’il soit assez petit pour que f n’ait pas d’autre zéro dans le disque. La
preuve de la formule d’intégration sur les petits angles se déroule comme suit.
Pour p ∈ C, il existe un voisinage de p dans lequel f s’écrit f (z) = (z − p)k g(z)
avec g holomorphe et g(p) 6= 0. En paramétrant l’arc de cercle ` par `(t) = p + εeit

481
81. Espace des formes modulaires

pour t variant dans un intervalle de longueur θ, l’intégrale devient


1 f0 1 k 1 g0
Z Z Z
= + .
2iπ ` f 2iπ ` z − p 2iπ ` g
La première intégrale vaut kθ/2π. Quant à la seconde, puisque g est holomorphe
et sans zéro dans le disque D(p, ε) pour ε assez petit, g 0 /g est bornée, donc son
intégrale tend vers zéro lorsque la taille du domaine d’intégration tend vers zéro.
© La formule des ordres (2) permet de déterminer la dimension de tous les espaces
Mk avec les mêmes arguments que pour la question c). Une fois exhibées quelques
formes modulaires construites explicitement, les majorations obtenues permettent
de conclure que

0

 si k ∈/ 2N
dim Mk = bk/12c si k ≡ 2 mod 12
 bk/12c + 1 si k ≡

6 2 mod 12

En particulier, c’est un bon exercice de vérifier que les cas des dimensions 6, 8 et 10
se traitent avec le même argument que pour la question c). À partir de la dimension
12, il existe des formes modulaires dont la limite est nulle en l’infini (ce sont des
formes cuspidales). En notant ∆ l’une de celles de poids 12 (traditionnellement, la
forme modulaire de Ramanujan), on peut alors prouver que Mk = C∆ ⊕ Mk−12 ,
pour tout k > 0 pair, permettant de conclure la preuve de la formule ci-avant
(voir questions).
© Soit k ∈ 2N. Nous pouvons exhiber une forme modulaire de poids k. En
effet, une démarche naturelle pour obtenir une fonction SL2 (Z)-invariante est de
moyenner une fonction sur SL2 (Z). Ce faisant, en choisissant la fonction Im(z)k
pour tout k > 4, on obtient essentiellement

(mz + n)−k .
X
Ek (z) =
(m,n)∈Z2
(m,n)6=(0,0)

Il s’agit de la série d’Eisenstein de poids k. On peut montrer que E4 et E6 sont


algébriquement indépendantes et engendrent (algébriquement) toutes les formes
modulaires. Autrement dit, M := ⊕k Mk = C[E4 , E6 ].
© Il est bon de connaître des exemples de situations où les formes modulaires
peuvent apparaître. Considérons par exemple le problème suivant : un théorème
de Lagrange énonce que tous les entiers positifs peuvent s’écrire comme somme de
quatre carrés. Une question naturelle est de savoir combien de telles décompositions
existent pour un entier n > 0 donné ; notons r(n) ce nombre. Dans ce cas, on peut
montrer que la fonction génératrice définie par, pour z ∈ H,
X
θ(z) = r(n)e2iπnz ,
n>0

est une forme modulaire de poids 2, avec une limitation dans l’équation (1) :
elle n’est pas invariante pour toutes les matrices de SL2 (Z) mais seulement pour

482
Analyse classique et complexe

celles triangulaires supérieures modulo 4. Le même schéma de preuve permet de


déterminer la dimension de l’espace de ces formes modulaires, qui est égale à 1.
La construction explicite d’une autre forme modulaire de cette droite vectorielle
permet donc de déterminer à une constante près θ. Sachant que r(1) est égal à 8,
donc de déterminer ses coefficients, et ainsi de trouver la formule de Jacobi :
X
r(n) = 8 d, n > 1.
d|n
4-d

Aucune preuve connue de ce résultat n’évite le recours aux formes modulaires.


© Les formes modulaires sont fondamentales dans de nombreuses branches des
mathématiques, en particulier en théorie des nombres. Pour aller plus loin avec
ces magnifiques objets, on pourra consulter le livre introductif de [Iwa97].

Questions.
1. Montrer que les ordres vp (f ) sont finis.
2. Rappeler pourquoi f est entièrement déterminée par son image sur D.
3. Sans intégration sur les petits arcs, calculer ` dz
R
z lorsque ` est un arc de cercle.
Indication : on pourra paramétrer l’arc de cercle en coordonnées polaires.
4. Donner une valeur explicite pour le η considéré à la question b)(iii).
5. Montrer que les zéros de f avec multiplicités sont les pôles de f 0 /f avec résidus.
6. Si f est une forme modulaire et a ∈ C, f − a est-elle une forme modulaire ?
7. Quelle est la valeur de dim Mk lorsque k < 0 ? lorsque k = 5 ?
8. Supposons que f ait un zéro sur le contour. Comment adapter la preuve ?
9. Pourrait-on conclure si les fonctions étaient supposées méromorphes ?
10. Montrer qu’une fonction vérifiant f (z + 1) = f (z) et f (−1/z) = f (z) pour
tout z ∈ H vérifie également l’équation (1).
11. En admettant l’existence d’une forme modulaire ∆ de poids 12 dont la limite
est nulle en l’infini, montrer que Mk = C∆ ⊕ Mk−12 .
12. Justifier la convergence de la série d’Eisenstein Ek (z), considérée dans les
commentaires, pour tout k > 4. Quelle est sa limite lorsque z tend vers l’infini
selon l’axe des ordonnées ?

483
Intégration et approximation
de fonctions

C’est au milieu du XIXe siècle que Riemann introduit la notion d’intégration si


centrale en analyse, donnant un fondement solide aux idées déjà utilisées par
Leibniz et Newton. L’intégration (Dév. 82, 83, 84) apparaît alors à la fois comme
un procédé de sommation infinitésimale et comme l’opération réciproque de la
dérivation.
Il faut attendre Lebesgue, au début du XXe siècle, pour voir apparaître une
construction plus robuste de l’intégration, fondée sur la notion de mesure et
évitant les nombreuses pathologies de l’intégration de Riemann. La voie est alors
ouverte pour l’utilisation de l’intégration dans de nombreux contextes, notamment
par l’introduction des premières transformations intégrales (Dév. 86, 87). L’intérêt
de telles transformations est de donner un outil pour rendre une fonction plus
lisse en considérant sa moyenne contre une certaine distribution ; il reste alors à
retrouver des propriétés de la fonction originale à partir de propriétés (souvent
bien meilleures) de sa transformée (Dév. 85).
L’approximation de fonctions, une problématique centrale en analyse, est égale-
ment l’un des grands succès de la théorie de l’intégration, qui fournit de nombreux
moyens d’approcher une fonction par une fonction plus lisse obtenue par des
procédés de convolution (Dév. 88, 89). Plus généralement, la question de l’approxi-
mation dépend du critère choisi : la convolution permet de lisser une fonction,
l’approchant par une suite de fonctions plus régulières ; parfois, il est préférable
d’approcher une fonction déjà régulière par une suite de fonctions plus simples,
et un intérêt particulier est alors porté aux approximations par des polynômes
(Dév. 90), idée déjà présente dans les développements limités. On obtient alors des
suites de fonctions approchantes particulièrement bien connues, mais il est difficile
de garantir l’existence de telles approximations sur toute la longueur d’un segment
(Dév. 92). Certains procédés constructifs sont très efficaces algorithmiquement
et très utilisés en pratique, mais présentent parfois des points de divergence
(Dév. 91) menant à arbitrer entre les différentes méthodes disponibles en fonction
de l’objectif recherché.
Intégration et approximation de fonctions

Développement 82 (Calcul des intégrales de Fresnel F)

On cherche à calculer les intégrales de Fresnel


Z +∞   Z +∞  
2
sin t dt et cos t2 dt.
0 0

Z +∞ iu
e
a) Montrer que l’intégrale définie par I = √ du converge, puis que
Z +∞ 0 u
2
l’intégrale J = e2iπs ds converge.
−∞
b) Soit f : R → C la fonction 1-périodique vérifiant :
2
∀x ∈ [0, 1[ , f (x) = e2iπx .

Montrer que f est somme de sa série de Fourier et que pour tout n ∈ Z


le n-ième coefficient de Fourier de f est donné par
2
Z − n +1
−iπ n2 2 2
cn (f ) = e e2iπs ds.
−n
2

c) Calculer J, puis montrer que les intégrales de Fresnel sont convergentes et


donner leur valeur.

Leçons concernées : 209, 228, 230, 235, 236, 239, 241, 245, 246

Ce développement propose une méthode de calcul des intégrales de Fresnel à l’aide


d’intégrales impropres semi-convergentes. Ce type d’intégrales, défini dans le cadre
de la théorie de l’intégration de Riemann pour des fonctions d’une variable réelle,
est souvent étudié à l’aide d’intégrations par parties et de changements de variables.
C’est le cas ici, ce qui fait du développement une bonne illustration des leçons 228
et 236. L’utilisation des séries de Fourier pour calculer la valeur de l’intégrale J
justifie par ailleurs le placement du développement dans les leçons associées à ces
séries, c’est-à-dire les leçons 209, 230, 241 et 246.
On propose en commentaire plusieurs autres méthodes de calcul des intégrales de
Fresnel. L’une d’elles repose sur l’étude d’une intégrale à paramètre et illustre les
leçons 235, 236 et 239. L’autre consiste en un calcul d’intégrale sur un contour et
utilise des arguments d’holomorphie élémentaires, ce qui en fait un développement
très abordable pour la leçon 245.

Correction.
a) Démontrons la convergence de l’intégrale I. La fonction u 7→ eiu u−1/2 étant
continue sur ]0, +∞[, il s’agit de démontrer la convergence des intégrales
Z 1 iu Z +∞ iu
e e
I1 = √ du et I2 = √ du.
0 u 1 u

487
82. Calcul des intégrales de Fresnel

1
Comme u 7→ √ est intégrable sur ]0, 1], la majoration
u

eiu 1
√ 6√
u u

valable pour tout u ∈ ]0, 1] montre que l’intégrale I1 converge.


Considérons à présent A > 1. En dérivant la fonction u 7→ √1 de classe C 1 sur
u
le segment [1, A] et en primitivant la fonction continue u 7→ eiu , on obtient par
intégration par parties :
Z A iu
eiA ei
Z A iu
e 1 e
√ du = √ − + du. (1)
1 u i A i 2i 1 u3/2

eiA eiu
Or √ tend vers 0 lorsque A tend vers l’infini, et la fonction u 7→ 3/2 , bornée
i A u
par u 7→ u−3/2 sur [1, +∞[, y est intégrable, si bien que les termes de l’égalité (1)
admettent une limite finie lorsque A tend vers l’infini, c’est-à-dire que l’intégrale I2
converge. On en déduit la convergence de l’intégrale I.
Démontrons à présent la convergence de l’intégrale J. Le changement de variable
défini par Ru = 2πs2 est un C 1 -difféomorphisme de ]0, +∞[ sur ]0, +∞[, donc
2
l’intégrale 0+∞ e2iπs ds est de même nature que

eiu
Z +∞
1
√ √ du = √ I,
0 2 2π u 2 2π
2
qui converge. Ainsi, 0+∞ e2iπs ds converge et donc, par parité de la fonction
R
2
x 7→ e2iπs , J converge également.
b) La fonction f est continue sur R et de classe C 1 par morceaux, donc la série
de Fourier de f converge normalement vers f sur R.
Calculons maintenant les coefficients de Fourier de f . Pour tout n ∈ Z, on a :
Z 1
2
cn (f ) := e2iπx e−2iπnx dx
0
Z 1
2 −nx)
= e2iπ(x dx
0
 
Z 1 2 n2
2iπ (x− n
2)
− 4
= e dx
0
Z 1
n2 n 2
= e−iπ 2 e2iπ(x− 2 ) dx.
0
n
Le changement de variable affine s = x − 2 dans la dernière intégrale donne alors
2
Z − n +1
−iπ n2 2 2
cn (f ) = e e2iπs ds,
−n
2

488
Intégration et approximation de fonctions

qui est la relation attendue.


c) Pour tout k ∈ Z, on a
Z −k+1
2
c2k (f ) = e2iπs ds
−k
P
d’après la question précédente. Comme l’intégrale J converge, la série k∈Z c2k (f )
converge également et on a :

+∞ +∞ Z −k+1
X X 2
c2k (f ) = e2iπs ds = J.
k=−∞ k=−∞ −k

Par ailleurs, f est la somme de sa série de Fourier, donc :

+∞
X
∀x ∈ R, f (x) = cn (f )e2iπnx .
n=−∞

En évaluant cette égalité en x = 0 et x = 12 , on obtient

+∞ +∞
1
X   X
f (0) = cn (f ) et f = cn (f )(−1)n .
n=−∞
2 n=−∞

On en déduit que
 
+∞ 1
X 1 +∞
X f (0) + f 2
J= c2k (f ) = cn (f )(1 + (−1)n ) = ,
k=−∞
2 n=−∞ 2

soit Z +∞
2 1+i
e2iπs ds = .
−∞ 2
En identifiant les parties réelles et imaginaires dans l’égalité ci-avant et en utilisant
la parité des fonctions t 7→ sin(t2 ) et t 7→ cos(t2 ), on trouve
Z +∞ Z +∞
1 1
sin 2πs2 ds = cos 2πs2 ds = .
 
et
0 4 0 4

Il suffit pour conclure d’utiliser le changement de variable linéaire t = 2πs, qui
conserve la nature des intégrales et permet d’écrire
Z +∞ r Z +∞ r
2 1 π 2 1 π
sin t dt = et cos t dt = .
0 2 2 0 2 2

489
82. Calcul des intégrales de Fresnel

Commentaires.
© On peut calculer les intégrales de Fresnel en étudiant une intégrale à paramètre,
comme nous le détaillons ci-après. Cette méthode permet d’illustrer les leçons
235, 236 et 239.
2 2
e−(u +i)t
Pour tout t ∈ R+ , la fonction u 7→ u2 +i
est intégrable sur R+ puisqu’elle est
continue en 0 et puisque
2 2
e−(u +i)t 1
6√ (2)
u2 + i u4 +1

pour tout u > 0.


On définit alors la fonction
f : R+ −→ C
Z +∞ −(u2 +i)t2
e
t 7−→ du
0 u2 + i

et on raisonne en quatre étapes :

1. On montre que f est continue sur R+ et on détermine sa limite en +∞.


2. On montre que f est de classe C 1 sur R∗+ .
3. On simplifie l’expression (3) et on l’intègre de 0 à +∞ pour obtenir une
nouvelle forme des intégrales de Fresnel.
4. On calcule enfin les intégrales obtenues.

La preuve détaillée se présente comme suit :


1. La continuité de f résulte du théorème de continuité des intégrales à para-
mètres, en vertu de la majoration (2), indépendante de t. Par ailleurs, le
théorème de convergence dominée et la même majoration (2) donnent

lim f (t) = 0.
t→+∞

2 2
e−(u +i)t
2. Soient a, b ∈ R tels que 0 < a < b. Si u ∈ R+ , la fonction t 7→ u2 +i
est
2 2
de classe C1 sur ]a, b[ et sa dérivée en t ∈ ]a, b[ est −2te−(u +i)t , mais
2 +i)t2 2 a2
−2te−(u 6 2be−u

2 a2
et u 7→ 2be−u est intégrable sur R+ , donc la fonction f est bien de classe C 1
sur ]a, b[ et
Z +∞
0 −it2 2 t2
f (t) = −2te e−u du (3)
0

pour tout t ∈ ]a, b[. Comme a et b sont quelconques, f est bien de classe C 1
sur R∗+ , et sa dérivée sur cet intervalle est donnée par (3).

490
Intégration et approximation de fonctions

3. Si t ∈ R∗+ , le changement de variable s = tu donne


Z +∞
0 −it2 2
f (t) = −2e e−s ds,
0

soit
√ 2
f 0 (t) = − πe−it (4)
puisque
Z +∞
2
Z +∞
2 √
2 e−s ds = e−s ds = π
0 −∞

est l’intégrale de Gauss.


On intègre alors l’égalité (4) sur ]0, +∞[ en utilisant la continuité de f en 0
et le fait que la limite de f en +∞ est 0, pour obtenir

√ Z +∞ 2
Z +∞
− π e−it du = f 0 (t)dt
0 0
= 0 − f (0)
Z +∞
1
=− du
0 u2 +i
soit
√ Z +∞
−it2
Z +∞
1
π e du = du.
0 0 u2 + i
Or on a
1 u2 − i
=
u2 + i u4 + 1
pour tout u > 0, donc
Z +∞ +∞
1 1
Z
2
e−it du = √ 2
du
0 π 0 u +i
u2
Z +∞ Z +∞
1 i 1
=√ 4
du − √ 4
du.
π 0 u +1 π 0 u +1

En identifiant les parties réelle et imaginaire de cette égalité, on a donc

u2
Z +∞ Z +∞
1
cos(t2 )du = √ du (5)
0 π 0 u4 + 1

et Z +∞ Z +∞
1 1
− sin(t2 )du = − √ du,
0 π 0 u4 +1
soit Z +∞ Z +∞
1 1
sin(t2 )du = √ du. (6)
0 π 0 u4 +1

491
82. Calcul des intégrales de Fresnel

4. On note
u2
Z +∞ Z +∞
1
A= du et B= du.
0 u4 + 1 0 u4 + 1
1
Le changement de variable v = u assure que

u2
Z +∞ Z +∞
1
A= du = dv = B.
0 u4 + 1 0 v4 + 1

Par ailleurs, la décomposition en éléments simples de la fraction rationnelle


X2 + 1
dans R montre que
X4 + 1

u2 + 1 1 1 1
 
4
= √ + √
u +1 2 u2 − 2u + 1 u2 + 2u + 1

pour tout u > 0, et donc

1 h √ √ i+∞ π
A + B = √ arctan( 2u − 1) + arctan( 2u + 1) =√ .
2 0 2
π
On a donc A = B = √ , et les égalités (5) et (6) donnent alors
2 2
Z +∞ Z +∞ r
2 2 1 π
cos(t )du = sin(t )du = .
0 0 2 2

© Une autre méthode pour calculer les intégrales de Fresnel passe par le calcul de
l’intégrale d’une fonction holomorphe sur un contour. On la présente ci-après sous
une forme susceptible de constituer un développement pour les leçons 236 et 245.
Soit R > 0. On considère le lacet dans C formé par la juxtaposition du segment
menant de 0 à R, de l’arc de cercle de centre 0 allant de R à √12 (1 + i)R et du
segment de √1 (1 + i)R à 0. Ce lacet est représenté sur la figure 2.35.
2

π
4
0 R

2
Figure 2.35 – Contour utilisé pour l’intégration de la fonction z 7→ e−z .

492
Intégration et approximation de fonctions

2
La fonction z 7→ e−z étant holomorphe sur C, le théorème intégral de Cauchy
assure que son intégrale sur le lacet considéré est nulle, c’est-à-dire que
Z R π Z R  π
2
− ei 4 t
Z
−t2 4
−R2 e2it i π4
e dt + iReit e dt − e e dt = 0,
0 0 0

soit Z R Z π Z R
2 4 2 e2it π 2
e−t dt + iReit e−R dt − ei 4 e−it dt = 0.
0 0 0
On a donc
π
Z R Z R Z !
−it2 −i π4 −t2 4
it −R2 e2it
e dt = e e dt + iRe e dt . (7)
0 0 0

Or pour tout t ∈ 0, π4 ,
 

2 e2it 2
iReit e−R 6 Re−R cos(2t)

et
2
2t 6 cos(2t) 1−
π
car cos est concave sur 0, π2 , si bien que
 

Z π Z π
4 2 e2it 4 2
iReit e−R dt 6 Re−R cos(2t)
dt
0 0
Z π
4 2 (1− 2 2t)
6 Re−R π dt
0
π
4R2
Z
4
−R2 t
= Re e π dt
0

π 4R2 t

2 4
= Re−R e π
4R2 0
π −R2  R2 
= e e −1
4R 
π 2

= 1 − e−R
4R
et donc Z π
4 2 e2it
iReit e−R dt −−−−−→ 0.
0 R→+∞

Par ailleurs, on sait que


Z +∞ Z +∞ √
−t2 1 −t2 π
e dt = e dt =
0 2 −∞ 2
2
par parité de la fonction t 7→ e−t . En passant à la limite R → +∞ dans (7), on
obtient donc Z +∞ √
−it2 −i π4 π
e dt = e ,
0 2

493
82. Calcul des intégrales de Fresnel

soit Z +∞
1−i π
r
−it2
e dt = .
0 2 2
On trouve alors les valeurs des intégrales de Fresnel en considérant les parties
réelle et imaginaire des termes de cette égalité.
© Le changement de variable effectué à la fin de la question a) permet d’obtenir
1
la relation J = √ I. Or I est elle-même calculable grâce à une méthode donnée

dans l’exercice 4 de la page 164 de [Gou20] et consistant à exprimer une intégrale
à paramètre comme la solution d’une équation différentielle.
© La convergence de I peut être vue comme une conséquence de la règle d’Abel
pour les intégrales impropres, dont voici l’énoncé :

Si f : R+ → R+ est une fonction continue par morceaux, décroissante


et de limite nulle en l’infini, et si gR : R+ → C est une fonction continue
par morceaux telle que l’intégrale 0x g(t)dt est bornée indépendamment
de x ∈ R+ , alors l’intégrale
Z +∞
f (t)g(t)dt
0

est convergente.

© On trouvera dans l’exercice 5 page 342 de [Gou20] une autre méthode de calcul
des intégrales de Fresnel, utilisant les coordonnées polaires et la convergence en
moyenne de Cesàro.

Questions.
1. Justifier que le changement de variable u = 2πs2 utilisé dans la première
question est bien un difféomorphisme de classe C 1 de ]0, +∞[.
2. Justifier que f est continue et de classe C 1 par morceaux.
3. Rappeler pourquoi la série de Fourier d’une fonction 1-périodique continue de
classe C 1 par morceaux est normalement convergente.
4. Justifier que si ϕ est un C 1 -difféomorphisme de ]0, +∞[, alors les intégrales
Z +∞ Z +∞
f (ϕ(t))ϕ0 (t)dt et f (t)dt
0 0

sont de même nature.


X2 + 1
5. Détailler la décomposition en éléments simples de la fraction rationnelle
X4 + 1
dans R.
1
6. Rappeler comment s’effectue le calcul d’une primitive de u 7→ au2 +bu+c
lorsque
les coefficients a, b, c ∈ R sont tels que b2 − 4ac < 0.
1
7. Rappeler comment s’effectue le calcul d’une primitive de u 7→ (au2 +bu+c)n
lorsque a, b, c ∈ R sont tels que b2 − 4ac < 0 et lorsque n ∈ N∗ .

494
Intégration et approximation de fonctions

8. Détailler l’utilisation faite en commentaire de la concavité de cos sur 0, π2 .


 

9. Grâce à une intégrale de contour, montrer que si β ∈ C est tel que Re(β) ∈ [0, 1[
alors  
Z +∞
2 π Γ β+1
2
tβ e−it dt = e−i 4 (β+1) ,
0 2
où Γ est la fonction gamma d’Euler.
10. Démontrer la règle d’Abel pour les intégrales énoncée en commentaire, et
détailler son application à la convergence de I.
Indication : on pourra utiliser le critère de Cauchy pour démontrer la règle d’Abel.
Rx
11. Donner un développement asymptotique de la fonction x 7→ 0 sin(t2 ) dt et
de la fonction x 7→ 0x cos(t2 ) dt lorsque x tend vers +∞.
R

Indication : on pourra écrire


Z x Z +∞ Z +∞
sin(t2 ) dt = sin(t2 ) dt − sin(t2 ) dt
0 0 x

pour tout x > 0, puis réaliser deux intégrations par parties.


R +∞
12. L’intégrale 0 cos(x2 )dx converge-t-elle absolument ?

495
83. Racine carrée de la primitivation

Développement 83 (Racine carrée de la primitivation F)

Pour f ∈ C([0, 1], R), on note

I(f ) : ]0, 1] −→ R r Z 1
x f (ux)
x 7−→ I(f )(x) = √ du.
π 0 1−u
a) Montrer que si f ∈ C([0, 1], R), alors I(f ) est bien définie, est continue et
admet un prolongement par continuité en 0, encore noté I(f ) ∈ C([0, 1], R).
b) Montrer que I est une racine carrée de la primitivation, au sens où
Z x
∀x ∈ [0, 1], ∀f ∈ C([0, 1], R), I(I(f ))(x) = f (t) dt.
0

Leçons concernées : 207, 208, 209, 236, 239, 265

Ce développement utilise la densité de l’espace des fonctions polynomiales dans


l’espace des fonctions continues C([0, 1], R) pour démontrer que le carré d’une
certaine application linéaire sur C([0, 1], R) est un opérateur de primitivation. Du
fait des arguments de densité et de continuité sur lesquels il repose, il trouve sa
place en tant qu’illustration des leçons 208 et 209. En formulant ces arguments
comme un résultat d’unicité du prolongement par continuité d’une fonction conti-
nue sur une partie dense, on peut utiliser ce développement dans la leçon 207
sur le prolongement de fonctions, en remarquant par ailleurs qu’un prolongement
par continuité est nécessaire pour définir l’opérateur considéré comme un endo-
morphisme. La méthode proposée fait apparaître les fonctions spéciales bêta et
gamma, ce qui justifie l’utilisation de ce développement dans la leçon 265. Dans
une moindre mesure, ce développement peut figurer dans la leçon 239 en tant
qu’application du théorème de continuité des intégrales à paramètres. Enfin, on
donne en commentaire une seconde méthode qui utilise plusieurs techniques de
calcul d’intégrales simples et multiples abordées dans la leçon 236.

Correction.
f (ux)
a) Soit f ∈ C([0, 1], R). Pour tout x ∈ ]0, 1] , la fonction u 7→ √
1−u
est continue
kf k∞
sur [0, 1] et dominée par la fonction u 7→ √ ,
qui est continue, intégrable sur
1−u
l’intervalle [0, 1[ et indépendante de x. Le théorème de continuité des intégrales à
paramètres implique donc que la fonction

ϕ : [0, 1] −→ R
Z 1
f (ux)
x 7−→ √ du
0 1−u

est continue sur [0, 1]. La fonction I(f ) est donc continue sur ]0, 1].
Comme ϕ est continue en 0, ϕ est bornée au voisinage de 0, d’où
r
x
I(f )(x) = ϕ(x) −−−→ 0.
π x→0

496
Intégration et approximation de fonctions

La fonction I(f ) peut donc être prolongée par continuité en 0 par I(f )(0) = 0.
b) L’application
I : C([0, 1], R) −→ C([0, 1], R)
f 7−→ I(f )

est linéaire. De plus, elle est continue pour la norme k · k∞ : en effet, pour toute
fonction f ∈ C([0, 1], R) et pour tout x ∈ [0, 1], on a par l’inégalité triangulaire
Z 1
1 kf k
|I(f )(x)| 6 √ √ ∞ du.
π 0 1−u

La composée I ◦I est donc elle aussi linéaire et continue, de même que l’application

F : C([0, 1], R) −→ C([0, 1], R)


 Z x 
f 7−→ x 7→ f (t)dt .
0

Pour établir que I ◦ I = F , il suffit alors de montrer que I ◦ I et F coïncident


sur l’ensemble des fonctions polynomiales sur [0, 1] à coefficients réels, qui est
dense dans C([0, 1], R) par le théorème de Stone-Weierstrass. Par linéarité de la
composée I ◦ I et de F , il est en fait suffisant de montrer que ces applications
coïncident sur l’ensemble des fonctions monomiales sur [0, 1], qui forment une
base de l’espace des fonctions polynomiales sur [0, 1].

Soit k ∈ N et soit P ∈ C([0, 1], R) défini par P : x 7→ xk . Alors

x 1 P (ux)
r Z
∀x ∈ [0, 1], I(P )(x) = √ du
π 0 1−u
(ux)k
r Z 1
x
= √ du
π 0 1−u
1 k+ 1 1 uk
Z
=√ x 2 √ du
π 0 1−u
1 1
= √ bk xk+ 2 ,
π

uk
Z 1
où l’on a posé bk = √ du. On peut alors donner l’expression de I(I(P )) :
0 1−u
r Z 1
x I(P )(ux)
∀x ∈ [0, 1], I(I(P ))(x) = √ du
π 0 1−u
1
1 1 uk+ 2 Z
= bk xk+1 √ du
π 0 1−u
1
= bk ck xk+1 , (1)
π

497
83. Racine carrée de la primitivation

Z 1 k+ 1
u 2
où l’on a posé ck = √ du. Or on a
0 1−u
Z 1  Z 1 
k −1/2 k+ 21 −1/2
bk ck = u (1 − u) du u (1 − u) du
0 0
1 3 1
   
= B k + 1, B k+ , ,
2 2 2
où B est la fonction bêta définie sur {z ∈ C : Re(z) > 0}2 par
Z 1
B(α, β) = tα−1 (1 − t)β−1 dt. (2)
0

Une formule classique (voir les commentaires suivant le développement) donne :


Γ(α)Γ(β)
∀α, β ∈ {z ∈ C : Re(z) > 0}2 , B(α, β) =
Γ(α + β)
où Γ est la fonction gamma d’Euler. Par suite :
1 3 1
   
bk ck = B k + 1, B k+ ,
2 2 2
     
1 3 1
Γ(k + 1)Γ 2 Γ k+ 2 Γ 2
=   ·
Γ k+ 3 Γ(k + 2)
2
 2
1 Γ(k + 1)
=Γ .
2 Γ(k + 2)
  √
En utilisant le fait que Γ 21 = π et la relation Γ(z + 1) = zΓ(z) valable pour
π
tout z ∈ C tel que Re(z) > 0, il vient bk ck = k+1 . Ainsi (1) donne :

xk+1
Z x
I(I(P ))(x) = = tk dt = F (P )(x)
k+1 0

pour tout x ∈ [0, 1], d’où I(I(P )) = F (P ), ce qu’il fallait démontrer.

Commentaires.
© On montre dans cet exercice que l’opération de primitivation possède une
racine carrée au sens de la composition. Il est intéressant de noter qu’il n’en est
pas de même pour l’opérateur de dérivation D ∈ L(C ∞ ([0, 1], R)). En effet, si
l’application T ∈ L(C ∞ ([0, 1], R)) est telle que T ◦ T = D, alors T et D commutent
et donc, en identifiant le polynôme aX + b et la fonction polynomiale associée sur
le segment [0, 1], D(T (aX + b)) = T (D(aX + b)) = T (a) pour tous a, b ∈ R, si
bien que la fonction T (aX + b) est de dérivée constante et est donc dans R1 [X].
Dans ce cas, l’application T induit donc un endomorphisme sur R1 [X], dont le
carré est la dérivation sur R1 [X]. Il suffit alors de remarquer que la matrice de la
dérivation dans la base canonique de R1 [X] n’est pas un carré pour obtenir une
contradiction !

498
Intégration et approximation de fonctions

© La relation
Γ(α)Γ(β)
∀α, β ∈ {z ∈ C : Re(z) > 0}2 , B(α, β) =
Γ(α + β)

entre les fonctions spéciales bêta et gamma se démontre en écrivant


Z +∞ Z +∞
Γ(α)Γ(β) = tα−1 e−t dt uβ−1 e−u du
0 0
Z +∞ Z +∞
α−1 β−1 −(t+u)
= t u e dtdu
0 0
Z +∞ Z 1
= | − x|xα−1 y α−1 xβ−1 (1 − y)β−1 e−x dydx
0 0
Z +∞ Z 1
= | − x|xα−1 y α−1 xβ−1 (1 − y)β−1 e−x dydx
0 0
Z +∞ Z 1
= xα+β−1 e−x y α−1 (1 − y)β−1 dydx
0 0
Z +∞  Z 1 
= xα+β−1 e−x dx y α−1 (1 − y)β−1 dy
0 0
= Γ(α + β)B(α, β)

grâce au changement de variables



=t+u  x
(
t = xy
pour x ∈ ]0, +∞[ et y ∈ ]0, 1[, d’inverse t
u = x(1 − y)  y =
t+u
et de déterminant jacobien égal à −x, et grâce au théorème de Fubini-Tonelli.
© On peut traiter la question b) par un calcul direct — on privilégiera d’ailleurs
cette méthode si le développement est présenté dans le cadre de la leçon 236
portant sur les techniques de calcul d’intégrales.
On remarque tout d’abord que si f ∈ C 0 ([0, 1], R) et x ∈ ]0, 1], le changement de
variable linéaire t = ux donne
Z x
1 f (t)
I(f )(x) = √ √ dt.
π 0 x−t

Soit à présent f ∈ C 0 ([0, 1], R). On a montré dans la question a) que I(f ), après
prolongement par continuité, est continue sur [0, 1]. La fonction I(I(f )) existe
donc. Soit à présent x ∈ ]0, 1]. Alors :

1 x I(f )(t)
Z
I(I(f ))(x) = √ √ dt
π 0 x−t
Z x Z t
1 1 1 f (u)
 
=√ √ √ √ du dt
π 0 x−t π 0 t−u
1 x t f (u)
Z Z
= √ √ du dt.
π 0 0 x−t t−u

499
83. Racine carrée de la primitivation

Notons Tx le triangle Tx = {(u, t) ∈ R2 : 0 < u < t < x}. La fonction

Hx : Tx −→ R
f (u)
(u, t) 7−→ √ √
x−t t−u
est continue sur Tx . Par ailleurs, on a la majoration :

kf k∞
∀(u, t) ∈ R2 , |Hx (u, t)| 6 √ √ .
x−t t−u

Enfin, la fonction (t, u) 7→ √ kf k√



est intégrable sur Tx car l’intégrale double
x−t t−u
Z xZ t Z x t
1 1 1
Z 
√ √ du dt = √ √ du dt
0 0 x−t t−u 0 x−t 0 t−u
Z x Z t
1 1

0
= √ √ du dt
0 x − t 0 u0
Z x √
2 t
= √ dt
0 x−t

2 x − t0 0
Z x
= √ dt
0 t0
converge (on a effectué les changements de variable u0 = t − u et t0 = x − t). La
fonction Hx est donc intégrable sur Tx et le théorème de Fubini-Lebesgue donne

1 x x f (u)
Z Z 
I(I(f ))(x) = √ √ dt du
π 0 u x−t t−u
Z x Z x
1 1

= f (u) √ √ dt du. (3)
π 0 u x−t t−u
Z x
1
Si u ∈ ]0, x[, l’intégrale √ √ dt peut se calculer à l’aide du change-
u x−t t−u
ment de variable affine
x−u x+u
t= z+
2 2
avec z ∈ ] − 1, 1[. On a alors
 x−u

 dt = dz


 2
x−u


x−t = (1 − z)

 2
x−u



 t−u =

(1 + z)
2
et donc
Z x Z 1 x−u Z 1
1 2 qdz dz
√ √ dt = q = √ .
u x−t t−u −1 x−u
(1 − z) x−u (1 + z) −1 1 − z2
2 2

500
Intégration et approximation de fonctions

Enfin :
Z 1 Z r
dz dz
√ = lim √ = lim [arcsin(z)]r−r = π.
−1 1 − z 2 r→1− −r 1 − z 2 r→1−
On déduit donc de (3) que
Z x
I(I(f ))(x) = f (u) du.
0

Cette relation reste clairement vraie pour x = 0, d’où le résultat.

Questions.
1. Que vaut ϕ(0) ?
2. Justifier que l’application f 7→ I(f ) de C([0, 1], R) dans lui-même est linéaire.
3. Justifier que F est continue.
4. Quelle est la norme d’opérateur de I (c’est-à-dire sa norme subordonnée à la
norme k · k∞ sur C([0, 1], R)) ?
5. Montrer que le prolongement par continuité I(f ) n’est pas dérivable en 0
lorsque f (0) 6= 0. Lorsque f (0) = 0, montrer que I(f ) peut être dérivable ou non,
selon les cas.
6. Lorsque f ∈ C 1 ([0, 1], R), justifier que I(f ) est dérivable sur ]0, 1] et calculer sa
dérivée.
7. Montrer que la quantité B(α, β) donnée par (2) est bien définie pour tous
complexes α, β ∈ C tels que Re(α) > 0 et Re(β) > 0.
  √
8. Justifier que Γ 21 = π.
9. Justifier que la matrice dans la base canonique de R1 [X] de l’opérateur de
dérivation n’est pas un carré.
10. Montrer que le changement de variable t = xy, u = x(1 − y) utilisé en com-
mentaire pour démontrer la relation entre les fonctions bêta et gamma correspond
bien à un C 1 -difféomorphisme de déterminant jacobien égal à x.
Z x√
x − t0 0
11. Justifier la convergence de l’intégrale √ dt lorsque x ∈ ]0, 1].
0 t0

501
84. Méthode de la phase stationnaire

Développement 84 (Méthode de la phase stationnaire F)

a) Soient S un segment de R et φ ∈ Cc∞ (R) tel que supp(φ) ⊂ S. Pour tout


nombre réel λ > 0, on définit
Z
IS,φ (λ) = eiλφ(x) dx.
S

(i) Supposons qu’il existe c, C > 0 tels que |φ0 | > c et |φ00 | 6 C sur S. On
note |S| la longueur de S. Montrer que, pour tout λ > 0,

1 1 C
  
|IS,φ (λ)| = O + |S| , lorsque λ → +∞.
λ c c2

(ii) Supposons que |φ0 | > c et φ0 monotone. Montrer que, pour tout λ > 0,

1
 
|IS,φ (λ)| = O , lorsque λ → +∞.

(iii) Supposons que |φ(k) | > c pour un k > 1. Montrer que, pour tout λ > 0,
!
1
|IS,φ (λ)| = O , lorsque λ → +∞.
(cλ)1/k

b) Soit f, φ ∈ Cc∞ (R). Introduisons, pour tout λ > 0,


Z
If,φ (λ) = f (x)eiλφ(x) dx.
R

Supposons que φ0 ne s’annule pas sur supp(f ). Montrer que pour tout N > 0,
 
|If,φ (λ)| = O λ−N , lorsque λ → +∞.

Leçons concernées : 228, 239

La méthode de la phase stationnaire permet de dominer les intégrales à paramètres,


apparaissant dans de nombreuses formules : solution d’équation différentielle, reste
intégral de Taylor, analyse de Fourier, etc. C’est avant tout un outil permettant
d’identifier les contributions principales dans une intégrale et de préciser des
termes d’erreur, et donc d’obtenir des développements asymptotiques de fonctions.
Les arguments utilisés sont essentiellement ceux de l’analyse des fonctions d’une
variable réelle, justifiant la présence de ce développement dans la leçon sur la
continuité et la dérivabilité (228). Enfin, il est évidemment adapté pour illustrer
les méthodes d’étude des intégrales dépendant d’un paramètre (239).

502
Intégration et approximation de fonctions

Correction.
a) (i) Notons que la dérivée de x 7→ eiλφ(x) est x 7→ iλφ0 (x)eiλφ(x) , et que φ0 ne
s’annule pas sur S. Par intégration par parties on a donc, pour tout λ > 0,
1
Z  
0 iλφ(x)
IS,φ (λ) = · iλφ (x)e dx
S iλφ0 (x)
" #
eiλφ(x) φ00 (x) iλφ(x)
Z
= + e dx. (1)
iλφ0 (x) S S iλφ0 (x)2

En particulier, en prenant les valeurs absolues, en utilisant l’inégalité triangulaire


et en utilisant les hypothèses sur φ0 et φ00 , on obtient

2 C
Z
|IS,φ (λ)| 6 + 2
dx
λc S λc
1 2 C
 
6 + |S| .
λ c c2

(ii) Notons S = [a, b], où a 6 b. L’intégration par parties (1) peut être affinée
dans ce cas où φ0 est monotone. Notons que l’intégrale apparaissant dans le
membre de droite de (1) est dominée par

1 φ00 (x)
Z
dx.
λ S φ0 (x)2

Puisque φ0 est monotone et de signe constant, il en va de même de φ10 , donc le signe


de sa dérivée, qui vaut φ00 /φ02 , est constant. Ainsi, on a égalité dans l’inégalité de
la moyenne de sorte que

1 φ00 (x) 1 φ00 (x) 1 1


Z Z  
0 2
dx = 0 2
dx = 0
λ S φ (x) λ S φ (x) λ φ (x) S
1 1 1
= − .
λ φ0 (a) φ0 (b)

En minorant |φ0 | par c, on obtient le résultat escompté.


(iii) Raisonnons par récurrence sur k > 1. La propriété est vraie au rang k = 1
par la question a)(i), car |φ00 | est bornée puisque continue et à support compact.
Soit α > 0 un paramètre à déterminer plus tard. Puisque |φ(k+1) | > c sur S,
alors |φ(k) | > α pour tout x hors d’un intervalle de longueur majorée par α/c.
En effet, par le théorème des accroissements finis, pour tout x ∈ S = [a, b], il
existe θ ∈ S tel que

φ(k) (x) = φ(k) (x) − φ(k) (a) = φ(k+1) (θ) (x − a) > c(x − a).

car φ(k) (a) = 0 puisque a est au bord du support de φ. Ainsi, |φ(k) (x)| est donc
plus grand que α dès que |x − a| > αc .

503
84. Méthode de la phase stationnaire

Supposons la propriété vraie au rang k > 1, et prouvons-la au rang k + 1.


Notons U l’ensemble sur lequel |φ(k) | > α dans le raisonnement ci-avant. On
applique l’hypothèse de récurrence à φ(k) , de sorte que
1
Z  
iλφ(x)
e dx = O , lorsque λ → +∞. (2)
U (αλ)1/k

Sur le complémentaire U = S\U , qui est de taille dominée par α/c par ce qui
précède, on peut majorer l’exponentielle par 1 dans l’intégrale, donc
α
Z Z
iλφ(x)
e dx 6 dx 6 .
U U c

Ainsi on obtient, lorsque λ → +∞,


!
1 α
Z Z
iλφ(x) iλφ(x)
|IS,φ (λ)| 6 e dx + e dx = O + .
U U (αλ)1/k c

On obtient exactement la borne voulue lorsque les deux facteurs dominants sont
égaux, autrement dit quand αc = 1
1/k , ce qui arrive pour
(αλ)

c
α= .
(λc)1/(k+1)

Ainsi, la propriété est vraie au rang k + 1. Cela achève la preuve par récurrence.
b) En notant [a, b] le support de f , une intégration par parties donne
1
If,φ (λ) = − I 0 0 (λ).
iλ (f /φ ) ,φ

Plus précisément, en notant g = (f /φ0 )0 ∈ Cc∞ (R),

1
 
|If,φ (λ)| = O |Ig,φ (λ)| . (3)
λ

En particulier, puisque g est à support compact, on a


Z Z
|Ig,φ (λ)| 6 g(x)eiλφ(x) dx = |g(x)|dx,
R R

et cette dernière intégrale est bornée indépendamment de λ. On obtient ainsi


la domination |If,φ (λ)| = O(λ−1 ) comme souhaité pour le cas N = 1. L’inté-
grale Ig,φ (λ) dans la domination (3) peut être dominée plus finement par λ−1
en utilisant les mêmes arguments, une récurrence immédiate implique alors le
résultat escompté.

504
Intégration et approximation de fonctions

Commentaires.
© Ce résultat est une généralisation beaucoup plus précise d’un résultat classique,
le lemme de Riemann-Lebesgue, qui énonce la convergence vers zéro dans le cas
d’une phase constante non nulle :
Pour f ∈ C 0 (R) et φ un réel non nul,

If,φ (λ) → 0 lorsque λ → ∞.

Notons qu’il s’agit de la convergence vers zéro de la transformée de Fourier pour


une fonction continue à support compact. Ce résultat découle d’une intégration
par parties immédiate, de sorte que ce développement n’est qu’un raffinement
dans le cas d’une phase non constante et d’un module variable. Toutefois, il est
énoncé avec des hypothèses beaucoup plus fortes : le module et la phase doivent
être dérivables à tous ordres.
© L’argumentation de la question a)(iii) est typique des méthodes variationnelles :
introduire un paramètre α qui permet de découper le problème en deux zones
(une grande dérivée, permettant d’appliquer a)(ii), et une petite dérivée mais qui
contraint l’intervalle à être petit). Les deux bornes obtenues étant valables pour
tous choix de α, il est optimal de prendre les deux égales, et cela donne la valeur
choisie pour α. Si cette démarche est plutôt analytique et montre la démarche
suivie pour obtenir α, il est tout à fait possible de présenter la question a)(iii) en
prenant la valeur optimale de α dès le début.
© Les dominations élémentaires données par la question a) sont connues sous
le nom des lemmes de van der Corput. Tous ces résultats sont des estimations
asymptotiques de fonctions définies par des intégrales à paramètres. Plus pré-
cisément, ce sont des estimations d’intégrales sous des hypothèses concernant
la phase φ, justifiant le nom de la méthode. Le lemme de Riemann-Lebesgue
mentionné ci-avant donne une bonne intuition du résultat : l’exponentielle est une
fonction qui « tourne » dans le plan complexe, se compensant de plus en plus vite
lorsque la fréquence λ croît et justifiant heuristiquement la convergence vers zéro.
Cette situation est analogue au comportement des sommes d’exponentielles en
théorie des nombres, qui sont à mettre en parallèle avec les sommes de termes
d’une suite géométrique qui en sont la situation la plus simple.
Si la phase n’est pas localement constante, autrement dit de dérivée nulle à tout
ordre, en un point, les lemmes de van der Corput permettent de conclure que
l’intégrale tend vers zéro. Ainsi, seule une phase stationnaire, autrement dit ayant
des points annulant la dérivée, empêcherait ces compensations et permettrait de
conserver une valeur significative à l’intégrale lorsque la fréquence croît. Le même
phénomène régit le cas général, ce que ce développement écrit en détails : tant que la
phase n’est pas stationnaire, l’intégrale tend vers zéro. Les seuls points du domaine
d’intégration contribuant significativement sont donc les points stationnaires,
permettant de réduire le domaine d’intégration effectif de manière significative.
C’est une méthode fine et puissante, très utilisée en analyse harmonique et en
théorie analytique des nombres.

505
84. Méthode de la phase stationnaire

© Les leçons sur les développements asymptotiques de fonctions ne sont plus au


programme des épreuves orales, nous donnons donc seulement en commentaire
un exemple d’application de la méthode de la phase stationnaire pour obtenir un
développement asymptotique des fonctions de Bessel définies par, pour tout n > 0
et λ > 0,
Z 1
Jn (λ) = cos(nπt − λ sin(πt))dt.
0

Remarquons que Jn (λ) = Re(In (λ)) avec, pour tout n ∈ N et λ > 0,


Z 1
In (λ) = einπt e−iλ sin(πt) dt.
0

On constate donc que la fonction de Bessel complexe In (λ) est de la forme If,φ (λ)
avec φ(t) = − sin(πt) et f (t) = einπt . En particulier, le seul point de [0, 1] où la
phase est de dérivée nulle est t = 12 . On a alors, pour tout ε > 0, par les questions
précédentes puisque |φ0 | > c hors de U = [ 12 − ε, 12 + ε],
Z Z
In (λ) = einπt eiλφ(t) dt + einπt eiλφ(t) dt
U U
1
Z  
−iλ inπt iλ(φ(t)−φ( 12 ))
=e e e dt + O
U λ
1
Z 2
 
00 1 1
= e−iλ einπ/2 eiλφ ( 2 )(t− 2 ) dt + O . (4)
U λ

Puisque l’intégrande de cette dernière intégrale est une fonction oscillante dont la
dérivée ne s’annule qu’en t = 1/2, on utilise une fois de plus la question a) pour
approcher cette dernière intégrale par l’intégrale sur tout R, c’est-à-dire

1
Z 2
Z 2
 
00 1 1 00 1 1
eiλφ ( 2 )(t− 2 ) dt = eiλφ ( 2 )(t− 2 ) dt + O . (5)
U R λ

La valeur de la dérivée seconde est π 2 . On peut alors utiliser la valeur explicite de


l’intégrale de Gauss :
r
2 iπ/4
Z 2
iλφ00 ( 12 )(t− 12 )
e dt = e .
R λπ

On obtient ainsi r
2 −i(λ− nπ − π ) 1
 
In (λ) = e 2 4 + O ,
πλ λ
et donc r
2 nπ π 1
   
Jn (λ) = cos λ − − +O .
πλ 2 4 λ
La formalisation précise des arguments de ce développement asymptotique, passant
moins de temps ou intégrant les intégrations par parties au sein du calcul, peut
faire office de développement de niveau FF.

506
Intégration et approximation de fonctions

© On peut généraliser le résultat du commentaire précédent à toute fonction ayant


des points stationnaires quadratiques, autrement dit lorsque la dérivée s’annule
et la dérivée seconde ne s’annule pas. Illustrons cela dans le cas particulier de la
phase de Fresnel φ(x) = x2 . Soit f une fonction à support compact. On obtient
alors le développement asymptotique, pour tout N > 0,
N
1 3
 
cn λ−n− 2 + O λ−N − 2 ,
X
If,φ (λ) =
n=0

où les constantes cn sont définies par, pour tout n ∈ N,

√ in f (2n) (0)
cn = eiπ/4 π .
n!
Par densité des fonctions en escalier dans l’espace des fonctions continues, nous
nous réduisons à montrer que ce résultat est vrai lorsque f est la fonction
constante 1 au voisinage de l’origine. D’un côté, l’intégrale de Gauss s’écrit
r
π −iπ/4
Z
(iλ−ε)x2
lim e dx = e .
ε→0 R λ

De l’autre, le résultat de la question b) assure que, pour tout N > 1,


Z  
2
f (x)eiλx dx = O λ−N .
R

L’approximation uniforme des fonctions continues par des fonctions en escalier


permet alors de conclure pour les fonctions continues en général, en appliquant
la preuve ci-avant à chaque sous-intervalle où f est constante. Le cas particulier
de la phase de Fresnel, ainsi plus généralement des phases φ(x) = xn pour
n > 2, est fondamental. En effet, en pratique on raisonne comme dans la dernière
question de l’énoncé : on approche la fonction f − f (x0 ) au voisinage de tout
point stationnaire x0 par f (n) (x0 )xn /n! pour un certain n > 2 par la formule de
Taylor-Young. Le terme principal du développement asymptotique de la fonction
découle alors du calcul précédent ou de son analogue pour un plus grand ordre.
© Des résultats existent pour les fonctions à plusieurs variables. Les lemmes de
van der Corput sont beaucoup plus faibles, mais l’analogue du principe de la phase
stationnaire demeure valable :
Soient f ∈ Cc∞ (Rn ) et φ : Rn → R différentiable et telle que la
différentielle Dφ reste inversible en tout point du support de f . Alors,
pour tout N > 0,
Z  
f (x)eiλφ(t) dt = O λ−N .
Rn

De même, des résultats plus fins donnant des développements asymptotiques à


tous ordres existent dans le cas de fonctions à plusieurs variables.

507
84. Méthode de la phase stationnaire

© Il est intéressant de noter que dans le cas d’une intégrale régularisée par une
fonction à support compact, traité dans la deuxième question, la situation est
beaucoup plus aisée puisque les intégrations par parties ne font plus figurer de
termes de bord. C’est une motivation en pratique pour lisser les intégrales par
des fonctions lisses à support compact, de sorte que l’intégrale étudiée est plus
facile mais toutefois assez proche de la quantité initiale : cette démarche est
l’antichambre de la théorie des régularisations d’intégrales.

Questions.
1
1. Dans la question a)(i), peut-on améliorer la vitesse de décroissance en λ ?
Indication : considérer φ(x) = x.
1
2. Montrer que si φ est monotone et de signe constant, alors φ est monotone.
3. Justifier l’approximation de l’exponentielle donnant (4).
4. Justifier l’approximation (5).

508
Intégration et approximation de fonctions

Développement 85 (Théorème de Paley-Wiener F)

Notons fb la transformée de Fourier d’une fonction f ∈ C(R) ∩ L1 (R).


a) Soit f ∈ Cc∞ (R) telle que supp(f ) ⊂ [−M, M ] pour un certain M > 0.
(i) Montrer que fb peut se prolonger analytiquement sur C.
(ii) Montrer que pour tout k > 0, il existe ck > 0 telle que
ck 2πM |Im(ξ)|
∀ξ ∈ C∗ , fb(ξ) 6 e . (1)
|ξ|k

b) Soit f ∈ C(R) ∩ L1 (R) telle que fb est analytique sur C et vérifie (1).
(i) Montrer que f est de classe C ∞ sur R.
(ii) Montrer que f est à support dans [−M, M ].

Leçons concernées : 207, 239, 245, 250

Ce développement propose une preuve du théorème de Paley-Wiener, qui relie


les propriétés analytiques d’une fonction à celles de sa transformée de Fourier.
Plus précisément, le résultat énonce qu’une fonction admet une transformée de
Fourier prolongeable analytiquement (207) à tout le plan complexe et à croissance
au plus exponentielle si, et seulement si, la fonction est infiniment dérivable et
à support compact. Cela en fait une illustration des intégrales définies par un
paramètre (239) et plus précisément de la transformation de Fourier (250) comme
outil d’étude d’une fonction. De plus, c’est un résultat exploitant la structure des
fonctions holomorphes de sorte qu’il peut s’intégrer dans la leçon associée (245).

Correction.
a) Notons K = [−M, M ] le support de f .
(i) Par définition de la transformée de Fourier on a, pour tout ξ ∈ R,
Z Z
fb(ξ) = f (x)e−2iπxξ dx = f (x)e−2iπxξ dx.
R K

Puisque la fonction x 7→ |f (x)e−2iπxξ | = |f (x)|e2πxIm(ξ) est continue donc inté-


grable sur le segment K, l’expression intégrale ci-avant permet de prolonger la
transformée de Fourier fb : on définit, pour tout ξ ∈ C,
Z
fb(ξ) = f (x)e−2iπxξ dx.
R

Il reste à montrer que fb est analytique sur C. La fonction ξ 7→ f (x)e2iπxξ est


analytique sur C pour tout x ∈ R. De plus, pour tous a, b ∈ R et tout ξ ∈ C tels
que a < Im(ξ) < b, on a |f (x)e−2iπxξ | 6 |f (x)|e2πxc avec c = a si x < 0 et c = b
sinon. Le théorème de dérivation sous l’intégrale de Lebesgue d’holomorphie
des intégrales à paramètre s’applique donc et prouve l’analycité de l’intégrale

509
85. Théorème de Paley-Wiener

comme fonction de ξ. Ainsi, la transformée de Fourier fb est analytique sur toute


bande verticale {z ∈ C : a < Im(z) < b}. Puisque les telles bandes forment un
recouvrement ouvert de C, on en déduit que la fonction fb est analytique sur C.
De plus, le principe des zéros isolés prouve l’unicité d’un tel prolongement analy-
tique sur C. En effet, si g et h sont deux prolongements analytiques de fb sur C,
alors g et h seraient deux fonctions holomorphes coïncidant sur R (où elles sont
égales à la transformée de Fourier fb). Par le principe des zéros isolés, elles sont
donc égales.
(ii) Par la règle de transformation de Fourier des dérivées on obtient que, pour
tout k ∈ N et ξ ∈ C∗ ,
Z
k
(−2iπξ) fb(ξ) = e2iπξx f (k) (x)dx,
R

de sorte que, utilisant le fait que f est nulle hors de K = [−M, M ] on en déduit
que, pour tout ξ ∈ C∗ ,
Z 
fb(ξ) 6 f (k)
(x) dx |2πξ|−k e2πM |Im(ξ)| .
K

Cela achève la preuve en notant ck la valeur |2π|−k |f (k) |.


R
K
b) (i) Par hypothèse, |fb(ξ)| = O(|ξ|−2 ) pour ξ ∈ R, donc fb ∈ L1 (R) et la
formule d’inversion de Fourier permet alors d’écrire, pour tout x ∈ R,
Z
f (x) = e2iπxξ fb(ξ)dξ.
R

Remarquons que x 7→ e2iπxξ fb(ξ) est de classe C ∞ pour tout ξ ∈ R et, pour tout
entier k ∈ N, sa dérivée k-ième est de plus dominée par ξ k |fb(ξ)| par le théorème de
dérivation sous l’intégrale. Le théorème de continuité des intégrales à paramètres
de Lebesgue garantit donc que f est de classe C ∞ sur R.
(ii) Soient R > 0 et µ 6= 0. On considère le chemin

γ = [−R, R] ∪ [R, R + iµ] ∪ [R + iµ, −R + iµ] ∪ [−R + iµ, −R]

parcouru dans le sens direct. On le représente sur la figure suivante :

R − iµ R + iµ
• •

• •
−R 0 R

510
Intégration et approximation de fonctions

Puisque fb est holomorphe sur C par hypothèse, son intégrale le long de γ est
nulle par le théorème des résidus. Les intégrales sur les deux bords verticaux sont
majorées par, pour tout k > 2,
Z ±R+iµ Z ±R+iµ

fb(ξ)e2iπξx dξ 6 ck e2πµ(M −x)
±R ±R ξk
Z µ
dt
6 ck e2πµ(M −x)
0 (R + t2 )k/2
2
Z µ
dt µ
 
6 ck e2πµ(M −x) =O .
0 (R2 )k/2 Rk
En particulier, ces deux intégrales tendent vers zéro lorsque R → +∞. Il vient
donc, pour tout x ∈ R,
Z R Z R
lim fb(ξ)e2iπξx dξ = lim fb(ξ + iµ)e2iπ(ξ+iµ)x dξ.
R→+∞ −R R→+∞ −R

On en déduit l’expression, pour tout x ∈ R et µ ∈ R,


Z Z
f (x) = fb(ξ)e2iπξx dξ = fb(ξ + iµ)e2iπ(ξ+iµ)x dξ.
R R
En utilisant la majoration (1), on obtient alors, pour tous x ∈ R et k ∈ N,

Z Z
−2πµx
|f (x)| 6 e fb(ξ + iµ) dξ 6 ck e−2πµx+2πM |µ| .
R R |ξ + iµ|k
Servons-nous du paramètre µ pour montrer que f est nulle hors de [−M, M ].
6 0 et λ > 1. L’inégalité précédente avec k = 2 donne
Choisissons µ = λx pour x =
alors, pour tout x ∈ R,

Z
2 −M |x|)
|f (x)| 6 c2 e−2πλ(x .
R ξ 2 + λ 2 x2
Si |x| > M , on a x2
− M |x| > 0 donc la quantité ci-avant tend vers zéro lorsque λ
tend vers +∞. Puisque f ne dépend pas de λ, on obtient que f (x) = 0 pour
tout x ∈ R tel que |x| > M , de sorte que le support de f est inclus dans [−M, M ].

Commentaires.
© Les théorèmes de Paley-Wiener sont une classe de théorèmes qui énoncent des
relations entre l’analycité d’une fonction et la croissance de sa transformée de
Fourier. Le développement présenté ici est énoncé dans le cas d’une fonction d’une
variable, et est un raffinement dû à Schwartz qui relie précisément la borne sur la
croissance de la transformée de Fourier et la taille du support de la fonction :
Soit f ∈ C(R) ∩ L1 (R). Alors f est de classe C ∞ et à support
dans [−M, M ] si, et seulement si, fb se prolonge analytiquement sur C
et il existe, pour tout k ∈ N, un ck > 0 tel que, pour tout ξ ∈ C∗ ,
ck 2πM |Im(ξ)|
fb(ξ) 6 e .
|ξ|k

511
85. Théorème de Paley-Wiener

Notons que la transformée de Fourier est connue pour être décroissante le long
de l’axe réel (c’est le lemme de Riemann-Lebesgue). Toutefois, si tant est qu’elle
se prolonge, on ne peut pas espérer qu’elle décroisse dans toutes les directions
du plan complexe. En effet, elle serait alors bornée sur tout le plan, et donc
constante par le théorème de Liouville. Le résultat ci-avant est donc une borne sur
l’explosion (nécessaire) de la transformée de Fourier le long de l’axe imaginaire.
© Faisons quelques commentaires heuristiques sur le théorème de Paley-Wiener :
une fonction et sa transformée de Fourier ne peuvent pas être toutes deux concen-
trées autour de l’origine. En effet, plus la fonction est concentrée autour de
l’origine, autrement dit plus son support est réduit, moins sa transformée de
Fourier décroît vite. Les bornes obtenues dans ce développement sont atteintes
pour des exemples particuliers, de sorte que le résultat est optimal. On obtient
ainsi une barrière théorique, qui peut être formulée précisément sous la forme du
principe de Heisenberg, demandant une optimisation fine en pratique entre f et fb.
Voir par exemple le Développement 89 où le théorème de Minkowski est prouvé
grâce à la formule de Poisson, nécessitant un bon contrôle de f et de sa transformée
de Fourier, ou encore le Développement 1, où le principe de Heisenberg est aussi
formulé comme un compromis à faire entre une fonction et sa transformée de
Fourier (dans le cas des groupes abéliens finis).
© Les conditions requises dans le théorème prouvé dans ce développement sont
très fortes : les fonctions sont analytiques ou à support compact. En relâchant
ces hypothèses, on obtient d’autres conditions « duales ». Ainsi, il est possible de
caractériser le type de décroissance exponentielle d’une fonction par la prolon-
geabilité de sa transformée de Fourier sur une bande horizontale autour de l’axe
réel :
Soit f ∈ C(R) ∩ L1 (R). Alors il existe une constante A > 0 telle
que f (x) est dominée par exp(−2πA|x|) lorsque |x| tend vers l’in-
fini si, et seulement si, fb se prolonge analytiquement sur la bande
horizontale |Im(ξ)| < A.
Ainsi, dans la limite heuristique A → +∞, on retrouve qu’une fonction dont la
transformée de Fourier est prolongeable à tout le plan complexe doit être « nulle
à l’infini ». En effet, le résultat de ce développement montre qu’elle doit être à
support compact.
© Le théorème de Paley-Wiener admet des versions à plusieurs variables ainsi
que pour les espaces fonctionnels. C’est un outil puissant de contrôle en analyse
harmonique, où il est souvent plus aisé de travailler sur les transformées de Fourier
que sur les fonctions elles-mêmes. Des résultats analogues existent pour d’autres
types de transformées intégrales, ainsi la transformée de Laplace ou celle de Mellin.
Notamment, de tels théorèmes permettent de contrôler le support des solutions
aux équations différentielles ou aux dérivées partielles.
© Pour de nombreux commentaires sur la transformation de Fourier et les théo-
rèmes de Paley-Wiener, notamment du point de vue des distributions, le lecteur
pourra se référer à [Can09] d’où ce développement a été adapté.

512
Intégration et approximation de fonctions

Questions.
1. Montrer la relation entre fb(ξ) et fb(k) (ξ).
2. Justifier que fb(k) (ξ) est dominée par ξ k |fb(ξ)|.
3. Supposons que f et fb sont à supports compacts. Montrer que f = 0.
4. Calculer la transformée de Fourier de x 7→ |x|−α pour 0 < α < 1.
5. Soit f ∈ C(R). Montrer que fb tend vers zéro en +∞.
6. Montrer le théorème alternatif de Paley-Wiener cité en commentaire.
Indication : puisque la transformée de Fourier est analytique sur la bande hori-
zontale |Im(x)| < A, il est possible de translater librement dans cette bande le
contour d’intégration dans la formule d’inversion de Fourier.
7. Montrer que l’application linéaire f 7→ fb est continue de L1 (R) dans C0 (R).

513
86. Théorème de Plancherel

Développement 86 (Théorème de Plancherel FF)

Pour tout a > 0, on considère Ga ∈ S(R) la fonction gaussienne de paramètre a,


2
définie par Ga (x) = e−ax pour tout x ∈ R.
a) Montrer que la transformée de Fourier G
ca de Ga satisfait
r
π
G
ca = G 2 ,
a π /a

et en déduire que G
ca = Ga .
c

b) Montrer que pour toutes f, g ∈ S(R), on a


Z Z
fb(x)g(x) dx = f (x)gb(x) dx,
R R

et en déduire que pour toute f ∈ S(R),


Z Z
f (x)Ga (x) dx = fb (x)Ga (x) dx.
b
R R

c) Soit K la fonction définie par

G1
K := .
kG1 kL1 (R)

1 x

Pour tout ε > 0, on définit la fonction Kε par Kε (x) := εK ε pour
tout x ∈ R. Montrer que pour toute f ∈ S(R) on a
Z
f (x)Kε (x) dx −−−→ f (0).
R ε→0

d) En déduire que pour toute fonction f ∈ S(R) on a f (0) = fb (0), puis


b

que f (x) = fb (−x) quel que soit x ∈ R.


b

e) Montrer que la transformation de Fourier est une isométrie de S(R)


dans S(R) pour la norme k·kL2 (R) , i.e.

∀f ∈ S(R), kf kL2 (R) = kfbkL2 (R) .

f) Montrer le résultat suivant, connu sous le nom de théorème de Plancherel :

La transformation de Fourier définie sur S(R) s’étend en une unique


application linéaire de L2 (R) dans L2 (R), laquelle est encore une
isométrie.

Leçons concernées : 201, 205, 207, 208, 209, 236, 239, 250

514
Intégration et approximation de fonctions

Ce développement est une preuve d’un résultat classique sur la transformation


de Fourier. Il a ainsi naturellement toute sa place dans la leçon 250 associée.
Les nombreuses manipulations d’intégrales à paramètre en font une illustration
pertinente de la leçon 236. L’utilisation d’une équation différentielle comme mé-
thode de calcul d’intégrales justifie également son utilisation dans la leçon 239.
En raison des espaces de fonctions intervenant dans ce développement, celui-ci
peut également être proposé dans la leçon 201. La densité de S(R) dans L2 (R)
étant un élément clé pour conclure, on peut aussi présenter ce développement
dans la leçon 209. On pourrait enfin le proposer opportunément pour illustrer
les leçons 205 et 207, du fait de l’utilisation du théorème de prolongement des
applications linéaires continues sur un sous-espace dense à valeurs dans un espace
de Banach, ainsi que la leçon 208, dans laquelle les espaces de Banach et les
applications linéaires continues occupent une large place.

Correction.
a) Soit a > 0. On va montrer que la fonction G ca , définie par une intégrale à
1
paramètre, est une fonction de classe C sur R vérifiant une équation différentielle
2
très simple. Soit g : R2 → C la fonction définie par g(x, ξ) = e−ax e−2iπxξ pour
tout (x, ξ) ∈ R2 , de sorte que
Z
∀ξ ∈ R, G
ca (ξ) = g(x, ξ) dx.
R

Alors g ∈ C 1 (R2 , C), et on a


∂g 2 2
∀(x, ξ) ∈ R2 , (x, ξ) = −2iπxe−ax e−2iπxξ 6 2π |x| e−ax .
∂ξ
2
Or la fonction x 7→ 2π |x| e−ax est intégrable sur R donc, d’après le théorème de
ca ∈ C 1 (R, C) et
dérivation sous l’intégrale, G

ca 0 (ξ) = iπ
Z
2
∀ξ ∈ R, G (−2ax)e−ax e−2iπxξ dx.
a R
2
Remarquons que pour tout ξ ∈ R, les fonctions x 7→ (−2ax)e−ax e−2iπxξ ainsi que
2
x 7→ e−ax (−2iπξ)e−2iπxξ sont intégrables sur R et tendent vers 0 en ±∞. On
peut donc effectuer une intégration par parties sur R, et on trouve

0 2π 2 ξ c
∀ξ ∈ R, ca (ξ) = −
G Ga (ξ).
a

Ainsi, G
ca est une solution de l’équation différentielle linéaire homogène

2π 2 ξ
y0 + y = 0,
a
dont les solutions sont bien connues. On obtient
π 2 ξ2
∀ξ ∈ R, G ca (0)e−
ca (ξ) = G a .

515
86. Théorème de Plancherel


De plus, en utilisant le changement de variable affine u = ax et la valeur de
l’intégrale de Gauss, on obtient
r
1 π
Z Z
−ax2 −u2
G
ca (0) = e dx = √ e du = .
R a R a
Ainsi, pour tout ξ ∈ R, on a
r r
π − π 2 ξ2 π
G
ca (ξ) = e a = G 2 (ξ). (1)
a a π /a
L’espace de Schwartz étant stable par la transformation de Fourier, on sait que
ca ∈ S(R). En appliquant (1) une fois à Ga , puis une seconde fois à G 0 , où
G a
a0 = π 2 /a, on trouve, pour tout ν ∈ R,
r r r r
π \ π d π π
G
ca (ν) = G 2 (ν) = Ga0 (ν) = G 2 0 (ν)
c
a π /a a a a0 π /a
r s
π π
= G 2 2 (ν) = Ga (ν).
a π 2 /a π /(π /a)

b) Pour toutes f, g ∈ S(R), on sait que (x, ξ) 7→ f (x)g(ξ) ∈ L1 (R × R), donc


 

d’après le théorème de Fubini on a


Z Z Z 
−2iπxξ
fb(ξ)g(ξ) dξ = f (x)e dx g(ξ) dξ
R
ZR Z R
= f (x)g(ξ)e−2iπxξ dx dξ
R R
Z Z  Z
−2iπxξ
= f (x) g(ξ)e dξ dx = f (x)gb(x) dx.
R R R

Ainsi, d’après la question a), pour toute f ∈ S(R) et tout a > 0 on obtient
Z Z Z Z
f (x)Ga (x) dx = f (x)G
ca (x) dx = fb(x)G
ca (x) dx = fb (x)Ga (x) dx,
c b
R R R R

ce qu’il fallait démontrer.


Z
c) Remarquons que quel que soit ε > 0, on a Kε (x) dx = 1, donc
R
Z Z
f (x)Kε (x) dx − f (0) = (f (x) − f (0))Kε (x) dx
R
ZR
6 |f (x) − f (0)| Kε (x) dx
ZR
= |f (εu) − f (0)| K(u) du, (2)
R

où nous avons effectué le changement de variable affine x = εu pour obtenir la


dernière égalité. Comme f ∈ S(R), il existe M > 0 tel que |f 0 | 6 M . Ainsi, en
utilisant l’inégalité des accroissements finis dans (2), on obtient, pour tout ε > 0,
M M
Z Z Z
2
f (x)Kε (x) dx − f (0) 6 M ε |u| K(u) du = √ ε |u| e−u dx = √ ε,
R R π R π

516
Intégration et approximation de fonctions

où pour la dernière égalité nous avons calculé par primitivation directe


Z Z 0 Z +∞
2 2 2
|u| e−u dx = −ue−u du + ueu du = 1.
R −∞ 0

En conséquence, on a Z
f (x)Kε (x) dx −−−→ f (0),
R ε→0

ce qui était l’objet de la question.


d) Soit f ∈ S(R). Remarquons que

1 G1 xε

1
Kε (x) = = √ G1/ε2 (x),
ε kG1 kL1 (R) ε π

de sorte que la question b) implique, pour tout ε > 0,


1
Z Z
f (x)Kε (x) dx = √ f (x)G1/ε2 (x) dx
R ε π R
1
Z Z
= √ f (x)G1/ε2 (x) dx = fb (x)Kε (x) dx.
b
b b
ε π R R

Ainsi, puisque fb ∈ S(R), d’après la question c) en faisant tendre ε vers 0 on


b
trouve
f (0) = fb (0).
b

En appliquant ce qui précède à la fonction translatée τy f = f (y + ·) pour y ∈ R


et en effectuant le changement de variable u = y + x, on trouve

f (y) = τy f (0) = τd
y f (0)
d
Z
= τd
y f (ξ) dξ
R
Z Z 
= f (y + x)e−2iπxξ dx dξ
R R
Z Z 
= f (u)e−2iπ(u−y)ξ du dξ
R R
Z Z  Z
= f (u)e−2iπuξ du e2iπyξ dξ = fb(ξ)e2iπyξ dξ = fb (−y),
b
R R R

ce qu’il fallait démontrer.


e) Pour toute f ∈ S(R), d’après la question précédente on a
Z Z Z
2
|f (x)| dx = f (x)f (x) dx = fb (−x)f (x) dx.
b
R R R

Puisque l’intégrale ci-avant est réelle, on a


Z Z Z
fb (−x)f (x) dx = fb (−x)f (x) dx = fb (−x)f (x) dx.
b b b
R R R

517
86. Théorème de Plancherel

Or il est aisé de vérifier que pour toute g ∈ S(R) et tout x ∈ R, gb (x) = gb (−x),
b
donc en appliquant ceci à g = fb , on trouve fb (−x) = fb (x). Par la question c),
b
Z Z Z
|fb (x)|2 dx.
b
fb (x)f (x) dx = fb (x)fb (x) dx =
R R R

Finalement, en combinant les trois précédentes équations, on obtient


Z Z
kf k2L2 (R) = |f (x)|2 dx = |fb(x)|2 dx = kfbk2L2 (R) .
R R

f) D’après la question précédente, la transformation de Fourier est une application


linéaire continue (pour la norme k·kL2 (R) ) de S(R) ⊂ L2 (R) dans L2 (R). Or S(R)
est un sous-espace dense de L2 (R), donc par le théorème de prolongement des
applications linéaires continues dans un espace de Banach, la transformation
de Fourier se prolonge de manière unique en une application continue de L2 (R)
dans L2 (R).
Montrons à présent que son prolongement est une isométrie de L2 (R) dans L2 (R).
Soit f ∈ L2 (R). Alors par densité de S(R) dans L2 (R), il existe une suite (fk )k∈N
de fonctions de S(R) qui converge vers f dans L2 (R). En particulier, on a
kfk kL2 (R) −−−−→ kf kL2 (R) .
k→+∞

Par continuité de la transformation de Fourier sur L2 (R), la suite (fck )k∈N converge
vers fb dans L2 (R), donc
kfck kL2 (R) −−−−→ kfbkL2 (R) .
k→+∞

Or d’après la question e) on a, pour tout k ∈ N, kfck kL2 (R) = kfk kL2 (R) , on peut
donc passer à la limite et obtenir kf kL2 (R) = kfbkL2 (R) , comme voulu.

Commentaires.
© Malgré la longueur de ce développement, qui explique l’attribution du niveau
de difficulté FFF, celui-ci est en réalité assez élémentaire. En effet, il suffit
essentiellement de calculer la transformée de Fourier d’une fonction gaussienne
(question a)) et de remarquer que la transformation de Fourier est en quelque
sorte « autoadjointe » pour la forme bilinéaire
Z
2
∀f, g ∈ L (R), hf, gi := f (x)g(x) dx,
R

au sens où
∀f, g ∈ L2 (R), hfb, gi = hf, gbi,
(ce qui est montré à la question b)) pour conclure. Faisons remarquer qu’ainsi
définie, cette forme bilinéaire ne constitue pas un produit hermitien sur les fonc-
tions L2 (R) à valeurs complexes (il faudrait conjuguer l’une des deux fonctions),
raison pour laquelle nous n’avons pas introduit cette notation dans le développe-
ment. De manière informelle, le développement peut se résumer en cinq étapes :

518
Intégration et approximation de fonctions

1. Montrer que G a = Ga .
d
d
2. Montrer que hfb, gi = hf, gbi, i.e. établir l’aspect « autoadjoint » de la trans-
formation de Fourier pour h·, ·i.
3. En déduire l’égalité distributionnelle hf, Ga i = hfb , Ga i.
b

4. En déduire la formule d’inversion f (x) = fb (−x), que l’on peut formaliser en


b
disant que, quitte à renormaliser Ga , G1/a converge vers δ0 , la distribution
de Dirac en 0, lorsque a > 0 tend vers 0.
5. À l’aide de la formule ainsi obtenue, montrer que la transformation de Fourier
préserve la norme L2 sur S(R), et en déduire alors le théorème de Plancherel
par densité.
© On pourrait se placer sur Rn , et montrer de la même manière que la transfor-
mation de Fourier définie sur S(Rn ) par
Z
∀ξ ∈ Rn , fb(ξ) = f (x)e−2iπhx,ξi dx
Rn

s’étend également à L2 (Rn ) et est une isométrie. Nous avons choisi de ne pas le
faire ici car la preuve est exactement la même, bien que l’écriture soit plus lourde.
Le candidat peut très bien présenter la version multidimensionnelle du théorème
dans le plan, et/ou effectuer le développement directement sur Rn .
b tout x ∈ R, ne signifie
© Remarquons que l’identité f (x) = fb (−x), valable pour
b
ni plus ni moins que la transformée de Fourier inverse g d’une fonction g ∈ S(R)
est donnée par b Z
g : x 7−→ gb(−x) = g(ξ)e2iπxξ dξ, (3)
R
b b
i.e. que l’on a g = gb = gb.
© La famille de fonctions (Kε )ε>0 définie à la question c) est ce qu’on ap-
pelle souvent une approximation de l’identité. On dit qu’une famille de fonc-
tions (ηε )ε ∈ ]0,1[ ⊂ L1 (Rn ) est une approximation de l’identité si
(i) kηε kL1 (R) est uniformément bornée.
Z
(ii) ∀ε ∈ ]0, 1[, ηε (x) dx = 1.
Rn
(iii) Quel que soit r > 0, on a
Z
|ηε (x)| dx −−−→ 0.
Rn \B(0,r) ε→0

De manière informelle, ces hypothèses signifient que ηε est une approximation


de la distribution de Dirac δ0 lorsque ε est proche de 0. Cette distribution δ0 se
comporte comme l’identité pour le produit de convolution, i.e. f ? δ0 = f , d’où la
dénomination d’approximation de l’identité. On prouve en fait dans la question c)
que la famille de fonctions (Kε )ε ∈ ]0,1[ satisfait

∀f ∈ S(R), (Kε ? f )(0) −−−→ f (0).


ε→0

519
86. Théorème de Plancherel

Il existe des résultats généraux de convergence des convolées ηε ? f lorsque f est


continue ou dans Lp (Rn ) (voir question 5 ci-après), de même qu’il existe également
des familles d’approximations de l’identité bien connues, qui ont différents usages.
On peut citer les suites régularisantes, qui sont des approximations de l’identité
positives à support dans des boules centrées en 0 de rayons de plus en plus petits,
et servent notamment à montrer la densité des fonctions de classe C ∞ dans d’autres
espaces de fonctions (espaces de Lebesgue, Sobolev, etc.). On peut aussi définir
de manière similaire la notion d’approximation de l’identité sur un intervalle non
trivial centré en 0, dont les exemples les plus connus sont sans doute les noyaux
de Dirichlet et Fejér utilisés pour montrer la convergence des séries de Fourier.
Voir le Développement 88 pour des applications et énoncés précis pour plusieurs
noyaux différents.
On pourra par exemple faire figurer cette notion et les résultats de convergence
associés dans le plan de la leçon 201, et en tirer parti pour répondre à la ques-
tion c) : il faudra alors simplement justifier que la famille (Kε )ε>0 est bien une
approximation de l’identité. Ainsi raccourci, le développement est d’une longueur
plus raisonnable et correspond plutôt à un niveau de difficulté FF.
© Si le théorème de prolongement nous a permis d’étendre la transformation de
Fourier de S(R) à L2 (R), il ne nous dit pas directement que celle-ci est toujours
donnée par la formule intégrale
Z
∀ξ ∈ R, fb(ξ) = f (x)e−2iπxξ dx, (4)
R

d’une part parce que l’intégrale n’est pas nécessairement définie, d’autre part
parce que rien ne garantit que l’égalité soit vérifiée, même quand l’intégrale a
un sens. Néanmoins, par densité de S(R) dans L1 (R), on peut montrer que pour
toute f ∈ L1 (R) ∩ L2 (R), la transformée de Fourier de f est bien donnée par (4).

Questions.
1. Rappeler une méthode de calcul de l’intégrale de Gauss.
2. Rappeler la définition de S(R) et montrer que S(R) est stable par transforma-
tion de Fourier. Z
3. Justifier que pour tout ε > 0, Kε (x) dx = 1.
R
4. Montrer que Cc∞ (R) est dense dans Lp (R), et en déduire que S(R) est dense
dans Lp (R) quel que soit 1 6 p < +∞. Qu’en est-il pour p = +∞ ?
5. Soit (ηε )ε∈ ]0,1[ une approximation de l’identité. Montrer que
(i) Si f ∈ L∞ (Rn ) est continue sur le voisinage d’un compact K de Rn , alors la
convolée ηε ? f converge uniformément vers f sur K.
(ii) Si f ∈ Lp (Rn ), pour un p ∈ [1, +∞[ ,balors ηε ? f converge vers f dans Lp (Rn ).
6. Pour toute f ∈ L1 (R), on définit fb et f comme
b dans (4) et (3). Montrer que si
f ∈ L1 (R) et fb ∈ L1 (R), alors on a f (x) = fb (x) pour presque tout x ∈ R.
Indication : montrer que le résultat de la question b) est également vrai si f et fb

520
Intégration et approximation de fonctions

sont dans L1 (R). Par translation, en déduire que pour tout x ∈ R, on a


b
f ? Kε (x) = fb ? Kε (x),

et conclure à l’aide de la question précédente.


7. Rappeler ce que signifie la convergence dans S(R).
8. Montrer
c que si une suite (fk )k∈N converge vers
b f dans S(R) alors (fck )k∈N
et (fk )k∈N convergent respectivement vers fb et f dans S(R). En déduire que la
transformation de Fourier est un homéomorphisme de S(R).

521
87. Prolongement de la fonction ζ de Riemann

Développement 87 (Prolongement de la fonction ζ de Riemann FF)

Introduisons, pour s ∈ C tel que Re(s) > 1 et z ∈ C tel que Re(z) > 0,
+∞
1 2
e−πn z .
X X
ζ(s) = et θ(z) =
n=1
ns n∈Z

2
a) Pour tout z ∈ C, introduisons la fonction fz : x ∈ R 7→ e−πx z .
(i) Montrer que, pour tout z ∈ C, on a
Z +∞
2
e−π(u+z) du = 1.
−∞

2 /z
(ii) Montrer que pour tous 29 Re(z) > 0 et t ∈ R, on a fcz (t) = z −1/2 e−πt .
(iii) Déduire que pour tout Re(z) > 0, on a θ(z) = z −1/2 θ(1/z).
b) Introduisons la fonction zêta complété définie par, pour tout Re(s) > 1,

ξ(s) = s(s − 1)π −s/2 Γ(s/2)ζ(s).

(i) Montrer que pour tout Re(s) > 1, on a


Z +∞ +∞
−s/2 2
e−πn t .
X
π Γ(s/2)ζ(s) = ω(t)ts/2−1 dt où ∀t > 0, ω(t) =
0 n=1

(ii) Pour tout Re(s) > 1, montrer que


Z +∞  
ξ(s) = 1 + s(s − 1) ω(t) ts/2−1 + t(1−s)/2−1 dt. (1)
1

(iii) Conclure que ξ admet un prolongement analytique sur tout C.


c) En déduire que ζ admet un prolongement analytique à C\{1} avec un pôle
simple en s = 1 et que ses zéros sont soit parmi les zéros triviaux −2N, soit
dans la bande critique 0 < Re(s) < 1.

Leçons concernées : 207, 236, 239, 245, 250, 265


Les riches propriétés de ζ sont au confluent de nombreux domaines des mathéma-
tiques et permettent un développement qui s’intègre évidemment dans la leçon des
exemples d’études de fonctions spéciales (265). L’un des résultats proposés dans ce
développement concerne le prolongement de la fonction zêta au plan complexe et
est l’archétype de l’argument permettant de prolonger une vaste classe de fonctions
en théorie des nombres, les fonctions L, en utilisant la formule de Poisson. Cela
justifie sa place comme illustration pour la leçon sur les prolongements de fonc-
29. Par convention, toutes les variables considérées sont complexes sauf mention contraire et la
formulation « pour tout Re(s) > 1 » est l’abréviation de « pour tout s ∈ C tel que Re(s) > 1 ».

522
Intégration et approximation de fonctions

tions (207). L’utilisation de fonctions définies par les intégrales dépendant d’un
paramètre, notamment la fonction Γ d’Euler, justifie la présence de ce développe-
ment pour illustrer les leçons associées (236, 239). Le prolongement méromorphe
exploite les idées de la théorie des fonctions d’une variable complexe qui en font un
développement pertinent pour illustrer la leçon sur les fonctions holomorphes (245).
L’essentiel de l’argument se réduit à la formule de Poisson et au calcul d’une
transformée de Fourier astucieuse, montrant un domaine d’application moins
connu de la transformation de Fourier et de l’analyse harmonique (250), pourtant
très présente en théorie des nombres.

Correction.
a) (i) Introduisons la fonction définie par, pour tout z ∈ C,
Z +∞
2
F (z) = e−π(u+z) du.
−∞

Nous allons prouver que F est une fonction analytique sur C en appliquant le
théorème d’analycité des intégrales à paramètres. Il suffit de le prouver localement,
sur une boule B(0, R) pour un R > 0. Vérifions les hypothèses du théorème :
2
• la fonction (u, z) 7→ e−π(u+z) est mesurable sur R × B(0, R) ;
2
• pour tout u ∈ R, la fonction z 7→ e−π(u+z) est analytique sur B(0, R) ;
• pour tout z ∈ B(0, R) et u ∈ R, on a la domination
2 2 +2πuRe(z)+πRe(z 2 ))
e−π(u+z) = e−(πu
2 +2πRu+πR2
6 e−πu
2 +2πR2
= e−π(u−R) ,

où ce majorant est intégrable sur R et indépendant de z.


Ainsi, par théorème la fonction F est analytique sur B(0, R). Puisque cela est vrai
pour tout R > 0, la fonction F est analytique sur C.
Puisque la fonction F est analytique sur C, pour montrer qu’elle est constante
égale à 1 il suffit de prouver qu’elle est égale à 1 sur R par le principe des zéros
isolés. Pour z ∈ R on obtient, en effectuant le changement de variable v = u + z,
Z +∞
2
F (z) = e−πv dv.
−∞

On reconnaît l’intégrale de Gauss, dont la valeur est 1. Ainsi, F est constante


sur R de valeur 1, et donc constante sur tout C de valeur 1.
(ii) Par définition on a, pour tout t ∈ R et Re(z) > 0,
Z +∞
2
fcz (t) = e−πx z e−2iπxt dx.
−∞

523
87. Prolongement de la fonction ζ de Riemann

En reconnaissant le début du développement d’un carré dans 2ixt/z − t2 /z 2 ,


Z +∞
2 +2ixt/z+t2 /z 2 ) 2 /z
fcz (t) = e−πz(x e−πt dx
−∞
Z +∞
2 /z 2
= e−πt e−πz(x+it/z) dx (2)
−∞
2 /z
Z +∞ √ √
z+it/ z)2
= e−πt e−π(x dx
−∞

En effectuant le changement de variables u = x z, il vient alors

2
Z +∞ √ 2
fcz (t) = z −1/2 e−πt /z e−π(u+it/ z)
du. (3)
−∞

Par la question précédente, l’intégrale est de valeur 1 de sorte que l’on obtient,
pour tous z ∈ C et t ∈ R,
2 /z
fcz (t) = z −1/2 e−πt = z −1/2 f1/z (t). (4)

(iii) La décroissance rapide des fonctions fz en ±∞ garantit la convergence


P
simple de la série de fonctions n fz (n) pour tout Re(z) > 0, dont la somme est
la fonction θ. La formule sommatoire de Poisson appliquée à fz s’écrit alors
X X
fz (n) = fcz (n).
n∈Z n∈Z

En utilisant la relation (4) cela se traduit, pour Re(z) > 0, par

θ(z) = z −1/2 θ(1/z). (5)

b) (i) Par définition de la fonction Γ d’Euler, en effectuant le changement de


variable linéaire t = πn2 u sur la droite réelle on a, pour tous Re(s) > 0 et n > 1,
Z +∞
Γ(s/2) = e−t ts/2−1 dt
0
Z +∞
2
=n π s s/2
e−πn u us/2−1 du.
0

Autrement dit, on a l’expression


Z +∞
1 2
π −s/2 Γ(s/2) = e−πn u us/2−1 du.
ns 0

Nous voulons désormais utiliser le théorème de Fubini-Tonelli pour sommer ces


2
intégrales et permuter sommation et intégration. Les fn : u 7→ e−πn u us/2−1
sont mesurables sur ]0, +∞[ pour tout n > 1. Notons que par le changement de
variables défini par v = n2 u, on a
Z +∞ Z +∞
−πn2 u s/2−1 1
e u du = s e−πv v s/2−1 dv.
0 n 0

524
Intégration et approximation de fonctions

L’intégrale du membre de droite est indépendanteR de n et convergente grâce à la


décroissance rapide de l’exponentielle. Ainsi, n 0+∞ |fn | converge. Le théorème
P

de Fubini-Tonelli s’applique donc et donne, en sommant sur n et pour tout


Re(s) > 1,
+∞
X Z +∞ 2
π −s/2 Γ(s/2)ζ(s) = e−πn u us/2−1 du
n=1 0
+∞
Z +∞ !
−πn2 u
X
= e us/2−1 du
0 n=1
Z +∞
= ω(u)us/2−1 du.
0

On obtient ainsi l’expression de π −s/2 Γ(s/2)ζ(s) comme transformée intégrale.


(ii) Notons que θ = 2ω + 1. L’équation fonctionnelle (5) pour la fonction θ
implique alors que, pour tout u ∈ C∗ ,
  1   −1   1  1/2  1 1
ω u−1 = θ u −1 = u θ(u) − 1 = u1/2 ω(u) + u1/2 − .
2 2 2 2
Soit Re(s) > 1. On a, en décomposant le domaine et en utilisant le changement
de variable u 7→ u−1 ,
Z 1 Z +∞
−s/2 s/2−1
π Γ(s/2)ζ(s) = ω(u)u du + ω(u)us/2−1 du
0 1
Z +∞   Z +∞
−1 −s/2−1
=− ω u u du + ω(u)us/2−1 du
1 1
Z +∞  1 1
 Z +∞
= 1/2
u ω(u) + u1/2 − u−s/2−1 du + ω(u)us/2−1 du
1 2 2 1
Z +∞  Z +∞
1 −(s+1)/2   
= u − u−s/2−1 du + ω(u) us/2−1 + u−(s+1)/2 du.
1 2 1

La première intégrale se calcule explicitement et vaut


Z +∞ 
1 −(s+1)/2  1
u − u−s/2−1 du = .
1 2 s(s − 1)

On obtient alors le résultat voulu en multipliant l’identité obtenue par s(s − 1).
(iii) Il reste à prouver que les intégrales F (s) de f (t, s) = ω(t)(ts/2−1 +t(1−s)/2−1 )
sur ]1, +∞[ sont des fonctions analytiques sur C. En effet, le membre de droite
de la relation obtenue à la question précédente permet alors de définir ξ(s) pour
tout s ∈ C.
Soit A > 0. Pour prouver que la fonction est analytique sur C, il suffit de prouver
qu’elle est analytique sur DA = {s ∈ C : |Re(s)| < A}. Pour cela on applique
le théorème d’holomorphie sous le symbole d’intégration sur DA , dont on vérifie
maintenant les hypothèses :
• la fonction f est mesurable sur ]1, +∞[×DA , puisque ω est une fonction
mesurable comme somme de fonctions mesurables ;

525
87. Prolongement de la fonction ζ de Riemann

• pour tout t ∈]1, +∞[, la fonction s 7→ ω(t)(ts/2−1 + t(1−s)/2−1 ) est analytique


sur DA ;
• il reste à déterminer une domination pour f (t, s), uniforme en s ∈ DA . Pour
tout t ∈]1, +∞[, on a

e−πnt 6 2e−πt ,
X
0 6 ω(t) 6 (6)
n>1

ainsi que

t(s/2)−1 + t(1−s)/2−1 6 tA/2−1 + t(1+A)/2−1 6 2t(A−1)/2 .

En particulier, on en tire que pour tous t ∈]1, +∞[ et s ∈ DA , on a

ω(t)(ts/2−1 + t(1−s)/2−1 ) 6 4e−πt t(A−1)/2 ,

et ce majorant est indépendant de s ∈ DA et intégrable sur ]1, +∞[.


Ainsi, par le théorème d’holomorphie sous le symbole d’intégration, l’intégrale
apparaissant dans la question précédente est analytique sur C, et donc également
la fonction ξ(s) par l’expression (1).
c) La question b)(ii) prouve que (le prolongement analytique de la fonction) ξ(s)
est une fonction entière. Elle vérifie de plus l’équation fonctionnelle ξ(s) = ξ(1 − s)
pour tout s ∈ C. Rappelons que, par définition on a, pour tout s ∈ C,

ξ(s) = s(s − 1)π −s/2 Γ(s/2)ζ(s).

La fonction ζ ne s’annule pas pour Re(s) > 1, par exemple grâce à son expression
en tant que produit eulérien. De plus, la fonction Γ ne s’annule pas sur C. Ainsi,
on a ξ(s) 6= 0 sur Re(s) > 1. L’équation fonctionnelle ξ(s) = ξ(1 − s) permet
d’en déduire qu’il en va de même, symétriquement, pour Re(s) < 0. Ainsi, ξ ne
s’annule pas hors de la bande critique définie par 0 6 Re(s) 6 1.
Ces propriétés de ξ permettent d’en déduire des informations sur les pôles et zéros
de ζ sur Re(s) 6 0. En effet on a, pour tout s ∈ C\{0, 1},

ξ(s)π s/2
ζ(s) = .
s(s − 1)Γ(s/2)

La fonction Γ(s/2) ne s’annule pas sur C, de sorte que ζ admet un prolongement


analytique sur C\{0, 1}. La fonction Γ admet des pôles simples aux entiers négatifs
pairs −2, −4, . . . Puisque ξ est analytique et non nulle sur Re(s) < 0, on en déduit
que ζ admet des zéros simples aux entiers négatifs pairs −2, −4, . . .
Ainsi, les zéros de ζ sont les entiers négatifs pairs ou alors sont dans la bande
critique. Ses pôles sont 0 et 1, tous deux simples.

526
Intégration et approximation de fonctions

Commentaires.
© Le développement est très riche et technique, notamment en y adjoignant les
commentaires ci-après, mais il est facilement modulable : le résultat central est le
prolongement analytique de ζ, il est donc tout à fait possible de gagner du temps
en mentionnant moins de détails sur les zéros de la fonction ζ et s’arrêter à la
question b). De même, il est également possible d’insister plus fortement sur les
calculs d’intégrales de la question a), ou leur analogue dans le domaine complexe
présenté ci-après, permettant de mettre l’accent sur les résultats d’holomorphie
et d’intégration à paramètres. Cela constitue déjà un raisonnable développement
de niveau F. Il est aussi possible de passer plus rapidement sur les justifications
de manipulations d’intégrales ou l’application du théorème d’holomorphie sous le
symbole d’intégration, de sorte à se concentrer sur les permutations de sommes et
d’intégrales ou sur les propriétés des fonctions ζ et Γ.
© Il est possible de déduire de l’équation fonctionnelle de ξ la célèbre équation
fonctionnelle de ζ. En effet par définition de ξ on a, pour tout s ∈
/ {0, 1},

ξ(s)π s/2
ζ(s) = .
s(s − 1)Γ(s/2)

On peut alors faire intervenir l’équation fonctionnelle de ξ obtenue dans le dé-


veloppement, ainsi que l’équation fonctionnelle de Γ et la formule de réflexion
données par, pour tout z ∈ C,
π
Γ(z + 1) = zΓ(z) et Γ(z)Γ(1 − z) = .
sin πz
Par calcul il vient, pour tout s ∈ C\{0, 1},
πs
 
−s
ζ(1 − s) = 2(2π) cos Γ(s)ζ(s). (7)
2

© Ce développement utilise la formule sommatoire de Poisson. C’est un outil


utile pour remplacer les études des distributions d’une fonction par l’étude de
distributions de sa transformée de Fourier. Nous rappelons ici son énoncé :
Soit f une fonction analytique sur X = {z ∈ C : |Im(z)| < A} pour
un certain A > 0. Supposons qu’il existe M > 0 et δ > 0 tels que pour
tout z ∈ X,
|f (z)| 6 M (1 + |z|)−1−δ .
Alors on a X X
f (n) = fb(n).
n∈Z n∈Z

De nombreuses versions de la formule de Poisson existent, permettant notamment


de faire varier les hypothèses concernant la régularité et la décroissance de f .
Par exemple, la formule demeure en supposant seulement f, fb ∈ L1 (R) et f à
variations bornées.

527
87. Prolongement de la fonction ζ de Riemann

© L’outil central de ce développement est cette formule de Poisson et, malgré la


technicité apparente du développement, les idées doivent apparaître clairement :
• la transformée de Fourier d’une gaussienne est une gaussienne ;
• la fonction θ est une somme de gaussiennes, donc vérifie une équation
fonctionnelle (par la formule de Poisson) ;
• la fonction ζ est une transformée intégrale de θ, donc vérifie une équation
fonctionnelle.
En effet, la question b)(ii) montre que la fonction ξ est essentiellement une
transformée intégrale (de Mellin) de la fonction θ. L’équation fonctionnelle de
la fonction ξ n’est alors qu’une conséquence de l’équation fonctionnelle de la
fonction θ, prouvée à la question a). Cette preuve, dont les idées sont très élémen-
taires, s’est révélée être d’une puissance phénoménale en théorie des nombres : les
très générales fonctions L vérifient une équation fonctionnelle car. . . ce sont des
transformées intégrales de fonctions θ qui vérifient des équations fonctionnelles,
comme conséquence de formules de type Poisson (dans ce cadre plus général, il
s’agit des formules de Voronoï).
© La question a)(ii) est l’intermédiaire central de la preuve et un résultat im-
portant en soi : la transformée de Fourier des gaussiennes. La question intermé-
diaire a)(i) a permis d’éviter la manipulation d’intégrales dans le plan complexe
par un argument d’analycité. Il est également possible de calculer directement
l’intégrale par des changements de variables dans le plan complexe à condition de
bien en maîtriser les conditions. En effet, les intégrales dans le plan complexe sont
à considérer comme des intégrales sur des chemins, et un changement de variable
est à comprendre comme un changement de chemin, c’est-à-dire un déplacement
de contour. C’est ici que les arguments d’analyticité sont cruciaux : on utilise fré-
quemment le fait qu’une intégrale sur un contour fermé d’une fonction holomorphe
est nulle. Ainsi pour déplacer une ligne (en utilisant un contour rectangulaire) ou
pour la faire pivoter (en se limitant à un secteur angulaire assez petit), il faut
invoquer de tels arguments d’holomorphie : c’est le contenu des lemmes de Jordan.
En d’autres termes, la liberté de modification des chemins est permise par le fait
que la forme différentielle f (z)dz associée à une fonction holomorphe f est fermée,
de sorte que la valeur n’est pas modifiée si la déformation du chemin effectuée ne
passe pas par un pôle.
© Donnons quelques détails sur le traitement de la question a)(ii) directement
par changements de variables complexes. On peut reprendre l’argument à partir
de l’expression de la transformée de Fourier, pour tous t ∈ R et Re(z) > 0, en
fonction de l’intégrale
Z +∞
2
e−πz(x+it/z) dx.
−∞

Par le changement de variable affine u = x + it/z, cette intégrale s’exprime comme


Z Z Z
2 2 2
e−πz(x+it/z) dx = e−πzu du = e−πzu du.
R R+it/z R

528
Intégration et approximation de fonctions

2
La dernière égalité est justifiée par le fait suivant : puisque u 7→ e−πzu est
holomorphe sur C et rapidement décroissant lorsque Im(u) → ±∞, ses intégrales
sur toutes les droites horizontales sont égales.
Considérons une détermination de l’argument d’un complexe bien définie pour tout
Re(z) > 0. Par le changement de variable x = ρe−iarg(z)/2 on a, pour Re(z) > 0,
Z Z
2 2 e−iarg(z)
e−πzx dx = e−iarg(z)/2 e−πzρ dρ
iarg(z)/2 R
R Ze Z
−iarg(z)/2 −πzρ2 e−iarg(z) −iarg(z)/2 2
=e e dρ = e e−π|z|ρ dρ,
R R

où l’avant-dernière égalité est justifiée par le pivotement de la droite eiarg(z) R


jusqu’à la droite R : cela ne change pas la valeur de l’intégrale par le lemme de
2
Jordan, qui s’applique puisque ρ 7→ e−πzρ tend vers 0 lorsque ρ tend vers l’infini
dans le secteur angulaire arg ∈ [0, arg(z)]. Un changement de variables linéaire
donné par x = |z|1/2 ρ permet alors d’obtenir
Z Z
2 2 e−iarg(z)
e−iarg(z)/2 e−π|z|ρ dρ = e−iarg(z)/2 e−πzρ dρ
R R Z
2
= |z|−1/2 e−iarg(z)/2 e−πx dx
Z R
−πx2
= z −1/2 e dx = z −1/2 ,
R

2
où l’on a utilisé la valeur de l’intégrale de Gauss R e−πx dx = 1. On retrouve ainsi,
R

de manière un peu plus naturelle— dans le sens où elle n’utilise (en apparence)
que des changements de variables — la transformée de Fourier de la gaussienne.
© Par-delà les justifications qualitatives dans le commentaire qui précède, il est
important d’être à l’aise avec les changements de chemins d’intégration, et d’être
capable de les expliquer si un examinateur demande de le faire. La procédure est
systématique :
• tronquer les chemins considérés ;
• former le contour fermé obtenu en reliant le chemin tronqué ;
• justifier la nullité de l’intégrale sur ce contour avec un argument d’holomor-
phie (ou la valeur de l’intégrale, dans le cas de fonctions méromorphes, en
invoquant le théorème des résidus) ;
• se délivrer de la troncature en passant à la limite tout en justifiant les
convergences. On pourra se référer au Développement 81 sur l’espace des
formes modulaires, qui repose sur le calcul d’une intégrale de contour.
© Parmi les fonctions célèbres des mathématiques, la fonction zêta de Riemann ζ
tient assurément une place de choix. La fonction zêta est initialement définie
comme une série de Dirichlet ne convergeant que sur le demi-plan Re(s) > 1.
Toutefois, une propriété fondamentale pour les applications en théorie des nombres
est l’existence d’un prolongement analytique à tout C, sauf en un pôle simple
en s = 1. Les valeurs importantes pour la théorie des nombres sont justement à

529
87. Prolongement de la fonction ζ de Riemann

l’extérieur de la zone de convergence de la série de Dirichlet. Une seconde propriété


importante est l’équation fonctionnelle vérifiée par la fonction zêta, dévoilant une
symétrie entre ζ(s) et ζ(1 − s), de sorte que la droite Re(s) = 1/2, appelée droite
critique, joue le rôle d’un axe de symétrie pour ses zéros et autres propriétés.
Ces propriétés permettent d’exploiter toute la rigidité des fonctions holomorphes,
notamment le théorème des résidus et celui de Cauchy, découvrant la puissance
de la théorie analytique des nombres : les statistiques sur les nombres premiers
sont reliées aux zéros de la fonction zêta. Pour plus de détails, voir [Ten08]. Ainsi,
le théorème de Tchebyshev π(x) = Θ(li(x)) est équivalent au comportement
asymptotique de ζ en 1+ ; le théorème des nombres premiers π(x) ∼ li(x) est
équivalent à la non-annulation de ζ sur la droite Re(s) = 1, et le terme d’erreur
dans cette approximation est déterminé par la plus grande partie réelle de ses
zéros — le meilleur terme d’erreur possible est donc O(x1/2 ), correspondant à
des parties réelles toutes égales à 1/2, ce que postule la fameuse hypothèse de
Riemann.

Questions.
1. Montrer que si une fonction analytique F sur C est constamment égale à 1
sur R, alors elle est constamment égale à 1 sur tout C.
2. Justifier précisément le changement de variables (complexe) effectué en (3).
3. Prouver la formule sommatoire de Poisson.
4. Montrer que la fonction ω est continue.
5. Justifier les inégalités (6).
2
6. Expliquer pourquoi l’intégrale de u 7→ e−πzu , Re(z) > 0, est constante sur
toutes les droites horizontales.
7. Le prolongement obtenu pour ζ est-il unique ?
8. Prouver que θ0 (1) = −θ(1)/4.
9. Pourquoi Γ admet-elle des pôles aux entiers négatifs ?
10. Pourquoi la fonction Γ ne s’annule-t-elle pas ?
11. Montrer, pour c > 1 et x > 0 que
Z c+i∞ +∞
1 2
ζ(s)Γ(s/2)(πx)−s/2 ds = 2 e−πn x .
X
2iπ c−i∞ n=1

12. Pourquoi ζ ne s’annule-t-elle pas sur Re(s) > 1 ?


Z
2
13. Expliquer comment obtenir la valeur de l’intégrale de Gauss e−πx dx = 1.
R
14. Prouver en détails l’équation fonctionnelle (7) à partir de l’équation fonction-
nelle ξ(s) = ξ(1 − s).

530
Intégration et approximation de fonctions

Développement 88 (Théorème de Fejér-Cesàro F)

Pour une fonction f ∈ C(R, R) qui est 2π-périodique, introduisons ses co-
efficients de Fourier (cn (f ))n∈Z et ses sommes partielles de Fourier définies
par
n
X
Sn (f )(x) = ck (f )eikx , x ∈ R.
k=−n

a) Pour tout n > 0, introduisons le noyau de Dirichlet Dn défini par


n
X
Dn (x) = eikx , x ∈ R.
k=−n

Montrer que, pour tout n > 1, la convolée Dn ? f est égale à Sn (f ).


b) Pour tout n > 1, introduisons le noyau de Fejér Kn défini par

1 n−1
X
Kn (x) = Dp (x), x ∈ R.
n p=0

Montrer que, pour tout n > 1 et tout x ∈] − π, π[\{0},

nx
 
sin2
1
Kn (x) = · 2 .
n x
sin2
2

c) Montrer que la suite (Kn )n∈N∗ vérifie les propriétés suivantes :


(A) Positive : Kn > 0 pour tout n > 1 ;
(B) Normalisée : Kn est d’intégrale 2π sur [−π, π], pour tout n > 1 ;
(C) Concentrée en zéro : pour tous ε > 0 et δ ∈]0, π[, il existe n0 ∈ N tel que
Z
∀n > n0 , x∈[−π,π]
Kn 6 ε.
|x|>δ

d) Montrer le théorème de Fejér-Cesàro :

Soit f une fonction continue et périodique de période 2π. Alors,

1 n−1
X
Sk (f ) −→ f lorsque n → +∞,
n k=0

et cette convergence se fait uniformément sur tout compact.

Leçons concernées : 207, 209, 215, 222, 235, 239, 241, 246

531
88. Théorème de Fejér-Cesàro

Ce développement présente un cas particulier d’une méthode très générale d’ap-


proximation des fonctions : l’utilisation de noyaux régularisants. Cela en fait un
développement adapté à la leçon 209. Le sujet précis choisi est une application
à la convergence uniforme au sens de Cesàro des sommes partielles de Fourier
d’une fonction continue vers cette fonction, de manière uniforme sur tout compact,
donnant un résultat important de convergence d’une suite de fonctions (241)
appliqué à la théorie des séries de Fourier (246). L’essentiel de l’argument est une
justification d’un passage à la limite dans une intégrale à paramètres (235, 239).
Pour ne pas passer sous silence la richesse de cette théorie, d’autres applications
sont proposées en commentaires et en questions, ouvrant la voie à des développe-
ments dans le domaine des équations aux dérivées partielles (215, 222) ainsi que
des prolongements de fonctions (207).

Correction.

a) Par définition de la convolution on a, pour tout n > 0 et tout x ∈ R,

Z π n
Z π X
(Dn ? f )(x) = f (y)Dn (x − y)dy = f (y)eik(x−y) dy
−π −π k=−n
n Z π 
−iky
X
= f (y)e dy eikx
k=−n −π

Xn
= ck (f )eikx = Sn (f ).
k=−n

La sommation et l’intégrale ont pu être permutées puisqu’il s’agit d’une somme


finie et de l’intégrale d’une fonction continue sur un segment. On retrouve ainsi
exactement la série de Fourier partielle attachée à f .
b) Nous développons les définitions de Dn et Kn , puis reconnaissons la somme
des termes d’une suite géométrique. Pour tout n > 1 et tout x ∈] − π, π[\{0},

n−1 n−1 p n−1


X X X X ei(p+1)x − e−ipx
Dp (x) = eikx =
p=0 p=0 k=−p p=0
eix − 1
 
n−1n−1
1 
e−ipx 
X X
i(p+1)x
= ix e −
e − 1 p=0 p=0
!
1 einx − 1 e−inx − 1
= ix eix ix − −ix .
e −1 e −1 e −1

On factorise alors par l’exponentielle des demi-sommes apparaissant dans chaque


fraction, faisant apparaître les formules d’Euler définissant le sinus. On obtient,

532
Intégration et approximation de fonctions

pour tout n > 1 et tout x ∈] − π, π[\{0},


inx inx inx inx −inx inx
    
n−1
X 1  e 2 e 2 − e− 2 e− 2 e 2 −e 2
Dp (x) = ix
 ix ix
 − ix
 ix ix
 
p=0
eix −1 e− 2 e 2 − e− 2 e− 2 e− 2 − e 2
nx inx inx nx
− e− sin2
 
sin 2 e 2 2
2
= x = x .
sin 2
ix
e 2 − e− 2
ix
sin2 2

c) La positivité est immédiate par la question précédente : il s’agit d’un carré de


nombre réel, donnant ainsi la propriété (A). Pour calculer l’intégrale sur [0, 1], on
utilise la relation d’orthogonalité
Z π (
1 ikx 1 si k = 0,
e dx =
2π −π 0 sinon.

On obtient alors que l’intégrale de chaque Dn vaut 2π, et donc il en va de même


de leur moyenne Kn . Cela prouve la propriété (B).
Soient ε > 0 et δ ∈]0, π[. Puisque la fonction x 7→ sin2 (x/2) est continue sur le
segment [δ, π] et qu’elle ne s’y annule pas, elle admet un minimum m > 0 sur le
segment [δ, π]. On obtient ainsi, en majorant le sinus du numérateur par un et en
minorant le sinus du dénominateur par m que, pour tout n > 1,

sin2 (nx/2)
Z π Z π
1 π−δ
Kn = dx 6 .
δ n δ sin2 (x/2) mn

Ainsi, puisque la quantité de droite tend vers zéro lorsque n tend vers +∞, il
existe un n0 ∈ N à partir duquel cette quantité est inférieure à ε/2. De plus, par
parité de Kn sur ] − π, π[, cette borne est également valable sur [−π, −δ]. On
obtient donc Z
K 6 ε,
x∈[−π,π] n
|x|>δ

ce qui est la propriété (C) voulue.


d) La preuve découle des trois propriétés précédentes des noyaux de Fejér. En
effet, par la question a) et linéarité de la convolution on a, pour tout n > 1,

1 n−1
X
Kn ? f = Sk (f ).
n k=0

Par définition de la convolution on a, pour tout n > 1 et tout x ∈] − π, π[,


Z π
1
Kn ? f (x) = Kn (t)f (x − t)dt.
2π −π

De plus, par la propriété (B) on a, pour tout n > 1 et tout x ∈] − π, π[,


Z π Z π
1 1
f (x) = f (x) Kn (t)dt = Kn (t)f (x)dt.
2π −π 2π −π

533
88. Théorème de Fejér-Cesàro

Par soustraction il vient, pour tout n > 1 et tout x ∈] − π, π[,


Z π
1
Kn ? f (x) − f (x) = Kn (t)(f (x − t) − f (x))dt.
2π −π

Puisque la fonction f est continue sur le compact [−π, π], elle est bornée. Intro-
duisons la borne M = sup[−π,π] |f |. De plus, par continuité sur un compact, la
fonction f est uniformément continue par le théorème de Heine. Autrement dit,
pour toute quantité ε > 0, il existe δ > 0 tel que :

∀|t| 6 δ, ∀x ∈ [−π, π], |f (x − t) − f (x)| 6 ε.

Coupons désormais l’intégrale exprimant la différence Kn ? f − f en l’intégrale


sur un voisinage de zéro et l’intégrale sur le reste du segment [−π, π]. Les inté-
grales suivantes sont toutes limitées à [−π, π], nous nous contentons d’indiquer le
découpage par rapport à δ. On obtient, pour tout n > 1 et tout x ∈ [−π, π],
Z π
1
|Kn ? f (x) − f (x)| 6 Kn (t)|f (x − t) − f (x)|dt
2π −π
1 1
Z Z
6 Kn (t)|f (x − t) − f (x)|dt + Kn (t)|f (x − t) − f (x)|dt.
2π |t|6δ 2π |t|>δ

Dans la première intégrale, |f (x − t) − f (x)| 6 ε par uniforme continuité de f ,


et l’intégrale restante est majorée par 1 par la propriété (B). Dans la seconde
intégrale, on peut majorer |f (x − t) − f (x)| par 2M grâce à l’inégalité triangulaire,
et l’intégrale de Kn hors d’un voisinage de zéro peut être majorée par ε pour n
assez grand par la propriété (C). On obtient ainsi, pour n > 1 et x ∈ [−π, π],
Z π
ε 2M M
Z  
|Kn ? f (x) − f (x)| 6 Kn (t)dt + Kn (t)dt 6 1 + ε.
2π −π 2π |x|>δ π

Cela prouve que (Kn ? f )n converge uniformément vers f , terminant la preuve du


théorème de Fejér-Cesàro.

Commentaires.

© La preuve proposée dans ce développement repose sur le noyau régularisant


de Fejér Kn . La convolution par un noyau est un moyen de déformer une fonc-
tion, donnant généralement une fonction proche de la fonction initiale mais aux
propriétés mieux contrôlées grâce à la connaissance du noyau. Cette démarche
survient dans de nombreuses situations, et la preuve fournie ici se généralise en le
théorème des noyaux régularisants que nous citons maintenant :

534
Intégration et approximation de fonctions

Soit (Kn )n∈N une suite de fonctions continues vérifiant les propriétés
(A) Positive : Kn > 0 pour tout n > 0 ;
(B) Normalisée : Kn est d’intégrale 1 sur R, pour tout n > 0 ;
(C) Concentrée en zéro : pour tous ε, δ > 0, il existe n0 ∈ N tel que
Z
∀n > n0 , x∈R
Kn 6 ε.
|x|>δ

Si f est une fonction bornée et continue sur R, la suite (Kn ? f )n∈N


converge uniformément vers f sur tout compact.
De telles suites sont aussi appelées des approximations de l’unité, ou encore des
suites de Dirac. De nombreuses applications découlent de ce puissant principe
d’approximation, ainsi que nous l’illustrons dans les commentaires suivants.

Figure 2.36 – Représentation des premiers noyaux de Fejér (n augmente avec


l’intensité de la courbe), approchant de manière lisse la distribution de Dirac.

© Les noyaux de Dirichlet considérés dans la première question ne sont pas des
noyaux régularisants, notamment parce qu’ils ne sont pas positifs. En particulier,
on ne peut pas en déduire la convergence des sommes partielles de la série de
Fourier de f vers f . Pour une fonction quelconque, cette convergence est rarement
uniforme. Quitte à lisser un peu le comportement des sommes de Fourier, en
considérant leur moyenne de Cesàro, on obtient toutefois la convergence uniforme
comme prouvé dans ce développement.
© Le théorème d’approximation de Weierstrass énonce que toute fonction continue
peut être approchée uniformément par des polynômes sur un compact. Celui-ci
peut également s’obtenir comme conséquence du théorème des noyaux régularisants
énoncé ci-avant, ainsi que présenté dans les questions ci-après.
© Les convolutions par des noyaux réguliers ont un effet régularisant (voir ques-
tions), de sorte que le théorème prouvé ici dans le cas particulier des noyaux de
Fejér est un outil très vaste d’approximation par des fonctions régulières (sommes

535
88. Théorème de Fejér-Cesàro

partielles, polynômes, fonctions dérivables, etc. en fonction des propriétés du


noyau), en particulier pertinent pour la leçon 209.
© Les familles de Poisson sont l’analogue continu des suites de noyaux régularisants,
et sont des familles décrites par un paramètre continu vérifiant les mêmes propriétés
(A), (B) et (C). L’analogue continu du théorème ci-avant demeure, avec une preuve
identique. Nous utiliserons cette notion et le résultat transposé à ce cadre dans
les applications suivantes.
© Un grand problème en théorie des équations aux dérivées partielles et en
physique est de déterminer des fonctions harmoniques (de laplacien nul) sur
le disque unité, ayant une valeur fixée sur le bord du disque. L’utilisation de
bonnes familles de Poisson permet de construire de telles fonctions, développement
proposé dans les questions suivant ces commentaires.
© Une autre instance de ce problème est de déterminer l’évolution thermique
de systèmes physiques. Par exemple, étant donné un profil de température au
temps t = 0 décrit par une fonction f (x), est-il possible de construire une solution
de l’équation de la chaleur F (x, t) telle que F (x, 0) = f (x) pour tout x ? Ce
problème est traité dans les questions suivant ces commentaires.
© Les deux derniers résultats mentionnés, utilisés comme application du théorème
des noyaux réguliers, sont de belles illustrations de méthodes puissantes en théorie
des équations aux dérivées partielles. Elles pourraient à ce titre trouver leur place
comme développements des leçons associées au calcul différentiel (215) et aux
équations aux dérivées partielles (222), ainsi que dans celle dédiée aux prolon-
gements de fonctions (207) dans le cas de l’exemple des fonctions harmoniques
à valeur prescrite au bord. Plutôt que d’avoir rédigé ces développements, de
niveau essentiellement F et réduits à des calculs de dérivées partielles (ainsi
qu’à l’utilisation du théorème des noyaux réguliers), nous avons préféré détailler
précisément les étapes associées dans les questions ci-après.

Questions.
1. Montrer la relation d’orthogonalité utilisée dans le développement.
2. Montrer que la convolution a un effet régularisant : pour tout n > 0, pour
toute fonction f ∈ L2 (R) et tout fonction g ∈ Ccn (R), montrer que f ? g ∈ Ccn (R).
3. Théorème d’approximation polynomiale de Weierstrass.
Considérons une fonction continue sur [0, 1], nulle en 0 et en 1. Introduisons le
noyau de Landau défini par, pour tout n > 0 et certaines constantes cn > 0,
(
cn (1 − x2 )n si − 1 6 x 6 1,
Kn (x) =
0 si x > 0.

(i) Montrer que la suite (Kn )n∈N est une suite de noyaux réguliers pour un bon
choix de constantes cn > 0.
(ii) Pour tout n > 0, montrer que Kn ? f est un polynôme.
(iii) En déduire le théorème d’approximation de Weierstrass.

536
Intégration et approximation de fonctions

4. Prolongement de fonctions harmoniques.


Utilisons les coordonnées polaires pour introduire le noyau donné par

1 +∞
r|n| einθ ,
X
Pr (θ) = P (r, θ) = 0 6 r < 1, θ ∈ R.
2π n=−∞

(i) Montrer que, pour tout 0 6 r < 1 et tout θ ∈ R, on a

1 1 − r2
Pr (θ) = · .
2π 1 − 2r cos θ + r2

(ii) Prouver les propriétés (A), (B) et (C) par rapport à r.


Indication : pour la propriété (C), on pourra remarquer l’inégalité, valable
pour tout θ ∈ [−π, π] tel que |θ| > δ > 0, et tout 0 6 r < 1,

1 1
2
6 .
1 − 2r cos θ + r 1 − 2r cos δ + r2

(iii) En notant D la différentielle, montrer que pour f et g différentiables,

D(f ? g) = (Df ) ? g.

(iv) Montrer que ∆P (r, θ) = 0, i.e. que le noyau P (r, θ) est harmonique.
Indication : on pourra utiliser le laplacien en coordonnées polaires :

∂2 1 ∂ 1 ∂2
∆= + + .
∂r2 r ∂r r2 ∂θ2

(v) Si f est une fonction harmonique et r > 0, montrer que Pr ? f est harmonique.
(vi) En déduire que , si f est une fonction infiniment différentiable et harmonique
sur le bord du disque unité, alors on peut trouver une fonction F harmonique
à l’intérieur du disque unité, et prenant les valeurs données par f sur le bord.
Indication : considérer la fonction Pr ? f (θ) = (P ? f )(r, θ).

5. Le noyau de la chaleur.
Pour tous t > 0 et x ∈ R, introduisons le noyau
1 −x2 /4t
Kt (x) = K(t, x) = √ e .
4πt

(i) Vérifier que (Kt )t>0 est une famille de noyaux réguliers.
Indication : pour la propriété (C), on pourra utiliser
√ les changements de
variables donnés par y 2 = x2 /4t puis x = 2y t pour prouver que pour
tout ε > 0, si t est suffisamment petit on a
Z +∞
1 2 /4t
√ e−x dx 6 ε.
4t δ

537
88. Théorème de Fejér-Cesàro

(ii) Montrer que le noyau de la chaleur vérifie l’équation de la chaleur :

∂2K ∂K
(t, x) = (t, x).
∂x2 ∂t

(iii) En déduire que, si f est une fonction continue bornée sur R (le profil de
chaleur au temps t = 0), alors il existe une solution de l’équation de la chaleur
F (x, t) qui vérifie F (x, 0) = f (x).
Indication : considérer la régularisation F (x, t) = (Kt ? f )(x).
Remarque : pour un bon choix de norme (à savoir, une norme de Sobolev),
cette expression explicite de F en fonction de f permet de conclure que F
est continue par rapport à sa condition initiale f . Si l’on peut prouver en
plus l’unicité d’une telle solution, on dit que le problème est « bien posé »,
voir Développement 66.

538
Intégration et approximation de fonctions

Développement 89 (Théorème de Minkowski pour les réseaux FF)

Soit n > 1. Considérons une partie A de Rn qui est convexe, fermée et symé-
trique par rapport à zéro 30 .
a) Rappeler la formule sommatoire de Poisson dans Rn .
Introduisons B = 12 A et ε > 0.

b) Construire une fonction g ∈ C ∞ (Rn , R) positive telle que


(i) g 6 1B+B(0,ε) , la boule étant considérée pour la norme euclidienne.
(ii) g est paire.
Z
(iii) g est égale à vol(B), le volume de B pour la mesure de Lebesgue.
Rn

c) Considérons la convolée h = g ? g. Prouver les propriétés suivantes :


(i) h 6 vol(B) 1A+B(0,2ε) .
(ii) h
b est positive.

(iii) h
b est à décroissance rapide.

d) En déduire le théorème de Minkowski :

Soit A ⊆ Rn un convexe fermé et symétrique par rapport à zéro.


Si le volume de A est supérieur à 2n , alors A contient au moins un
point non nul de Zn .

Leçons concernées : 190, 209, 239, 250


Ce développement est avant tout la réponse à un problème de dénombrement.
Il est donc adéquat pour la leçon concernée (190) non seulement en raison du
résultat, mais également pour les outils utilisés : la formule de Poisson permet
une formulation analytique d’un problème géométrique, et les outils de l’analyse
suppléent au manque de régularité des fonctions de comptage. La reformulation
exacte du problème par la formule de Poisson se heurte en effet à un problème
de régularité des fonctions indicatrices, nécessitant un procédé d’approximation
par des fonctions lisses et faisant de cette démonstration un beau développement
d’analyse fonctionnelle et de régularisation de fonctions (209). Les outils utilisés
sont ceux de l’analyse de Fourier (250), qui est ainsi très bien illustrée tout au
long de la preuve, et plus vastement les manipulations d’intégrales à paramètres,
ce qui rend l’exposé pertinent pour la leçon associée (239).

30. Un ensemble A est symétrique par rapport à zéro si, pour tout x ∈ A, on a −x ∈ A.

539
89. Théorème de Minkowski pour les réseaux

Correction.
a) Soit f continue sur Rn telle que sa transformée de Fourier fb soit également
continue. De plus, on suppose que f et fb sont toutes deux dominées par (1+k·k)−k
à l’infini pour tout k ∈ N. Alors la formule de Poisson s’écrit
X X
f (x) = fb(x).
x∈Zn x∈Zn

b) Considérons une fonction f à support dans B(0, ε), indéfiniment dérivable


sur Rn , positive, paire et d’intégrale 1. Régularisons la fonction indicatrice de B
en posant g = 1B ? f .
(i) Puisque f est indéfiniment dérivable, g est indéfiniment dérivable comme
convolée. Le support de g est inclus dans la somme des deux supports, c’est-à-dire
B + B(0, ε). En effet par définition on a, pour tout x ∈ Rn ,
Z Z
g(x) = 1B (u)f (x − u)du = f (x − u)du.
Rn B

En particulier, pour que l’intégrande soit non nul il faut que x − u soit dans B(0, ε)
pour certains u ∈ B, autrement dit il faut que x ∈ B + B(0, ε). De plus, pour tout
x ∈ Rn , le changement de variables u 7→ x − u mène à
Z Z Z
g(x) = f (x − u)du = f (u)du 6 f (u)du = 1,
B x−B Rn

ce qui prouve bien l’inégalité

g 6 1B+B(0,ε) .

(ii) Via le changement de variables u 7→ −u, en utilisant la symétrie de B par


rapport à zéro et la parité de f on a, pour tout x ∈ Rn ,
Z Z
g(−x) = 1B (u)f (−x − u)du = f (−x − u)du
n B
ZR Z
= f (−x + u)du = f (x − u)du = g(x)
B B

donc g est paire.

(iii) L’intégrale de la convolée se calcule alors comme suit, par le changement


de variables u 7→ x − u et par le théorème de Fubini-Tonelli :
Z Z Z
g(x)dx = 1B (u)f (x − u)dudx
Rn ZR
n Rn Z
= 1B (u) f (x − u)dxdu
n RnZ
ZR
= 1B (u)du f (x)dx = vol(B).
Rn Rn

540
Intégration et approximation de fonctions

c) (i) Par définition, pour tout x dans Rn ,


Z
h(x) = g(v)g(x − v)dv.
Rn

Examinons le support de h. Soit x ∈ Rn tel que h(x) 6= 0. Il existe alors au


moins un v ∈ Rn tel que l’intégrande ne soit pas nul en v, autrement dit tel que
v ∈ supp(g) et que x ∈ v + supp(g). Ainsi, on en tire que x ∈ supp(g) + supp(g).
Puisque supp(g) ⊆ 12 A+B(0, ε) par la question précédente, on a supp(g)+supp(g)
inclus dans 12 A + B(0, ε) + 12 A + B(0, ε). Or A est convexe, donc toute moyenne
d’éléments de A demeure dans A, en particulier 12 A + 12 A ⊆ A. Ainsi, le support
de h est inclus dans A + B(0, 2ε).
De plus, puisque 0 6 g 6 1 par la question a)(i), on a, pour tout x ∈ Rn ,
Z Z
h(x) = g(u)g(x − u)du 6 g(u)du = vol(B).
Rn Rn

Ces deux résultats prouvent donc comme voulu que

h 6 1A+B(0,2ε) vol(B).

(ii) La fonction g est paire, continue, à valeurs réelles et intégrable, donc


Z Z
gb(x) = g(u)e2iπhx,ui du = g(−u)e−2iπhx,ui du
n Rn
ZR
= g(u)e−2iπhx,ui du = gb(x),
Rn

ce qui prouve que la transformée de Fourier de g est à valeurs réelles.


Comme h = g ? g on a, en utilisant le changement de variable u 7→ u + v et en
appliquant le théorème de Fubini,
Z Z Z
h(x)
b = h(u)e2iπhx,ui du = g(v)g(u − v)e2iπhx,ui dudv
n Rn Rn
ZR Z
= g(v)g(u)e2iπhx,ui e2iπhx,vi dudv = gb(x)2 . (1)
Rn Rn

En particulier, puisque gb est réelle, h


b est positive.

(iii) Puisque g est indéfiniment dérivable et à support compact, il est possible de


réaliser des intégrations par parties successives de sa transformée de Fourier, qui
décroît donc plus rapidement que toute fraction rationnelle en kxk. En particulier,
pour tout k ∈ N on a, lorsque kxk tend vers +∞,
Z  
gb(x) = g(u)e2iπhx,ui du = O kxk−k .
Rn

Il en va donc de même pour h


b d’après l’équation (1).

541
89. Théorème de Minkowski pour les réseaux

d) Supposons que vol(A) > 2n . Rappelons que vol(B) = 2−n vol(A), donc en
particulier vol(B) > 1. Puisque la transformée de Fourier h
b est positive,
X
h(0)
b 6 h(x).
b
x∈Zn

Puisque h 6 1 et h est supportée sur A + B(0, 2ε) par la question c)(i), la formule
sommatoire de Poisson appliquée à h donne
X X
h(x)
b = h(x) 6 |(A + B(0, 2ε)) ∩ Zn | vol(B).
x∈Zn x∈Zn

Par ailleurs,
Z 2
h(0)
b = gb(0)2 = g(u)du = vol(B)2 ,
Rn

donc il vient
|(A + B(0, 2ε)) ∩ Zn | > vol(B)2 > 1.

Ainsi, A + B(0, 2ε) contient au moins un point non nul du réseau Zn , pour tout
ε > 0. Pour tout m > 0, en choisissant ε = 2−m , ce qui précède garantit l’existence
d’un point xm ∈ A + B(0, 2−m ) ∩ Zn \{0}. Quitte à prendre l’intersection de
A avec une boule, on peut supposer que A est borné donc compact. Chaque xm ,
pour m > m0 , appartient à A + B(0, 1) qui est compact, on peut donc en extraire
une sous-suite convergente vers une limite notée x. La limite x appartient à
chaque A + B(0, 2−m ) donc appartient à leur intersection, qui est l’adhérence de A.
Comme A est fermé, on obtient x ∈ A.
Par ailleurs, (xm ) est une suite de l’ensemble discret Zn \{0}, elle stationne donc
à partir d’un certain rang en un vecteur d’entiers non nul. Ainsi, on en déduit
que x ∈ (A ∩ Zn )\{0}.

Commentaires.
© Le théorème de Minkowski est un résultat classique de géométrie des nombres.
Il s’agit de prouver qu’un ensemble suffisamment grand et satisfaisant de bonnes
propriétés de symétrie rencontre le réseau des entiers Zn de manière non triviale.
La preuve proposée pour ce développement utilise des arguments d’analyse har-
monique. Formellement, le théorème découle de l’application de la formule de
Poisson à la fonction indicatrice 1A de A. En effet, ignorant les problèmes de
régularité et supposant que la transformée de Fourier 1b A est positive, la formule
de Poisson donnerait
X X
|A ∩ Zn | = 1A (x) = 1cA (x) > 1cA (0) = vol(A),
x∈Zn x∈Zn

et cela prouverait l’existence de points non triviaux de Zn dans A, pourvu que


le volume de A soit strictement supérieur à 1. C’est une idée puissante dans le
domaine de la combinatoire où l’utilisation de fonctions génératrices est la clé de
telles reformulations analytiques.

542
Intégration et approximation de fonctions

Toutefois, la fonction indicatrice de A ne vérifie pas les propriétés de régularité


nécessaires à l’application de la formule de Poisson et doit donc être approchée
par des fonctions plus lisses. L’un des enjeux est de bien contrôler la régularité des
fonctions considérées, et l’idée maîtresse pour ce faire est d’utiliser la convolution.
© L’heuristique présentée ci-avant est un guide important pour la méthode. Une
autre possibilité naïve pour lisser la fonction 1B aurait été de considérer la
convolution 1B/2 ? 1B/2 . Cette fonction est une version de lisse de 1B/2 , toutefois
la propriété de décroissance modérée nécessaire à l’application de la formule de
Poisson n’est pas vérifiée.
© L’outil central de ce développement est la convolution et ses nombreuses pro-
priétés. Les technicités mises à part, le déroulement du développement est assez
naturel : il est important de faire vivre cette preuve en comprenant l’idée sous-
jacente d’approximation par régularisation, sans se noyer dans la virtuosité des
calculs. Ceux-ci peuvent être subsumés sous des propriétés générales mentionnées
dans la leçon, lorsque c’est approprié, ou du moins citées à l’oral de sorte à calibrer
la durée de l’exposé : la convolution régularise, le support d’une convolée est inclus
dans la somme des deux supports, la transformée de Fourier d’une convolée est le
produit des transformées de Fourier, etc.
© Les fonctions plateaux évoquées à la question b) sont un outil puissant en
analyse. Une telle fonction s’obtient par exemple à partir de produits de gaus-
siennes x 7→ exp(−kxk−2 ) translatées et renormalisées. Plus généralement, les
approximations de l’unité sont des outils d’approximation lisses qui méritent d’être
mentionnées dans les leçons d’approximations ou d’espaces fonctionnels.
© Ce développement a permis de prouver le théorème de Minkowski. Ses applica-
tions sont nombreuses, et parmi les plus célèbres se trouvent le théorème des deux
carrés de Fermat, le théorème des quatre carrés de Lagrange, ou encore la finitude
du nombre de classes d’idéaux dans un corps de nombres. On ne reportera par
exemple à [Sam67] pour de telles applications.
© Un autre exemple de question importante abordée grâce à la formule de Poisson
est le problème du cercle de Gauss : quel est le nombre N (r) de points de Z2
dans un disque centré en l’origine et de rayon r ? Heuristiquement, l’aire du
disque étant πr2 et les points de Z2 étant équirépartis, on conjecture une formule
asymptotique de la forme N (r) = πr2 + o(r2 ) lorsque r tend vers +∞. Gauss
a prouvé que le terme d’erreur est en O(r), conjecturant que le bon ordre de
grandeur devrait être O(r1/2+ε ) pour tout ε > 0. Ce problème reste ouvert à
l’heure actuelle et le meilleur résultat est un terme d’erreur de taille O(r2/3 ),
obtenu grâce à une application de la formule de Poisson similaire à celle présentée
ici.
© La formule de Poisson est une relation entre une distribution géométrique
(évaluée en f ) et une distribution spectrale (évaluée en fb). C’est un cas particulier
des formules de traces, qui tissent de telles connexions dans des cadres plus
généraux, et qui sont donc de puissantes formules pour trouver des informations
sur l’un des deux aspects une fois que l’autre est suffisamment bien maîtrisé.
Ces formules sont par exemple des outils centraux pour obtenir les lois de Weyl

543
89. Théorème de Minkowski pour les réseaux

estimant le nombre de valeurs propres du laplacien sur une surface riemannienne (à


partir d’informations sur sa géométrie), ou le théorème dénombrant les géodésiques
de longueurs des nombres premiers (à partir d’informations spectrales sur certains
opérateurs). Enfin, des résultats très récents de Marina Viazovska ont clos la
question de l’empilement optimal des sphères en dimension 8 et 24 par une
application étonnamment simple de la formule de Poisson !

Questions.
1. Démontrer la formule de Poisson.
2. Le théorème de Minkowski est-il encore valide pour d’autres réseaux que Zn ?
3. Justifier l’argument de la question c)(iii) : si g est indéfiniment dérivable et à
support compact, alors sa transformée de Fourier décroît asymptotiquement plus
vite que tout polynôme.
4. La borne est-elle optimale dans l’énoncé du théorème de Minkowski ? Autrement
dit, existe-t-il des convexes fermés symétriques par rapport à zéro et de volume
égal à 2n − ε ne contenant aucun point non trivial du réseau, pour tout ε > 0 ?
5. Expliquer comment obtenir la fonction f considérée au début de la ques-
tion b)(i) ?
6. En quoi la convolution a-t-elle un effet régularisant ?
7. Le point 0 est-il forcément dans A ?
8. Expliquer en quoi l’hypothèse de symétrie est importante. Donner un contre-
exemple au théorème lorsque A n’est pas symétrique par rapport à 0.
9. Si A est un convexe non borné, que dire de son volume ?
10. Pour une partie A quelconque de Rn , y a-t-il une relation entre A + A et 2A ?
11. Si deux ensembles X et Y sont fermés, X + Y est-il également fermé ?
12. Pourquoi les changements de variables u 7→ −u réalisés dans le développement
ne font-ils pas apparaître de signes − ?

544
Intégration et approximation de fonctions

Développement 90 (Théorème taubérien de Hardy-Littlewood F)


 
1
Soient (an )n∈N une suite de réels telle que an = O n . Supposons que

+∞
lorsque x → 1− .
X
an xn −→ 0 (1)
n=0

Soit Φ l’ensemble des fonctions φ : [0, 1] → R telles que φ(0) = 0, φ(1) = 1 et,
pour tout x ∈ [0, 1[, la série
+∞
converge et tend vers 0 lorsque x → 1− .
X
an φ(xn ) (2)
n=0

a) Montrer que tout polynôme nul en 0 vérifie (2).


b) Soient ε > 0 et g = 1[1/2,1] la fonction caractéristique du segment [1/2, 1].
(i) Montrer que, pour tout polynôme p ∈ R[X],
+∞
X Z 1
n n
(1 − x) x p(x ) −−−−→ p.
x→1− 0
n=0

(ii) Montrer qu’il existe deux polynômes p1 , p2 ∈ R[X] tels que


• p1 6 g 6 p2 ;
• pi (0) = 0, pi (1) = 1, pour tout i ∈ {1, 2} ;
Z 1
p2 (x) − p1 (x)
• dx 6 ε.
0 x(1 − x)
(iii) En déduire que g ∈ Φ.
c) Montrer le théorème taubérien de Hardy-Littlewood :

Soit ` ∈ R. Supposons que an = O( n1 ) est telle que an xn a un


P

rayon de convergence supérieur à 1. On a


+∞
X +∞
X
Si an xn −→ `, alors an = `.
x→1−
n=0 n=0

Leçons concernées : 207, 209, 230, 243

Ce développement propose de donner des conditions suffisantes au prolongement


d’une série entière au bord de son domaine de convergence 31 . Il est basé sur
31. En réalité, on se pose ici la question de la limite de la somme de la série en x = 1. Si le
rayon de convergence est strictement plus grand que 1, la question est triviale car la fonction y est
continue. Cela fait que le théorème est intéressant seulement lorsque le rayon est exactement 1,

545
90. Théorème taubérien de Hardy-Littlewood

une approximation fine des sommes partielles par des sommes plus lisses, alors
approchables par des sommes de polynômes pour lesquelles le résultat est facile.
L’énoncé du théorème taubérien de Hardy-Littlewood concerne avant tout le pro-
longement d’une fonction au bord de son domaine de définition a priori, justifiant
sa présence dans la leçon sur les prolongements de fonctions (207). Le cadre
particulier des théorèmes taubériens est celui des séries entières, en faisant une
bonne illustration de ces objets (230, 243). Enfin, l’essentiel de l’argument est
une succession d’approximations des sommes partielles par des fonctions de plus
en plus lisses, de sorte qu’il est l’archétype des méthodes d’approximations de
fonctions (209).

Correction.
a) Tout polynôme nul en zéro s’écrit comme combinaison linéaire de monômes X k
avec k > 1. Par linéarité, il suffit donc de prouver le résultat pour de tels monômes.
Soient k > 1 et φ = X k ∈ R[X]. On a xk → 1− lorsque x → 1− , de sorte que
l’hypothèse (1) permet de conclure que

+∞ +∞  n
x → 1− .
X X
an φ(xn ) = an xk −→ 0 lorsque
n=0 n=0

Ainsi, tout polynôme nul en zéro vérifie la condition (2).


b) (i) Par linéarité il suffit de le vérifier pour les monômes p = X k pour tout
entier k > 0. Soit k > 0. En reconnaissant la somme des termes consécutifs d’une
suite géométrique, on obtient
+∞
X +∞
X n
n n k
(1 − x) x (x ) = (1 − x) xk+1
n=0 n=0
1−x 1
= =
1 − xk+1 1 + x + · · · + xk
Z 1
1
−→ = p.
x→1− k + 1 0

Ainsi, tous les polynômes vérifient la relation demandée.


(ii) Introduisons la fonction définie par

1

 − si x ∈ [0, 1/2[;

g(x) − x

h(x) = = 1−x
x(1 − x)  1

 si x ∈ [1/2, 1].
x

Nous allons approcher h par des fonctions continues, puis par des polynômes que
nous normaliserons enfin pour obtenir les conditions voulues.
de sorte la convergence se passe au bord du domaine, justifiant la description donnée.

546
Intégration et approximation de fonctions

• Notons que h est une fonction continue par morceaux sur [0, 1] avec une
seule discontinuité en 1/2. Il est possible d’approcher h par deux fonctions
continues vérifiant s1 6 h 6 s2 et telles que
Z 1
|s2 − s1 | 6 ε. (3)
0

En effet, il suffit de définir s2 (resp. s1 ) comme h + 4ε (resp. h − 4ε ) sur [0, 1]


et d’ajuster un peu autour du point de discontinuité. Plus précisément,
définissons s2 (resp. s1 ) comme la fonction h + 4ε (resp. h − 4ε ) sur la partie
ε 1 ε
définie par [0, 1]\[ 12 − 16 , 2 ] (resp. [0, 1]\[ 12 , 21 + 16 ]) et de compléter de manière
affine sur le segment central. Ces fonctions s1 et s2 sont alors bien continues
et vérifient les inégalités s1 6 h 6 s2 . Une étude de fonctions élémentaire
montre que −2 − 4ε 6 s1 et s2 6 2 + 4ε (voir Figure 2.37). On en tire que
|s2 − s1 | est bornée par

ε 1 ε 1 ε
 
sur [0, 1]\ − , + ,



 2 2 16 2 16
ε 1 ε 1 ε
 

 4+ sur − , + .


2 2 16 2 16

s2
h
1 ε s1
2 − 16

0 1 1
+ ε
2 2 16
ε
2

Figure 2.37 – Représentation graphique des fonctions s1 et s2 .

On obtient alors la borne intégrale,


Z 1 1 ε
Z Z
2
+ 16
|s2 − s1 | = |s2 − s1 | + |s2 − s1 |
ε 1 ε ε
0 [0,1]\[ 12 − 16 , 2 + 16 ] 1
2
− 16
ε ε ε ε
   
6 1− + 4+ = ε.
2 8 2 8
• Approchons uniformément sur [0, 1] les si par des polynômes, ce qui est possible
par le théorème de Weierstrass. Plus précisément, il existe des polynômes
t1 , t2 ∈ R[X] tels que, pour tout i ∈ {1, 2},

kti − si k∞ 6 ε. (4)

547
90. Théorème taubérien de Hardy-Littlewood

On vérifie alors que t1 et t2 sont de bons encadrants de h. En effet, en notant


u1 = t1 − ε et u2 = t2 + ε, on vérifie immédiatement que

u1 6 s1 6 h 6 s2 6 u2 ,

et la définition de u1 , u2 ainsi que les bornes (4) et (3) donnent alors


Z 1 Z 1
(u2 − u1 ) = (t2 − t1 ) + 2ε
0 0
Z 1
6 (s2 − s1 ) + 4ε
0
6 5ε.

• Considérons enfin pi = X + X(1 − X)ui ∈ R[X] pour tout i ∈ J1, 2K. Ces pi
vérifient évidemment la deuxième condition requise par l’énoncé. Concernant
la première condition, par définition de h on a, pour tout x ∈ [0, 1],

p1 (x) = x + x(1 − x)u1 (x) 6 x + x(1 − x)h(x) = g(x).

On obtient de la même manière g 6 p2 . Concernant la troisième propriété,


Z 1 Z 1
p2 (x) − p1 (x)
dx = (u2 − u1 ) 6 5ε.
0 x(1 − x) 0

On peut donc approcher h par des polynômes p1 , p2 avec les propriétés voulues.
(iii) Il est clair que g(0) = 0 et que g(1) = 1. Pour tout x ∈ [0, 1[, la série
n n
n an g(x ) converge car c’est une somme finie. En effet, x → 0 lorsque x
P

tend vers 0 et g est nulle au voisinage de 0, de sorte que g(xn ) = 0 pour tout n
suffisamment grand. Il reste à montrer que la somme de série obtenue en mettant p1
à la place de g est une bonne approximation. En notant p = p2 (x)−p 1 (x)
x(1−x) et puisque
|an | 6 C/n pour un certain C > 0 par l’hypothèse de domination, on a
+∞
X +∞
X +∞
X
an g(xn ) − an p1 (xn ) 6 |an |(g(xn ) − p1 (xn ))
n=0 n=0 n=0
+∞
X p2 (xn ) − p1 (xn )
6C
n=1
n
+∞
X xn (1 − xn )
6C p(xn )
n=1
n
+∞
X
6 C(1 − x) xn p(xn ).
n=0

De plus, par la question b)(i), on sait que


+∞
X Z 1
n n
(1 − x) x p(x ) −→ p 6 ε,
n=0 0

548
Intégration et approximation de fonctions

de sorte que pour tout x suffisamment proche de 1 on a


+∞
X +∞
X
an g(xn ) − an p1 (xn ) 6 Cε,
n=0 n=0

On obtient de plus, par la question a) appliquée au polynôme p1 , que pour tout


x suffisamment proche de 1 on a
+∞
X
an p1 (xn ) 6 ε.
n=0

Ainsi on a, pour x assez proche de 1,

+∞
X +∞
X +∞
X +∞
X
an g(xn ) 6 an g(xn ) − an p1 (xn ) + an p1 (xn )
n=0 n=0 n=0 n=0
6 (C + 1)ε,

de sorte que g ∈ Φ.
c) Sans perdre de généralité, quitte à remplacer a0 par a0 + `, on peut supposer
P
que ` = 0. La fonction g permet de simuler les sommes partielles de la série an .
En effet on a, pour tout x ∈ [0, 1[,
N +∞
ln 2
X X  
an = an g(xn ) où N= − ,
n=0 n=0
ln x

de sorte que N tend vers l’infini lorsque x tend vers 1− . Puisque g ∈ Φ par la
fonction b)(iii), on en déduit que la somme de cette série tend vers zéro lorsque x
tend vers 1− , ce qui est le résultat escompté.

Commentaires.
© Ce théorème constitue une sorte de réciproque au théorème d’Abel (1826) :
+∞
X
Soit ` ∈ R. Soit (an )n∈N une suite de réels. Si an = `, alors
n=1

+∞
lorsque x → 1− .
X
an xn → `
n=0

Tauber prouve en 1897 une réciproque du théorème d’Abel, plus précisément :


Soit ` ∈ R. Soit (an )n∈N une suite de réels telle que an = o(n−1 ).
Lorsque x tend vers 1− , si on a +∞ n
n=1 an x → `, alors
P

+∞
X
an = `.
n=0

549
90. Théorème taubérien de Hardy-Littlewood

Il s’agit du premier théorème d’une longue série, appelée théorèmes taubériens,


dont de nombreuses variantes sont dues à Hardy et Littlewood. Pour découvrir
ce monde des théorèmes taubériens, nous renvoyons le lecteur à [CQ09], qui en
fait de précises analyses mathématiques et historiques. Le théorème présenté dans
ce développement, dû à Hardy et Littlewood en 1914 et dont la preuve a été
grandement simplifiée par Karamata en 1930, est un renforcement de celui de
Tauber, l’hypothèse an = o(n−1 ) étant remplacée par an = O(n−1 ). Hardy et
Littlewood ont montré par la suite que cette hypothèse peut être encore affaiblie,
supposant seulement que an > −C/n pour une certaine constante C > 0. Hardy
et Littlewood ont prouvé que cette condition est essentiellement optimale, voir
[CQ09] pour un énoncé précis.
© La grande idée de la preuve est de renforcer l’hypothèse en observant que
de nombreuses fonctions sont dans, ou proches de, Φ de sorte à ultimement
approcher une fonction caractéristique permettant d’atteindre les sommes partielles
recherchées.
© Des théorèmes du même type existent lorsque la somme de la série entière
n’admet pas de limite en 1− . Par exemple, si la série entière se comporte en 1−
comme une fonction méromorphe ayant un pôle d’ordre k, autrement dit si
+∞
X α
an xn ∼
n=0
x→1− (x − 1)k

et si les coefficients an sont positifs alors on a, lorsque N → ∞,


X α k
an ∼ N .
n6N
k!

De tels théorèmes, ainsi que leurs analogues pour les séries de Dirichlet, sont
particulièrement présents et utiles en théorie analytique des nombres, où l’étude
de quantités arithmétiques (les coefficients an ) est ramenée à une étude analytique
locale de la fonction génératrice associée.
© Il est important d’être conscient du choix de présentation fait aux ques-
tions b)(ii) et (iii) pour prouver les convergences vers zéro. En effet, plutôt
que de majorer par ε comme le demande la définition habituelle de la limite,
nous majorons par M ε où M > 0 est une constante (à savoir M = 5 dans la
question b)(ii) et M = C + 1 dans la question b)(iii). Cela ne change en rien le
résultat, puisqu’il est possible de réécrire la preuve en remplaçant ε > 0 par la
valeur ε/M > 0.
© La construction explicite de l’approximation de h par des fonctions continues à
la question b)(ii) est essentiellement élémentaire, mais toutefois technique à écrire.
S’il est important de savoir justifier cette approximation, nous recommandons
de représenter le graphe de h au tableau lors de la présentation comme fait
à la Figure 2.37, et d’expliquer brièvement quelles sont les fonctions s1 et s2 .
Une explication claire, en montrant où sont les paramètres dépendant de ε
dans l’approximation (sans mentionner toutefois les ajustements nécessaires de

550
Intégration et approximation de fonctions

facteurs multiplicatifs, pour les mêmes raisons qu’à la remarque précédente) est
convaincante. Il faut toutefois s’attendre à des questions demandant le détail
donné dans la correction.

Questions.
1. Justifier que le rayon de la série entière apparaissant en (1) est supérieur à 1.
2. Que se passe-t-il sans l’hypothèse an = O(n−1 ) ?
Indication : considérer les exemples an = (−1)n et an = √1 .
n

an xn est de rayon 1, a-t-on nécessairement an = O( n1 ) ?


P
3. Si la série

551
91. Divergence de l’interpolation de Lagrange

Développement 91 (Divergence de l’interpolation de Lagrange FF)

Nous étudions dans ce développement l’absence de convergence simple des


polynômes d’interpolation de Lagrange d’une fonction vers cette fonction.
a) Soit m > 3 impair. Notons Pm le polynôme de Lagrange interpolant
 u
 0
 si x= , u ∈ J−m, mK \{2},
m

Pm (x) =
 1 2

 si x= .
m m
Montrer que |Pm (1/2)| → ∞ lorsque m croît vers l’infini.
b) Montrer qu’il existe une fonction f continue sur [−1, 1] telle que la suite de
ses polynômes de Lagrange construits sur des points équirépartis ne converge
pas simplement vers f en 1/2 lorsque le nombre de points tend vers l’infini.

Leçons concernées : 141, 209, 241

Ce développement traite d’un écueil important à éviter en approximation poly-


nomiale et un véritable défi de la théorie : même en augmentant le nombre de
nœuds, les polynômes d’interpolation associés à une fonction ne convergent pas
forcément, même simplement, vers la fonction sur tout l’intervalle. Cela fait
de ce développement une très bonne illustration de la leçon sur l’approximation
polynomiale (209), et également de la leçon sur les polynômes (141) compte tenu
des raisonnements utilisant zéros et coefficients. Le problème de l’approximation
des fonctions par des fonctions plus simples est également une application de la
théorie des suites de fonctions (241).

Correction.
a) Le polynôme d’interpolation de Lagrange considéré est explicitement
Y u

X−
1 u6=2 m
Pm (X) = · ,
m Y 2 u


u6=2
m m

où les indices des produits sont dans J−m, mK. La valeur Pm (1/2) est donc
Y
(m − 2u)
1 1
 
u6=2
Pm = · Y
2 m22m (2 − u)
u6=2
1 1 3m(3m − 2) · · · (m − 4) · · · 1 · (−1)(−3) · · · (−m)
= · ·
m22m m − 4 (m + 2)(m + 1) · · · 1 · (−1)(−2) · · · (2 − m)
3m(3m − 2) · · · m(m − 2) · · · 1 · 1 · 3 · · · m
= .
m(m − 4)22m (m + 2)(m + 1) · · · 2 · 1 · 1 · 2 · · · (m − 2)

552
Intégration et approximation de fonctions

Transformons ce quotient comme suit : séparons les éléments du numérateur par pa-
quets en fonction de leur appartenance à J1, mK, Jm + 1, 2m + 1K ou J2m + 3, 3mK
et distribuons la puissance de 2 dans chaque terme du dénominateur. On obtient
alors
1 m−1 3m(3m − 2) · · · (m + 2)(m · · · 5 · 3)2
 
Pm = ·
2 2m(m − 4)(m + 1)(m + 2) (2m(2m − 2) · · · 2 · 4)2
m−1 3m(3m − 2) · · · (2m + 3)
= 2
·
4m (m − 4)(m + 1)(m + 2) (2m − 2) · · · (m + 3)(m + 1)
(2m + 1) · · · (m + 2) (m · · · 5 · 3)2
× · .
2m(2m − 2) · · · (m + 3)(m + 1) ((m − 1) · · · 2 · 4)2

On peut alors reconnaître la forme


1 m−1
 
Pm = A2 BC,
2 4m2 (m − 4)(m + 1)(m + 2)


m···5 · 3
A=
(m − 1) · · · 4 · 2
(2m + 1)(2m − 1) · · · (m + 2)
B=
2m(2m − 2) · · · (m + 1)
3m 3m − 2 2m + 3
    
C= ··· .
2m − 2 2m − 4 m+1

On a A, B > 1 et C est produit de m − 1 facteurs de plus en plus petits de gauche


à droite, le dernier étant minoré par 3/2. Ainsi, C > (3/2)m−1 pour tout m > 3.
En laissant m tendre vers +∞, cela donne immédiatement la divergence voulue.
b) Soit k > 1. Définissons une fonction gk sur [−1, 1] qui est affine par morceaux,
nulle hors de ]3−k , 3−k+1 [ et qui atteint son maximum 3−k au point central de
cet intervalle. Pour toute fonction f sur [−1, 1] à valeurs réelles, on note Lkf
le polynôme q dek Lagrange
y prenant les valeurs de f aux points n/3k pour tout
entier n ∈ −3 , 3k . Ainsi, Lkgk est exactement le polynôme P3k considéré à la
question précédente.
On veut construire f de sorte que Lkf (1/2) ne converge pas vers f (1/2) lorsque k
croît vers l’infini. Par la question précédente, |Lkgk (1/2)| tend vers l’infini avec k,
de sorte qu’en fixant K > 0 il existe un entier h1 > 1 tel que pour tout k > h1 ,

Lkgk (1/2) > 2K.

Notons alors f1 = gh1 . Considérons Lkf1 (1/2) et laissons tendre k vers l’infini. On
a alors deux possibilités :
• Soit Lkf1 (1/2) ne tend pas vers zéro lorsque k → +∞, alors on prend f = f1
et on obtient le résultat escompté : Lkf est un polynôme de Lagrange sur [−1, 1]

553
91. Divergence de l’interpolation de Lagrange

interpolant f en au moins k points distincts, mais Lkf (1/2) ne converge pas vers
la valeur f (1/2) = 0 lorsque k tend vers l’infini.
• Soit il existe un entier r1 > 1 tel que pour tout k > r1 , on a |Lkf1 (1/2)| < K/2.
Soit alors h2 > max(h1 , r1 ). Considérons la fonction f1 + gk pour k > h2 . Les deux
fonctions de cette somme sont à supports disjoints, de sorte qu’elle est continue
sur [−1, 1], nulle en 1/2 et telle que, pour tout k > h2 ,

Lkf1 +gk = Lkf1 + Lkgk . (1)

On obtient alors par inégalité triangulaire que, pour tout k > h2 ,

Lkf1 +gk (1/2) > 2K − K/2 > 0.

On se place désormais dans ce second cas. Notons f2 = f1 + gh2 . Considérons


Lkf2 (1/2) et laissons tendre k vers l’infini. Il y a deux possibilités :
• Soit Lkf2 (1/2) ne tend pas vers zéro lorsque k tend vers +∞, et on prend f égale
à f2 qui donne le résultat escompté : Lkf est un polynôme de Lagrange sur [−1, 1]
interpolant f en plus de k points distincts, mais Lkf (1/2) ne converge pas vers
f (1/2) = 0 lorsque k tend vers l’infini.
• Soit il existe un entier r2 > 1 tel que pour k > r2 , on a |Lkf2 (1/2)| < K/4. Soit
alors h3 > max(h2 , r2 ). Considérons la fonction f2 + gk pour k > h3 . Les deux
fonctions de cette somme sont à supports disjoints, de sorte qu’elle est continue
sur [−1, 1], nulle en 1/2 et telle que, pour tout k > h3 ,

Lkf2 +gk = Lkf2 + Lkgk . (2)

On obtient alors par inégalité triangulaire que, pour tout k > h3 ,

Lkf2 +gk (1/2) > 2K − K/2 − K/4 > 0.

On pose alors f3 = f2 + gh3 . On itère alors la disjonction de cas ci-avant.


• Soit le procédé s’arrête, et on obtient par construction une fonction fn telle que
Lkfn (1/2) ne converge pas vers fn (1/2) = 0 lorsque k tend vers l’infini : c’est le
contre-exemple souhaité.
• Soit le procédé ne s’arrête pas et alors il existe une suite de fonctions (fn )n∈N∗
telle que pour tout n > 1 il existe hn ∈ N tel que, pour tout k > hn ,

Lkfn (1/2) > 2K − K/2 − K/4 − · · · − K/2n−1 > K > 0.

Notons que les fonctions fn sont des sommes de fonctions gk pour différentes valeurs
de k, et que les gk sont nulles en 1/2 et à supports dans des intervalles disjoints et
loin de 1/2. Ainsi, en laissant tendre n vers l’infini, (fn )n converge simplement vers
une fonction f nulle en 1/2. La suite ainsi construite de polynômes d’interpolation
de Lagrange prend des valeurs hors de [−K, K] en 1/2 par l’inégalité précédente,
donc en particulier ne peut pas converger en 1/2 vers f (1/2) = 0.

554
Intégration et approximation de fonctions

Commentaires.
© La théorie de l’interpolation a pour objectif d’approcher des fonctions suffisam-
ment régulières par des polynômes. Elle est motivée par des enjeux numériques
notamment en termes de vitesse de calcul (voir par exemple les approximations
par splines cubiques très utilisées dans l’industrie, qui sont des approximations par
des fonctions polynomiales de degré 3 par morceaux). L’idée est de fixer un certain
nombre de points (les nœuds) de la fonction recherchée et d’essayer de trouver
le meilleur polynôme – en un sens à préciser – passant par les mêmes points
que la fonction en ces nœuds, tout en espérant pouvoir contrôler suffisamment
bien l’erreur d’approximation hors de ces points. Le théorème d’approximation de
Weierstrass assure la possibilité d’une telle approximation, de manière uniforme
dès que la fonction est continue sur un segment. Cette possibilité est réalisée par
exemple en utilisant les polynômes de Bernstein (voir par exemple [QZ13]), qui
sont des approximations polynomiales convergeant uniformément vers la fonction.
Les splines mentionnées précédemment sont justement les polynômes de Bernstein
de degré 3. Toutefois, les polynômes de Bernstein ne sont pas des polynômes de
meilleure approximation (voir Développement 92), de sorte qu’ils ne sont pas for-
cément les plus adaptés pour aborder certains problèmes théoriques. Par exemple,
le polynôme de Bernstein de degré n d’un polynôme de degré n n’est en général
pas le polynôme lui-même !
© Les polynômes d’approximation de Lagrange sont des polynômes interpolateurs
de degré minimal. On pourrait penser que ces polynômes donnent un bon moyen
d’approcher les fonctions continues sur un segment, en augmentant le nombre de
points d’interpolation. Il n’en est rien dans le cas de nœuds d’interpolation équiré-
partis : ce développement prouve que, pour certaines fonctions, il existe toujours
des points de l’intervalle où la suite des polynômes interpolateurs diverge lorsque
le nombre de points augmente. C’est un phénomène d’instabilité de type Runge :
l’approximation polynomiale de Lagrange n’est pas une approximation globale,
et peut très mal se comporter aux points hors de ceux fixés pour l’interpolation.
Internet regorge d’illustrations de ce phénomène.
Il faut des conditions de régularité fortes pour que cette situation ne puisse pas se
produire, et c’est un enjeu important de pouvoir maîtriser l’erreur d’approximation.
On peut ainsi prouver une borne de type « accroissements finis » :

Soient n > 1 et a, b ∈ R. Soit f ∈ C n ([a, b]) et x0 < · · · < xn des points


distincts de [a, b]. Notons Ln le polynôme d’interpolation de Lagrange
de f en ces points. On a alors, pour tout x ∈ [a, b],

(xn − x0 )n+1 (n)


|f (x) − Ln (x)| 6 kf k∞ . (3)
(n + 1)!

© L’interpolation de Lagrange est une méthode d’approximation polynomiale utile


en théorie et pour prouver des propriétés analytiques, mais elle souffre de grandes
instabilités et inefficacités numériques. On peut par exemple citer l’instabilité
numérique du calcul de leurs coefficients, le coût de calcul élevé (quadratique),

555
91. Divergence de l’interpolation de Lagrange

ou encore leur non-récursivité : il faut recalculer les polynômes de Lagrange à


chaque fois que des nœuds sont ajoutés ou modifiés. Toutefois, ces défauts ont des
compensations, justifiant l’utilisation des polynômes d’interpolation de Lagrange
dans des cadres particuliers en fonction des besoins. Ainsi, le calcul de la base des
polynômes de Lagrange ne dépend pas des valeurs d’interpolation mais seulement
des nœuds, permettant une grande efficacité dans le cas de points d’interpolation
fixés une fois pour toutes pour de nombreuses fonctions à interpoler (on peut
par exemple penser aux stations météorologiques). De plus, on peut stabiliser
l’utilisation numérique des polynômes de Lagrange, consistant à utiliser leur
expression barycentrique pour des valeurs yi aux nœuds xi :
n
X wi
yi
i=0
x − xi
(xi − xj )−1 .
Y
L(x) = n où wi =
X wi j6=i
i=0
x − xi
© Le choix des nœuds est un défi pour l’interpolation polynomiale. Il n’est en
général pas judicieux de choisir des points d’interpolation uniformément espacés.
Il existe toujours des bons nœuds : pour toute fonction continue sur un segment,
il existe un choix de nœuds tel que les polynômes d’approximation de Lagrange
en ces nœuds convergent uniformément vers f lorsque le nombre de nœuds tend
vers l’infini. Toutefois, les choix des nœuds est très fortement dépendant de la
fonction, et pour tout choix de nœuds dans un segment il est possible de trouver
une fonction continue sur ce segment dont les polynômes d’interpolation construits
sur ces nœuds divergent de la fonction en certains points. Des hypothèses de
régularité supplémentaires permettent de régler ces problèmes : ainsi, dans le cas
des fonctions f absolument continues sur [−1, 1], les polynômes d’interpolation de
Lagrange construits sur des nœuds particuliers — appelés nœuds de Tchebychev,
qui sont les zéros des polynômes de Tchebychev — convergent uniformément
vers f sur le segment [−1, 1].

Questions.
1. Justifier que les facteurs de C dans la question a) sont de plus en plus petits
de gauche à droite.
2. Répondre à la première question en utilisant la formule de Stirling.
3. Expliquer pourquoi P3k = Lkgk .
4. Justifier l’égalité des polynômes de Lagrange énoncée en (2).
5. Montrer que la suite (fn )n∈N∗ construite dans le développement converge
simplement.
6. Prouver la borne (3) mentionnée en commentaire.
7. Montrer que les mêmes polynômes de Lagrange que ceux considérés à la
question a) ne divergent plus en 1/2 si on remplace [−1, 1] par [0, 1].
8. Montrer que, des nœuds distincts x0 , . . . , xn étant fixés, la base (Li )i formée
des polynômes de Lagrange élémentaires associés est la base duale dans L(Rn [X])
des évaluations (φi )i , où φi (P ) = P (xi ) pour tout i ∈ J0, nK.

556
Intégration et approximation de fonctions

Développement 92 (Meilleure approximation polynomiale FF)

Soient a, b ∈ R tels que a < b. Soit une fonction f définie et continue sur un
intervalle [a, b] de R. Pour tout polynôme P ∈ R[X], on pose

d(f, P ) = sup |f (x) − P (x)|.


x∈[a,b]

Soit n > 2. On définit la distance de f à Rn [X] par

dn (f ) = d(f, Rn [X]) = inf d(f, P ).


P ∈Rn [X]

a) Existence de la meilleure approximation polynomiale


(i) Soient x0 , . . . , xn des points distincts de [a, b]. Soit (Pk )k∈N∗ une suite
de polynômes de Rn [X] uniformément bornée sur ces points, i.e. telle
qu’il existe A > 0 tel que |Pk (xi )| 6 A pour tout i ∈ J0, nK et tout k > 1.
Montrer que les coefficients des Pk sont uniformément bornés.
(ii) Justifier qu’il existe P ∈ Rn [X] tel que dn (f ) = d(f, P ).
Considérons désormais un tel polynôme P ∈ Rn [X] tel que d(f, P ) = dn (f ),
appelé un polynôme de meilleure approximation (de degré n) de f .
b) Unicité de la meilleure approximation polynomiale
(i) Montrer que f − P atteint les valeurs dn (f ) et −dn (f ) sur [a, b].
(ii) Montrer qu’il existe au moins n + 2 points x1 , . . . , xn+2 ∈ [a, b] vérifiant

|f (xi ) − P (xi )| = dn (f ), i ∈ J1, n + 2K . (1)

(iii) En déduire que le polynôme de meilleure approximation de f est unique.

Leçons concernées : 141, 144, 209

Ce développement est un résultat d’approximation polynomiale, ce qui en fait


l’archétype des sujets visés dans la leçon 209. La fine utilisation des propriétés
des polynômes et de leurs racines rend sa preuve pertinente pour les leçons sur les
polynômes (141, 144).

Correction.
a) (i) Soient L0 , . . . , Ln les polynômes de Lagrange associés aux points x0 , . . . , xn ,
c’est-à-dire les polynômes
Y
(X − xj )
j6=i
Li = Y , i ∈ J0, nK .
(xi − xj )
j6=i

La famille (Li )i∈J0,nK est une base de l’espace des polynômes de degré au plus n,

557
92. Meilleure approximation polynomiale

et on a la décomposition, pour tout k > 1,


n
X
Pk = Pk (xi )Li . (2)
i=0

Les |Pk (xi )|, pour i ∈ J0, nK et k > 1, sont uniformément bornés par A par
hypothèse. De plus, pour tout j ∈ J0, nK, les coefficients de degré j des polynômes
de Lagrange Li , pour tout i ∈ J0, nK, sont en nombre fini et sont donc uniformément
bornés. Ainsi, les coefficients des Pk sont uniformément bornés d’après (2).
(ii) Par définition de dn (f ), pour tout k > 1 il existe Pk ∈ Rn [X] tel que

1
dn (f ) 6 d(f, Pk ) 6 dn (f ) + .
k

En particulier, pour tout x ∈ [a, b] on a, par l’inégalité triangulaire,

1
|Pk (x)| 6 |f (x)| + dn (f ) + 6 |f (x)| + dn (f ) + 1.
k

Puisque f est continue, cette dernière quantité est bornée uniformément pour
x ∈ [a, b] et k > 1. Pour i ∈ J0, nK et k > 1, notons ai,k le coefficient de Pk devant
le monôme X i . Par la question précédente, la suite des familles de coefficients
(a0,k , . . . , an,k )k∈N∗ des Pk est une suite bornée de Rn+1 . Par le théorème de
Bolzano-Weierstrass, il existe un point d’accumulation (a0 , . . . , an ) ∈ Rn+1 de la
suite (a0,k , . . . , an,k )k∈N∗ , autrement dit il existe une extraction φ : N → N telle
que (a0,φ(k) , . . . , an,φ(k) )k∈N∗ → (a0 , . . . , an ) lorsque k tend vers +∞. Introduisons
le polynôme P dont les coefficients sont les ai , pour i ∈ J0, nK, c’est-à-dire
n
X
P = ai X i ∈ Rn [X].
i=0

Ainsi, on a d(P, Pφ(k) ) → 0 lorsque k tend vers +∞. Par inégalité triangulaire la
fonction polynomiale P vérifie alors

d(f, P ) 6 d(f, Pφ(k) ) + d(Pφ(k) , P )


1
6 dn (f ) + + d(Pφ(k) , P ).
φ(k)

Puisque cette inégalité est vraie pour tout k > 1, en passant à la limite on en
déduit que d(f, P ) 6 dn (f ). Puisque P ∈ Rn [X], on obtient alors d(f, P ) = dn (f )
par minimalité de dn (f ). La distance dn (f ) est donc atteinte.
b) (i) Notons d = dn (f ). Introduisons la différence g = P − f qui est continue
sur [a, b]. Si g = 0, le résultat est immédiat, de sorte que l’on peut supposer g 6= 0.
Par définition du polynôme P de meilleure approximation, le maximum de |g| sur
le segment [a, b] est d = dn (f ). Par continuité de g sur le segment [a, b], celui-ci
est atteint.

558
Intégration et approximation de fonctions

Supposons que g n’atteigne pas d et −d, de sorte que soit g soit −g atteint d mais
est toujours strictement supérieure à −d. Quitte à multiplier par −1, on peut
supposer qu’il s’agit de g, autrement dit qu’il existe ε > 0 tel que
∀x ∈ [a, b], −d + ε 6 g(x) = f (x) − P (x) 6 d,

et donc en particulier, en notant Q = P + ε/2, on a


∀x ∈ [a, b], −(d − ε/2) 6 f (x) − Q(x) 6 d − ε/2,

et on en tirerait que Q ∈ Rn [X] serait un polynôme de meilleure approximation


de f que P , puisque d(f, Q) = d − ε/2 < d, contrairement à la définition de d.
Cela est absurde, et g atteint donc les deux valeurs d et −d.
(ii) Si g = 0, alors f = P et dn (f ) = 0, de sorte que tous les points de [a, b]
vérifient (1) : en particulier, il y en a au moins n + 2.
Supposons désormais que g n’est pas nulle. Raisonnons par l’absurde et supposons
qu’il y ait au plus n + 1 points où |g| atteint la valeur d. Par continuité, il est
donc possible de trouver des segments non vides et d’intérieurs disjoints dans
[a, b] sur lesquels g atteint d ou −d une seule fois et ne s’annule pas. Notons
Ij = [aj , bj ] ces intervalles, pour j dans un certain ensemble J = J0, mK maximal
avec 1 6 m 6 n + 1, avec a0 < b0 6 a1 < · · · 6 a|J| < b|J| . Pour tout j ∈ J,
notons εj ∈ {−1, 1} le « signe » associé de sorte que, en notant gj la restriction
de g à l’intervalle Ij , on a pour tout j ∈ J :
? gj 6= 0 sur Ij ;
? il existe un unique yj ∈ Ij tel que |gj (yj )| = d ;
? on a gj (yj ) = εj d.
La différence g = P − f est continue et non nulle sur [a, b]. Le nombre k de
changements de signes dans la suite (εj )j vérifie donc k ∈ J1, nK. Supposons
que εj0 et εj0 +1 sont de signes différents pour un certain j0 > 1. Alors les
intervalles Ij0 et Ij0 +1 ne peuvent pas être contigus, i.e. on a bj0 < aj0 +1 : sinon,
par le théorème des valeurs intermédiaires, g s’annulerait alors sur l’un de ces
intervalles, contrairement à leur définition. Il existe donc un point x entre les
intervalles Ij0 et Ij0 +1 , i.e. tel que bj0 < x < aj0 +1 . On obtient ainsi k points
x1 , . . . , xk intermédiaires.
Considérons le polynôme R = ±(X − x1 ) · · · (X − xk ) ∈ Rn [X], le signe étant
choisi de sorte que R ait le même signe que g sur les intervalles Ij , pour j ∈ J.
On va prouver que Q = P + ηR est un polynôme de meilleure approximation de f
que P pour η > 0 suffisamment petit, ce qui amènera la contradiction recherchée.
• Sur les intervalles Ij , pour j ∈ J, |f − (P + ηR)| = |g − ηR| est strictement
inférieur à d puisque g et R sont de même signe, ηR 6= 0 et ηR < g. Comme
la réunion finie I des segments Ij , pour j ∈ J, est compacte, le supremum
supI |f − (P + ηR)| est atteint et est strictement inférieur à d.
• Sur l’adhérence c I du complémentaire de la réunion I des Ij , c’est-à-dire
 
c [ \
cI Ij  = cI
=  j,
j∈J j∈J

559
92. Meilleure approximation polynomiale

on a supc I |g| = d0 < d par maximalité de J et continuité de g. Considérons alors


un réel η > 0 suffisamment petit pour que ηR < d − d0 sur [a, b], et vérifions que le
polynôme P + ηR est un meilleur polynôme d’approximation de f que P . Sur c I
on a donc, par l’inégalité triangulaire,

|f − (P + ηR)|(x) 6 |g(x)| + η|R(x)| < d0 + (d − d0 ) < d.

Ainsi, par continuité, le supremum supc I |f − (P + ηR)| est atteint sur c I qui est
compact, et est strictement inférieur à d.
Finalement, la distance |f − (P + ηR)| atteint son supremum sur [a, b], qui est
donné par la combinaison des deux situations précédentes :
!
sup |f − (P + ηR)| = max sup |f − (P + ηR)|, sup |f − (P + ηR)| < d.
[a,b] I cI

Comme P +ηR est de degré au plus n, c’est un meilleur polynôme d’approximation


de f que P , contrairement à la définition de P . Cette contradiction prouve donc
qu’il existe au moins n + 2 points pour lesquels f − P atteint la valeur d.
(iii) Supposons que P et Q sont deux meilleurs polynômes d’approximation pour
la fonction f . Soit R = (P + Q)/2 leur moyenne. Montrons que R est également
un meilleur polynôme d’approximation pour f . Pour tout x ∈ [a, b] on a, par
l’inégalité triangulaire,
1 1
|f (x) − R(x)| 6 |f (x) − P (x)| + |f (x) − Q(x)| 6 dn (f ), (3)
2 2
donc d(f, R) 6 dn (f ). Or R ∈ Rn [X], donc nécessairement d(f, R) > dn (f ). Ainsi
on a d(f, R) = dn (f ) et R est donc un polynôme de meilleure approximation de f .
Par la question précédente, f − R admet au moins n + 2 points où il prend la
valeur d ou −d. Mais alors f − P et f − Q prennent aussi la valeur d ou −d et sont
de même signe en ces points par le cas d’égalité dans l’inégalité triangulaire (3),
donc P et Q sont égaux en ces points. Mais ce sont des polynômes de degré n ;
cela implique donc que P = Q.
Ainsi, le polynôme de meilleure approximation de f est unique.

Commentaires.
© La question a)(ii) peut-être traitée plus rapidement par un argument de
compacité très efficace, mais un peu moins explicite : il suffit de constater que
l’ensemble des P ∈ Rn [X] tels que d(f, P ) 6 dn (f ) + 1 est un compact non vide de
l’espace vectoriel normé de dimension finie Rn [X] muni de la norme infinie, donc
la fonction continue d(f, ·) atteint son minimum sur ce compact. Ce minimum est
exactement un polynôme de meilleure approximation.
© Ce développement s’attaque au problème de l’approximation polynomiale glo-
bale d’une fonction. Il s’agit de minimiser la distance entre la fonction et son
approximation polynomiale uniformément sur tout l’intervalle considéré, c’est-à-
dire d’optimiser la pire erreur ponctuelle possible. Cette approche est différente des

560
Intégration et approximation de fonctions

méthodes d’interpolation qui sont des approximations parfaites en certains points


mais peuvent très mal se comporter aux autres points (voir le Développement 91
sur les polynômes d’interpolation de Lagrange pour une illustration de ce fait).
Toutefois, cette approche demeure très théorique et, contrairement à la théorie
des polynômes d’interpolation, n’est en rien constructive.
© Ce résultat est dû à Borel et était déjà connu de Tchebychev, l’un des pères de
l’approximation polynomiale. C’est un résultat théorique idéal, dans le sens où
il existe un unique polynôme de meilleure approximation uniforme. Toutefois, le
problème consistant à construire un tel polynôme est difficile.
© Un moyen pratique d’obtenir de bons polynômes d’approximation est d’utiliser
l’approximation de Tchebychev. Cette méthode fournit une famille de polynômes
orthogonaux qui permettent d’approcher assez bien une fonction par une somme
de série de polynômes de Tchebychev, à l’image des fonctions t 7→ exp(int), n ∈ Z,
dans le cas des décompositions en séries de Fourier. Considérer les sommes partielles
d’une telle décomposition approchée donne des polynômes d’approximation assez
proches du polynôme de meilleure approximation considéré dans ce développement.
Les polynômes de Bernstein, qui convergent uniformément vers la fonction lorsque
le degré du polynôme croît, sont quant à eux de très mauvais candidats lorsque le
degré du polynôme est fixé : par exemple, ils ne sont en général pas égaux à f
lorsque f est polynomiale.
© Il existe un algorithme, dû à Remez, permettant de construire une suite de
polynômes qui converge vers le polynôme de meilleure approximation de degré
choisi.

Questions.
1. En assimilant polynômes et fonctions polynomiales, le supremum d(P, Q) défini
au début de l’exercice induit-il une distance sur Rn [X] ?
2. Montrer qu’il existe un unique polynôme de meilleure approximation de f dans
l’espace L2 ([a, b]), défini comme un polynôme P ∈ Rn [X] minimisant la distance
Z b !1/2
2
d(f, P ) = |f (t) − P (t)| dt .
a

3. Que dire d’une limite uniforme de fonctions polynomiales sur R ?


4. Montrer que les sommes de zéros des dérivées successives d’un polynôme sont
en progression arithmétique jusqu’à ce que la dérivée soit constante.
5. En général, est-il vrai que l’adhérence de l’intersection d’ensembles est l’inter-
section de leurs adhérences ? Pourquoi est-ce le cas ici ?

561
Probabilités et statistiques

Les premières questions de probabilités furent étudiées de façon théorique dès


le XVIIe siècle, notamment par Pascal et Fermat qui s’intéressaient au problème
des partis consistant à déterminer le « juste » partage des mises d’un jeu de
hasard interrompu avant son terme. La théorie des probabilités se développa
ensuite à travers les travaux de Bernoulli puis de Laplace, qui énonça la première
formulation précise du théorème central limite vers 1812. Il fallut néanmoins
attendre les travaux de Borel et surtout ceux de Kolmogorov dans la première
moitié du XXe siècle pour que la théorie des probabilités adopte le formalisme
rigoureux qu’on lui connaît aujourd’hui.
La théorie de l’intégration développée par Lebesgue au début du XXe permet de
fournir un cadre unifié à l’étude des variables aléatoires discrètes et continues,
aujourd’hui considéré comme l’approche de référence pour la modélisation des
phénomènes aléatoires. Elle est au fondement de la théorie des processus de
Markov discrets (Développements 94, 96, 99) ou continus, et plus généralement
de celle des processus stochastiques qui permet de rendre compte de phénomènes
de sauts ou de diffusion satisfaisant des équations différentielles stochastiques.
Force est toutefois de constater que la fracture historique entre la théorie des
probabilités fondée sur les sommes et l’intégrale de Riemann et celle utilisant la
théorie de la mesure ne s’est pas résorbée dans l’enseignement, et que bien des
cours de probabilités élémentaires ou appliquées s’appuient sur le formalisme de la
première en admettant ponctuellement les puissants résultats issus de la seconde...
La théorie des probabilités est aujourd’hui devenue un pilier des sciences modernes,
de la physique quantique à l’épidémiologie en passant par la physique statistique
et la théorie des jeux. Elle est aussi au cœur des nouvelles pratiques économiques
et commerciales, à travers la modélisation de l’évolution des prix de titres au
fil du temps et l’évaluation du risque associé à un actif de façon générale. Cette
théorie trouve souvent une application conjointe avec la statistique mathématique,
qui permet un renversement inductiviste du raisonnement probabiliste ; il s’agit
alors de tirer des conclusions de l’observation d’un échantillon empirique supposé
représentatif. Cette démarche inférentielle, omniprésente en bio-informatique
ou en économétrie pour ne citer que deux exemples parmi bien d’autres, place
les probabilités au fondement théorique des tests d’hypothèses, de l’estimation
paramétrique (Dév. 93, 100) ou des techniques de régression.

On fixe un espace probabilisé (Ω, A, P) pour tous les développements de ce


chapitre.
Probabilités et statistiques

Développement 93 (Aiguille de Buffon F)

On lance une aiguille de longueur 1 sur une surface assimilée au plan R2 muni
d’un repère orthonormé (O, → −ı , →
− ). On note alors (x, y) la position du centre
de l’aiguille dans ce repère, x ∈ [0, 1] le représentant dans [0, 1] de la classe de
congruence de x modulo 1 et θ ∈ 0, π2 une mesure de l’angle géométrique
 

formé par l’aiguille (assimilée à un segment de longueur 1) avec l’axe des


abscisses.
L’expérience est esquissée sur la figure suivante, où le segment représente
l’aiguille :

y θ


−


−ı
O 1 x 2

On suppose que le couple (x, θ) peut être modélisé par une variable aléatoire
notée (X, Θ) de loi U [0, 1] × 0, π2 (c’est-à-dire

que X et Θ sont indépen-
dantes et de lois uniformes sur [0, 1] et 0, π2 respectivement).
 

a) Donner la probabilité pour que le segment représenté par l’aiguille coupe


l’une des droites verticales {n} × R, avec n ∈ Z.
b) En déduire une méthode d’estimation de π et donner les intervalles de
confiance associés.

Leçons concernées : 261, 262, 266

Ce développement élémentaire présente une méthode historique d’approximation de


π par une méthode probabiliste. Il mobilise des calculs simples sur la loi jointe de
couples de variables aléatoires uniformes indépendantes, ce qui en fait une bonne
illustration des leçons 261 et 266. Il détaille ensuite l’obtention d’un intervalle de
confiance pour π à l’aide de l’inégalité de Bienaymé-Tchebychev, ce qui permet
d’affiner le résultat donné par la loi faible des grands nombres tout en faisant
apparaître une vitesse de convergence qui annonce le théorème central limite. Ce
dernier point justifie pleinement le placement du développement dans la leçon 262.

565
93. Aiguille de Buffon

Correction.
a) L’aiguille étant de longueur 1, ses extrémités ont pour abscisses x − cos(θ)2
et x + cos(θ)
2 , si bien qu’elle coupe l’une des droites {n} × R (avec n ∈ Z) si et
seulement si l’une des deux conditions incompatibles
cos(θ) cos(θ)
x− <0 ou x+ >1
2 2
est réalisée.
On cherche donc à déterminer la probabilité de l’événement
cos(Θ) cos(Θ)
   
A= X− <0 t X+ >1 .
2 2
Or
cos(Θ) cos(Θ)
   
P(A) = P X − <0 +P X + >1
2 2
cos(Θ) cos(Θ)
   
=P X< +P X >1− ,
2 2
et comme X et Θ sont indépendantes et de lois uniformes, on a
π Z 1 π Z 1
2 2
Z Z
2 2
P(A) = 1x− cos(θ) <0 dxdθ + 1x+ cos(θ) >1 dxdθ
0 π 0 2 0 π 0 2
π π
2 cos(θ) 2 cos(θ)
Z   Z  
2 2
= P X< dθ + P X >1− dθ
0 π 2 0 π 2
π π
2 cos(θ) 2 cos(θ)
Z Z
2 2
= dθ + dθ
0 π 2 0 π 2
π
2
Z
2
= cos(θ) dθ
0 π
2
= .
π
b) On déduit de la question précédente que si l’on réalise un grand nombre de
lancers indépendants dans les conditions de l’énoncé, la proportion d’aiguilles
chevauchant une droite {n}×R (avec n ∈ Z) doit converger (en probabilité d’après
la loi faible des grands nombres et presque sûrement d’après la loi forte des grands
nombres) vers π2 .
Précisons le résultat de convergence en probabilité en fournissant un intervalle de
confiance pour π à un niveau arbitraire.
Pour tout k ∈ N∗ , on note Bk la variable de Bernoulli prenant la valeur 1 si la
k-ième aiguille lancée chevauche l’une des droites considérées et 0 sinon, et pour
tout n ∈ N∗ on pose
n
1X
Bn = Bk ,
n k=1

566
Probabilités et statistiques

     
2 1 2 2
si bien que E B n = π et V B n = n · π 1− π par indépendance des Bk .
Soit à présent α ∈ ]0, 1]. Pour ∗
 n ∈ N , l’inégalité de Bienaymé-Tchebychev et
 tout
la majoration grossière π2 1 − π2 6 14 (qui provient de la relation x(1 − x) 6 14
valable pour tout x ∈ R) impliquent que
   
2 2

2 1
 V Bn π 1− π
P Bn − > √ 6 2 = · 4αn 6 α,
π 2 αn √1 n
2 αn

et donc que l’intervalle aléatoire


1 1
 
Bn − √ , Bn + √
2 αn 2 αn

est un intervalle de confiance de niveau 1 − α pour 2


π. Ainsi, pour tout n ∈ N∗ ,
l’intervalle aléatoire
 
2 2
In, α :=  1 ,

B n + 2 αn B n − 2√1αn

est un intervalle de confiance de niveau 1 − α pour π.

Commentaires.
© La célèbre expérience présentée dans cet exercice a été proposée pour la première
fois par le mathématicien, naturaliste et philosophe Georges-Louis Leclerc de
Buffon en 1733 dans son Mémoire sur le jeu du Franc Carreau. Elle est aisément
réalisable en pratique en jetant un grand nombre d’aiguilles de même longueur
connue L sur un parquet composé de lattes de largeur au moins égale à L. Le lecteur
désireux de tenter cette mise en pratique prendra toutefois garde à reprendre le
calcul de la question a) en tenant compte du fait que la longueur des aiguilles
n’est pas nécessairement égale à la largeur des lattes !
© La technique proposée dans la question b) appartient à la famille de méthodes
d’estimation dites de Monte-Carlo. Ces méthodes permettent d’approcher un
paramètre inconnu, exprimé comme une probabilité ou comme une espérance, par
simulation d’un grand nombre de variables aléatoires, et possèdent généralement
une vitesse de convergence en √1n , garantie par le théorème central limite. Leur
intérêt dans le calcul d’intégrales de fonctions d’une variable réelle, qui peuvent
être approchées bien plus rapidement par des méthodes numériques spécifiques,
est essentiellement anecdotique ; toutefois, elles s’avèrent particulièrement intéres-
santes pour approcher des intégrales multiples en grandes dimensions, cadre dans
lequel les méthodes de quadrature deviennent trop coûteuses.
© Une autre méthode d’approximation de π appartenant à la famille des méthodes
de Monte-Carlo revient à tirer un grand nombre de points indépendamment et
selon une loi uniforme dans le√pavé [0, 1]2 , puis à estimer la proportion de points
du plan (x, y) vérifiant y 6 1 − x2 . La loi forte des grands nombres stipule

567
93. Aiguille de Buffon

R √
que cette proportion converge presque sûrement vers 01 1 − x2 dx = π4 , et le
théorème central limite assure que cette convergence est réalisée avec une vitesse
de l’ordre de √1n .
© On a obtenu l’intervalle de confiance In,α grâce à l’inégalité de Bienaymé-
Tchebychev. On pouvait toutefois gagner  en précision
 en utilisant le théorème
central limite et la majoration grossière π2 1 − π2 6 41 , qui donnent l’intervalle
de confiance asymptotique suivant de niveau 1 − α pour π :
 
2 2
Jn, α =  , ,
 
Φ−1 (1− α ) Φ−1 (1− α )
Bn + √ 2
2 n
Bn − √ 2
2 n

où Φ est la fonction de répartition de la loi normale centrée réduite.


Enfin, la combinaison du théorème central limite et du lemme de Slutsky per-
mettent de déterminer l’intervalle de confiance asymptotique suivant :
 
 2 2 
Kn, α =  p , p .
 B n (1−B n )Φ−1 1− α
( ) B n (1−B n ) Φ−1 1− α
( )
Bn + √
n
2
Bn − √
n
2

Dans tous les cas, le niveau de précision atteint dans l’estimation de π2 avec un
niveau de confiance donné est de l’ordre de √1n , conformément aux prédictions du
théorème central limite, et il n’est pas difficile de montrer qu’il en est de même
pour l’estimation de π.

Questions.
1. Rappeler la définition de l’angle géométrique entre deux droites. Le résultat de
ce développement aurait-il changé si l’on avait considéré un angle géométrique
entre vecteurs, de loi uniforme sur [0, π] ?
2. A-t-on implicitement fait des hypothèses sur la loi suivie par l’ordonnée du
centre de l’aiguille à l’issue du lancer ?
3. Détailler le raisonnement permettant d’affirmer que l’aiguille coupe l’une des
droites {n} × R (avec n ∈ Z) si et seulement si

cos(θ) cos(θ)
x− < 0 ou x + > 1,
2 2
et que ces deux conditions sont incompatibles.
4. Détailler le raisonnement permettant de généraliser la méthode présentée dans
ce développement à des aiguilles de longueur L > 0 lancées sur un parquet dont
les lattes sont de largeur au moins égale à L.
5. La méthode d’estimation proposée ici semble-t-elle efficace par ses aspects
pratiques ?

568
Probabilités et statistiques

6. Comparer la vitesse de convergence de la méthode proposée dans ce développe-


ment avec l’algorithme d’estimation de π par la méthode d’Archimède présentée
dans le Développement 68.
7. Détailler le raisonnement permettant de construire les intervalles Jα,n et Kα,n
proposés en commentaire.
8. Les intervalles Iα,n , Jα,n et Kα,n sont-ils bien définis pour tout n ∈ N∗ ?
9. Donner un autre intervalle de confiance asymptotique pour π dérivé de la Delta-
méthode, qui repose sur le résultat suivant (corollaire du lemme de Slutsky) :

Soient µ ∈ R et σ > 0. Si (Yn )n∈N∗ est une suite de variables aléatoires


telle que
√ L
 
n(Yn − µ) −−−−−→ N 0, σ 2 ,
n→+∞

alors pour toute fonction g définie sur un voisinage de µ, dérivable


en µ et telle que g 0 (µ) 6= 0, la suite (g(Yn ))n∈N∗ est presque sûrement
bien définie à partir d’un certain rang et on a
√ L
 
n (g(Yn ) − g(µ)) −−−−−→ N 0, σ 2 g 0 (µ)2 .
n→+∞

L’intervalle de confiance obtenu est-il un choix judicieux pour estimer la valeur


(prétendument inconnue) de π ?
10. Montrer que pour tout α > 0, l’intervalle de confiance Kn,α est de longueur
inférieure à l’intervalle Jn,α à partir d’un certain rang.
11. Démontrer que les longueurs des intervalles In,α , Jn,α et Kn,α sont de l’ordre
de √1n lorsque n tend vers l’infini.

569
94. Paradoxe de Penney

Développement 94 (Paradoxe de Penney F)

On réalise des lancers successifs et indépendants d’une pièce équilibrée, dont


on modélise les résultats par des variables de Bernoulli indépendantes de
paramètre 1/2, notées X1 , X2 , . . . : pour tout k ∈ N∗ , on définit Xk par
(
1 si l’on obtient « pile » au k-ième lancer,
Xk =
0 sinon.

On note T le nombre total de lancers effectués à la première apparition de la


séquence « face-face-pile ».
a) On note T 0 le nombre total de lancers effectués à la première apparition
de la séquence « face-face ». Montrer que la variable aléatoire G := T − T 0 est
indépendante de T 0 et suit une loi géométrique de paramètre 1/2.
b) Montrer que l’on peut écrire
G 0
0
X
T = (Gk + 1),
k=1

où G0 et les Gk sont des variables indépendantes de même loi géométrique de


paramètre 1/2.
c) Déduire des deux questions précédentes l’expression de la fonction généra-
trice s 7→ E sT de T sur [0, 1].
On note S le nombre total de lancers effectués à la première apparition de la
séquence « pile-face-face ».
d) Donner la fonction génératrice de S.
e) Calculer P(T < S) et commenter.

Leçons concernées : 153, 155, 162, 226, 230, 243, 261, 264, 266

Ce développement modulable propose d’illustrer un paradoxe de probabilités assez


troublant. Il mobilise des arguments sur les fonctions génératrices de variables
aléatoires discrètes construites à partir de variables de Bernoulli indépendantes, ce
qui en fait une très bonne illustration des leçons 261, 264 et 266. Il est possible de
se focaliser sur l’étude de la loi du temps d’atteinte de la séquence « face-face-pile »
(voir les commentaires en fin d’exercice), que l’on pourra déterminer explicitement
par des techniques de diagonalisation, illustrant ainsi les leçons 153, 155, 162
et 226, ou par le développement en série entière de la fonction génératrice, choix
pertinent dans le cadre des leçons 230 et 243.

Correction.
a) Pour obtenir la séquence « face-face-pile », il est nécessaire d’obtenir dans
un premier temps la séquence « face-face ». Une fois cette séquence observée (ce

570
Probabilités et statistiques

qui survient après T 0 lancers), le jeu revient à attendre l’apparition d’un « pile »
(pendant un temps G, qui suit donc bien une loi géométrique de paramètre 1/2).
Les lancers réalisés avant l’apparition de la séquence « face-face » et ceux réalisés
après étant indépendants, on obtient bien le résultat escompté.
b) Pour tout k ∈ N∗ , on note Bk la variable de Bernoulli prenant la valeur 1 si le
k-ième « face » obtenu est suivi d’un « face » et 0 sinon. Le temps d’attente du
premier « face » peut être modélisé par une variable aléatoire G1 de loi G (1/2).
Une fois ce premier « face » obtenu, si B1 (qui est indépendante de G1 ) prend la
valeur 1 alors T 0 prend la valeur G1 + 1, sinon l’expérience est réinitialisée à partir
du rang G1 + 2. Il faut alors attendre pour obtenir à nouveau « face » un nombre
de tirages aléatoire G2 de loi G (1/2), indépendant des événements portant sur les
tirages passés. Dans ce cas, si B2 prend la valeur 1 alors T 0 = (G1 + 1) + (G2 + 1),
sinon l’expérience est réinitialisée à partir du rang (G1 + 1) + (G2 + 1) + 1. En
reproduisant ce raisonnement par récurrence, on voit que
G0
0
X
T = (Gk + 1),
k=1

où G0 := inf {k ∈ N∗ : Bk = 1}. On remarque alors que les Bk sont des variables


de Bernoulli indépendantes de paramètre 1/2, d’où G0 ∼ G (1/2), et que les Bk et
les Gk sont indépendantes, ce qui implique bien l’indépendance de G0 et des Gk .
 
c) Pour toute variable aléatoire X à valeurs dans N, on note φX : s 7→ E sX la
fonction génératrice de X. D’après la question a), on a
∀s ∈ [0, 1], φT (s) = φT 0 (s)φG (s). (1)
Par ailleurs, d’après la question b) on a :
 P 0 
G
(Gk +1)
∀s ∈ [0, 1], φT 0 (s) = E s k=1

  P 0 
G
=E E s k=1
(Gk +1)
G0
0
 
= E E(sG1 +1 )G

puisque les Gk sont de même loi et indépendantes de G0 . On a donc


 G 0 
∀s ∈ [0, 1], φT 0 (s) = E sφG1 (s)
= φG0 (sφG1 (s)) .
Calculons à présent φ := φG0 = φG1 = φG , qui est la fonction génératrice de la loi
géométrique G (1/2). Pour tout s ∈ [0, 1] on a, d’après le théorème de transfert :
+∞ s
X sk 2 s
φ(s) = = s = .
k=1
2k 1− 2 2−s
On peut enfin écrire :
s2
2−s s s3
∀s ∈ [0, 1], φT (s) = φ (sφ(s)) φ(s) = s2
· = 3 .
2 − 2−s 2−s s − 8s + 8

571
94. Paradoxe de Penney

d) On note S 0 le rang d’obtention du premier « pile ». S est alors le rang d’ob-


tention de la première séquence « face-face » après S 0 , si bien que S 00 := S − S 0
suit la même loi que T 0 et est indépendante de S 0 . On a donc :

s3
∀s ∈ [0, 1], φS (s) = φS 00 (s)φS 0 (s) = φT 0 (s)φS 0 (s) = φ(sφ(s))φ(s) = .
s3 − 8s + 8
Les variables S et T ont donc la même loi.
e) Considérons un jeu de lancers de pièces équilibrées autour duquel s’affrontent
deux joueurs, et dans lequel il est décidé que le joueur A gagne la partie si la
séquence « face-face-pile » apparaît avant la séquence « pile-face-face » et que le
joueur B gagne la partie dans le cas contraire. La probabilité pour que le joueur A
gagne la partie est donc P(T < S). Or l’issue de la partie est en réalité déterminée
par le résultat des deux premiers lancers. En effet, si les deux premiers lancers
n’amènent pas la séquence « face-face », c’est-à-dire amènent au moins un « pile »,
alors la première apparition de la séquence « face-face » par la suite initiera certes
une séquence « face-face-pile », mais complètera une séquence « pile-face-face ».
Ainsi, le joueur B gagnera systématiquement la partie dans le cas où X1 et X2 ne
prennent pas toutes deux la valeur 0. Le joueur A gagnera par contre la partie
dans le cas où X1 et X2 prennent la valeur 0 puisqu’alors le premier « pile » obtenu
complètera la séquence « face-face-pile », si bien que
1
P(T < S) = P(X1 = X2 = 0) = .
4
On obtient un résultat surprenant : le joueur B a trois chances sur quatre de
gagner la partie, alors que les temps d’attente des séquences « pile-pile-face » et
« face-pile-pile » possèdent la même loi. Ce fait, énoncé en 1969 par Walter Penney,
est connu sous le nom de paradoxe de Penney.

Commentaires.
© Pour éviter le recours à l’espérance conditionnelle lors du calcul de φT 0 dans la
question c), on peut écrire :
 P 0 
G
(Gk +1)
∀s ∈ [0, 1], φT 0 (s) = E s k=1

 0

+∞
X G
X
= sn P  (Gk + 1) = n
n=1 k=1
  0

+∞ +∞ G
0
X X X
n 
= s P G = i ∩  (Gk + 1) = n
n=1 i=1 k=1
+∞ +∞ i
!!
0
X X X
n 
= s P G =i ∩ (Gk + 1) = n
n=1 i=1 k=1
+∞ +∞ i
!
0
X X X
n 
= s P G =i P (Gk + 1) = n
n=1 i=1 k=1

572
Probabilités et statistiques

par indépendance des Gk et de G0 , puis, grâce au théorème de Fubini-Tonelli :


+∞ i
 +∞
!
0
X X X
∀s ∈ [0, 1], φT 0 (s) = P G =i sn P (Gk + 1) = n
i=1 n=1 k=1
+∞  P
i

P G0 = i E s (Gk +1)
X 
= k=1

i=1
+∞
P G0 = i φPi
X 
= (Gk +1)
(s)
k=1
i=1
+∞
P G0 = i φi(G1 +1) (s)
X 
=
i=1
 
= φG0 φ(G1 +1) (s)
= φG0 (sφG1 (s)) .

© On peut déterminer la loi de T 0 à l’aide des chaînes de Markov 32 , en ramenant


le problème à l’étude d’une marche aléatoire sur un graphe. On suit alors le plan
suivant :
1. On réinterprète le problème en termes de temps d’atteinte d’un sommet par
une marche aléatoire sur un graphe.
2. On exhibe une formalisation matricielle du problème obtenu.
3. On calcule les valeurs propres d’une matrice de taille 3 × 3 et on effectue sa
réduction partielle pour déterminer la loi de T 0 .

Cette méthode peut donner lieu à un développement facile (F) permettant


d’illustrer l’utilité de la diagonalisation en probabilités. Examinons le détail de la
preuve.
1. Au cours du jeu, pour connaître la probabilité pour que le prochain lancer
amène la séquence « face-face », il suffit de savoir dans lequel des deux états
suivants on se situe :
À On a obtenu « pile » au lancer précédent, si bien que la probabilité pour
que le prochain lancer amène la séquence attendue est égale à 0.
Á On a obtenu « face » au lancer précédent, si bien que la probabilité pour
que le prochain lancer amène la séquence attendue est égale à 21 .
Par ailleurs, on remarque que le premier état mène vers le second et vers lui-
même de façon équiprobable, tandis que le second mène de façon équiprobable
vers le premier et vers la fin du jeu (que nous interprèterons comme un
troisième état Â). On peut donc transcrire le problème sous la forme d’une
marche aléatoire sur un graphe orienté : on considère une particule sautant
32. Il est possible — et sans doute souhaitable — pour les candidats familiers des chaînes de
Markov d’utiliser le vocabulaire et les raccourcis de calcul associés, notamment en exhibant une
matrice de transition sans se ramener à la formule des probabilités totales.

573
94. Paradoxe de Penney

à chaque unité de temps entre les sommets 1, 2 et 3 du graphe représenté


sur la figure 2.38 selon les probabilités indiquées sur les arêtes de ce graphe.

1
2
1 2 3
1 1
1 2 2 1
2

Figure 2.38 – Graphe probabiliste associé à l’attente de la séquence « face-face ».

Comme la séquence « face-face » n’est pas initialisée avant le premier lancer,


la particule se trouve à l’état 1 au temps 0 avec probabilité 1. En notant Yn
la position de la particule à l’issue de son n-ième saut pour tout n ∈ N,
on voit que T 0 = inf {k ∈ N : Yk = 3} est le temps d’atteinte de l’état Â
par la marche aléatoire (Yn )n∈N . Mais l’état  est absorbant au sens où le
probabilité d’y rester est P(Yk+1 = 3 | Yk = 3) = 1, d’où :
∀n > 1, P(T 0 = n) = P((Yn = 3) \ (Yn−1 = 3))
= P(Yn = 3) − P(Yn−1 = 3). (2)
Il suffit donc de connaître P(Yn = 3) pour tout n ∈ N pour en déduire la loi
de T 0 .
2. Si n ∈ N, la formule des probabilités totales 33 appliquée au système complet
d’événements ((Yn = 1), (Yn = 2), (Yn = 3)) permet d’écrire :
 1 1
 P(Yn+1 = 1) =
 2 P(Yn = 1) + 2 P(Yn = 2)
1
P(Yn+1 = 2) = 2 P(Yn = 1) (3)

 1
P(Yn+1 = 3) = 2 P(Yn = 2) + P(Yn = 3)
On définit à présent
 
P(Yn = 1)
∀n ∈ N, Zn := P(Yn = 2) .
 
P(Yn = 3)
D’après (3), on a Zn+1 = AZn pour tout n ∈ N avec
1 1
0

2 2
1
A= 0 0 ,
 
2
1
0 2 1
33. En toute rigueur, la formule des probabilités totales ne s’applique qu’au cas d’un système
complet d’événements de probabilités non nulles, puisque le conditionnement par un événement
n’a de sens que si celui-ci n’est pas de probabilité nulle. Toutefois, la relation (3) ne fait pas
apparaître de probabilités conditionnelles et reste vraie si l’un des événements est de probabilité
nulle.

574
Probabilités et statistiques

d’où  
1
∀n ∈ N, Zn = An Z0 = An 0 .
 
0
3. Le polynôme caractéristique de A est

1 − 2X 1 0
1 (1 − X)(4X 2 − 2X − 1)
χA (X) = 1 −2X 0 =
8 4
0 1 2 − 2X

donc les valeurs propres de A sont


√ √
1+ 5 1− 5
1, µ := et µ := .
4 4
La matrice A est donc diagonalisable. On pourrait réaliser sa réduction
complète pour calculer l’expression générale de Zn pour tout n ∈ N, mais
cela n’est pas nécessaire pour traiter le problème posé puisqu’il nous suffit
d’après (2) de connaître la troisième coordonnée de Zn . On se contente de
remarquer 34 qu’il existe α, β, γ ∈ R tels que :

∀n ∈ N, P(Yn = 3) = α + βµn + γµn . (4)

On sait par ailleurs que


 

(Yn = 3) = P T 0 < +∞ = 1


[ 
lim P(Yn = 3) = P 
n→+∞
n>0

puisque ((Yn = 3))n∈N est une suite croissante d’événements. Comme |µ| < 1
et |µ| < 1, passer à la limite dans (4) assure que α = 1.
Un simple regard à la Figure 2.38 permet ensuite d’écrire

P(Y0 = 3) = P(Y1 = 3) = 0,

si bien que la relation (4) évaluée aux rangs n = 0 et n = 1 donne :


(
β + γ = −1
µβ + µγ = −1

L’opération L2 ← L2 − µL1 , transforme ce système en :


(
β + γ = −1
(µ − µ) γ = −1 + µ

On en déduit √
1−µ 3− 5
γ= = √
µ−µ 2 5
34. en écrivant l’égalité An Z0 = P Dn P −1 Z0 , où P ∈ GL3 (R) et où D ∈ M3 (R) est une
matrice diagonale, et en observant la forme des coefficients de Zn = An Z0 .

575
94. Paradoxe de Penney

puis √
3+ 5
β = −1 − γ = − √ .
2 5
On a finalement
√ √
3+ 5 n 3− 5 n
∀n > 0, P(Yn = 3) = 1 − √ µ + √ µ
2 5 2 5

On applique alors (2) pour trouver la loi de T 0 :


√ √
0 3 + 5 n−1 3 − 5 n−1
∀n > 1, P(T = n) = √ µ (1 − µ) − √ µ (1 − µ)
2 5 2 5
1  
= √ µn−1 − µn−1 .
2 5

© On peut prolonger le calcul précédent pour obtenir la loi de T (ce qui donne
alors lieu à un développement FF, toujours élémentaire mais relativement long).
On reprend les notations de la question a). Par indépendance de T 0 et G, on
déduit que si k > 2, alors :
k−1
P (T 0 = i) ∩ (G = k − i)
X 
P(T = k) =
i=1
k−1
P(T 0 = i)P(G = k − i)
X
=
i=1
k−1
X 1   1
= √ µi−1 − µi−1 k−i
i=1 2 5 2
1 k−1
X
i−1 i−1

= √ (2µ) − (2µ)
2k 5 i=1
!
1 1 − (2µ)k−1 1 − (2µ)k−1
= √ −
2k 5 1 − 2µ 1 − 2µ
1 2(µ − µ) − (1 − 2µ)(2µ)k−1 + (1 − 2µ)(2µ)k−1
= √
2k 5 1 − 2(µ + µ) + 4µµ
k
µ −µ k 1
= √ − k,
5 2

la dernière ligne de calcul étant facilitée par deux remarques : d’une part, µ et µ
sont par définition les racines du polynôme 4X 2 − 2X − 1, ce qui permet d’écrire
sans calcul que µ + µ = 12 et que µµ = − 14 , et d’autre part 1−2µ
2 = µ et 1−2µ
2 =µ
d’après ces relations.
© Un jury d’agrégation pourrait légitimement vouloir vérifier la capacité d’un
candidat à formaliser la réponse à la question a). Dans ce cas, il suffirait d’écrire

T = inf {k > T 0 : Xk = 1}

576
Probabilités et statistiques

et de remarquer que inf {k > T 0 : Xk = 1} − T 0 est une variable aléatoire de


loi G (1/2) indépendante de T 0 , puisque pour tout (m, n) ∈ (N∗ )2 :

P (T 0 = m) ∩ (inf {k > T 0 : Xk = 1} − T 0 = n)


= P (T 0 = m) ∩ (inf {k > m : Xk = 1} − m = n)


= P T 0 = m P (inf {k > m : Xk = 1} − m = n)


 1
= P T0 = m n,
2
où la deuxième égalité découle du fait que l’événement (T 0 = m) s’écrit uniquement
en fonction des variables X1 , . . . , Xm qui sont indépendantes de la famille de
variables (Xk )k>m .
Le lecteur est invité à formaliser de même tous les arguments probabilistes mobilisés
dans la correction ci-avant.
© Dans le cadre d’une leçon sur les séries, il est possible de déterminer explicitement
la loi de T (et donc de S) en développant en série entière l’expression de sa fonction
génératrice (ce qui donne lieu à un développement assez long et un peu technique,
de difficulté FF). Si s ∈ [0, 1], on rappelle que

s2 s s3 1 1
φT (s) = φ(sφ(s))φ(s) = · = · . (5)
2
4 − 2s − s 2 − s s
8 1− 2 − s2
4
1 − 2s

k 1
la série de Taylor de s 7→
P
Notons k>0 ak s 2
1− 2s − s4
en 0. Son rayon de convergence
est strictement positif puisque 0 n’est pas un pôle de la fraction rationnelle associée
1
X X2
, donc on a
1− 2
− 4

! +∞ +∞
s s2 X X 1 +∞
X 1 +∞
X
1= 1− − ak sk = ak s k − ak sk+1 − ak sk+2
2 4 k=0 k=0
2 k=0 4 k=0

sur un voisinage de 0. En identifiant les coefficients des séries entières ainsi


obtenues, on obtient a0 = 1, a1 − 12 a0 = 0 et

1 1
∀k > 0, ak+2 − ak+1 − ak = 0.
2 4
√ √
1+ 5 1− 5
On en déduit, en posant µ = 4 et µ = 4 :

1 1 1 1
   
∀k ∈ N, ak = + √ µk + − √ µk .
2 2 5 2 2 5

La relation (5) donne alors, pour tout s ∈ [0, 1] assez proche de 0 :


+∞
! +∞ !
s3 X X 1
φT (s) = ak sk k
sk .
8 k=0 k=0
2

577
94. Paradoxe de Penney

Comme les termes sommés sont positifs, on peut écrire l’égalité ci-avant à l’aide
d’un produit de Cauchy, d’où, pour s assez proche de 0,

k
s3 +∞
!
X X 1
φT (s) = ai k−i sk
8 k=0 i=0 2
+∞ k 
1 1 1 1 sk+3
XX    
= + √ (2µ)i + − √ (2µ)i k+3
k=0 i=0
2 2 5 2 2 5 2
+∞
" #
X  1 1 1 − (2µ)k+1 1 1 1 − (2µ)k+1 sk+3
  
= + √ + − √
k=0
2 2 5 1 − (2µ) 2 2 5 1 − (2µ) 2k+3
+∞
" #
X  1 1 − (2µ)k+1 1 1 − (2µ)k+1 sk+3
  
= 1+ √ √ + 1− √ √
k=0 5 1− 5 5 1+ 5 2k+3
+∞
" #
X  1 (2µ)k+1 1 (2µ)k+1 sk+3
  
= 1+ √ √ − 1− √ √ − 1 k+3
k=0 5 5−1 5 5+1 2
+∞
" #
X µk+3 − µk+3 1
= √ − k+3 sk+3 .
k=0 5 2

En écrivant que
+∞
X
φT (s) = P(T = k)sk
k=0

pour tout s ∈ [0, 1], on obtient alors que P(T = 0) = P(T = 1) = P(T = 2) = 0 et
que pour tout k > 3,
µk − µ k 1
P(T = k) = √ − k.
5 2

© Dans la correction de la question d), on a utilisé un résultat implicite selon


lequel l’une des séquences « face-face-pile » ou « pile-face-face » apparaît avec
probabilité 1 au cours de la suite de lancers. Ce résultat peut être justifié par la
loi des grands nombres ou en vérifiant que

+∞
X
P(T < +∞) = P(T < +∞) = P(T = k) = 1
k=2

avec l’expression explicite de P(T = k) donnée plus haut.

578
Probabilités et statistiques

Questions.
1. Formaliser l’argument de la question a) selon lequel « une fois [le] premier
« face » obtenu, si B1 (qui est indépendante de G1 ) prend la valeur 1 alors T 0
prend la valeur G1 + 1, sinon l’expérience est réinitialisée à partir du rang G1 + 2 ».
2. Montrer en utilisant la loi forte des grands nombres que les variables T et T 0
prennent des valeurs finies avec probabilité 1.
3. Écrire l’événement (T = m) en fonction d’événements portant sur les variables
X1 , . . . , Xm .
4. Justifier que la suite (Bk )k∈N∗ est bien définie, au sens où il existe effectivement
un rang d’obtention du k-ième « face » pour tout k ∈ N∗ .
5. Justifier la relation (1).
6. Justifier la convergence des séries dont on calcule les sommes dans les commen-
taires suivant le développement.
7. Quelle est l’expression de φT sur ] − 1, 0[ ?
8. Quelle est la valeur de E(T ) ?
9. Montrer à l’aide d’arguments heuristiques que pour tout k > 0 on a

P(T 0 = k + 1 | X1 = 0) = P(T 0 = k)

et
P(T 0 = k + 2 | (X1 = 1) ∩ (X2 = 0)) = P(T 0 = k),
puis vérifier que la suite (P(T 0 = k))k∈N est récurrente linéaire d’ordre 2 et retrou-
ver l’expression explicite de P(T 0 = k) pour tout k > 2.
10. Aurait-on pu recourir à une formalisation en termes de marche aléatoire
comme celle donnée en commentaires et à une matrice de taille 4 × 4 pour calculer
directement la loi de T sans passer par celle de T 0 ?
11. Calculer E(T 2 ) et E(T 3 ). La variable aléatoire T admet-elle des moments de
tous ordres ?
12. On réalise des lancers successifs d’une pièce équilibrée jusqu’à obtenir la
séquence « pile-face », et on note T la variable aléatoire comptant le nombre de
lancers effectués. Déterminer la loi de T 00 . Calculer E(T 00 ) et V (T 00 ).
Indication : on pourra poser pour tout n > 1 l’événement

An : « les lancers 2n et 2n + 1 donnent la séquence pile-face »,

puis le lemme de Borel-Cantelli ou la loi forte des grands nombres.


13. Comment calculer la loi du rang auquel est observée la deuxième séquence
« face-face-pile » ?

579
95. Formule de Stirling par la limite centrale

Développement 95 (Formule de Stirling par la limite centrale F)

Soit (Xn )n∈N∗ une suite de variables aléatoires indépendantes et de même loi
de Poisson de paramètre 1.
Pour tout n > 1, on pose
n
1X
Xn = Xi
n i=1
et

Zn = n(Xn − 1).

a) Montrer que pour tout n > 1 on a


√  n
n n
Zn−

E = .
n! e

b) Montrer que pour tout A > 0 et pour toute variable aléatoire X admettant
un moment d’ordre 2 :

E(X 2 )
0 6 E(X) − E(X ∧ A) 6 ,
A
où X ∧ A := min(X, A).
c) Montrer que
lim E(Zn− ) = E(Z − ),
n→+∞

où Z est une variable aléatoire suivant la loi normale centrée réduite.

d) En déduire la formule de Stirling


√  n
n
n! ∼ 2πn .
e

Leçons concernées : 235, 262, 264

On retrouve dans ce développement la formule de Stirling en passant à l’espérance


dans une relation de convergence donnée par le théorème central limite. Ce déve-
loppement trouve donc naturellement sa place dans les leçons sur les problèmes
d’inversion de limites et d’intégrales (235) et de théorèmes limites de suites de
variables aléatoires (262). Il illustre aussi la leçon 264 grâce aux calculs explicites
qu’il mobilise sur les lois de Poisson.

580
Probabilités et statistiques

Correction.

a) Soit n > 1. La variable aléatoire Zn− est à valeurs dans [0, n], donc elle admet
une espérance. Par ailleurs,
 !− 
n
− 1  X
E Zn =√ E Xi − n 
n i=1
 !− 
n n
1 X X
=√ kP  Xi − n = k
n k=0 i=1
 !− 
n n
1 X X
=√ kP  Xi − n = k
n k=1 i=1
n n
!
1 X X
=√ kP Xi − n = −k
n k=1 i=1
n n
!
1 X X
= √ kP Xi = n − k ,
n k=0 i=1
Pn
or i=1 Xi suit une loi de Poisson de paramètre n donc
n
1 X nn−k
E Zn− = √ k e−n

.
n k=0 (n − k)!

En réalisant le changement d’indice k ← n − k puis en utilisant la linéarité de la


somme, on obtient
n
1 X nk
E Zn− = √ (n − k) e−n

n k=0 k!
n n
!
e−n X nk X nk
= √ n − k
n k=0
k! k=0 k!
n n
!
e−n X nk+1 X nk
= √ −
n k=0
k! k=1
(k − 1)!
n
nk+1 n−1
!
e−n X X nk+1
= √ −
n k=0
k! k=0
k!
e−n nn+1
= √ .
n n!

On a donc bien √  n
n n
E(Zn− ) = .
n! e
2
b) Soit A > 0. On va établir que 0 6 x − x ∧ A 6 xA pour tout x ∈ R, ce qui
2
permettra d’écrire 0 6 X − X ∧ A 6 XA puis de conclure par passage à l’espérance.
On distingue deux cas selon la valeur de x :

581
95. Formule de Stirling par la limite centrale

x2
• Si x 6 A, alors x − x ∧ A = 0, donc 0 6 x − x ∧ A 6 A.
x x2
• Si x > A, alors x − x ∧ A = x − A, or x − A > 0 et x − A < x < x A = A
x
puisque x > 0 et A > 1.
x2
On a donc bien 0 6 x − x ∧ A 6 A pour tout x ∈ R, d’où le résultat.
c) D’après le théorème central limite, on a

L
Zn −−−−−→ Z,
n→+∞

où Z ∼ N (0, 1) ; cela signifie que limn→+∞ E (φ(Zn )) = E (φ(Z)) pour toute


fonction continue bornée φ : R → R. Si A > 0, en appliquant cette propriété à la
fonction φ : x 7→ x− ∧ A, on obtient

lim E Zn− ∧ A = E Z − ∧ A .
 
(1)
n→+∞

Or l’inégalité triangulaire permet d’écrire, pour tout A > 0 et tout n > 1,

E(Zn− ) − E(Z − ) 6 E(Zn− ) − E(Zn− ∧ A)


+ E(Zn− ∧ A) − E(Z − ∧ A) + E(Z − ∧ A) − E(Z − ) . (2)

Or les Zn et Z sont centrées et réduites, donc admettent un moment d’ordre 2 égal


à 1. Les Zn− et Z − admettent donc un moment d’ordre 2 au plus égal 1, puisque

0 6 (Zn− )2 6 Zn2

pour tout n > 1 et


0 6 (Z − )2 6 Z 2 .

L’inégalité (2) et la question b) donnent donc, pour tout A > 0 et tout n > 1,

1 1
E(Zn− ) − E(Z − ) 6 + E(Zn− ∧ A) − E(Z − ∧ A) + ,
A A

d’où, grâce à (1),


2
lim sup E(Zn− ) − E(Z − ) 6 ,
n→+∞ A

donc en laissant tendre A vers +∞ on obtient

lim E(Zn− ) = E(Z − ).


n→+∞

582
Probabilités et statistiques

d) Grâce à la question a) et à la question c), il suffit de montrer que E(Z − ) = √12π


pour conclure. Cette relation s’obtient par un calcul direct grâce au théorème de
transfert :
Z +∞
− 1 x2
E(Z ) = − (x ∧ 0) √ e− 2 dx
−∞ 2π
Z 0
1 − x2
=− x √ e 2 dx
−∞ 2π
Z 0
1
 2

− x2
= lim −√ xe dx
A→−∞ 2π A
0
1

x2
= lim √ e− 2
A→−∞ 2π A
1
 2

− A2
= lim √ 1−e
A→−∞ 2π
1
=√ .

Commentaires.
© Il est aisé de démontrer qu’il existe C > 0 tel que
 n
n √
n! ∼ C n
n→+∞ e
1
en remarquant que ln(nn+ 2 e−n ) − ln(n!) est la somme partielle d’une série té-
lescopique convergente.
√ L’apport de ce développement est de spécifier que la
constante est égale à 2π grâce à la connaissance de la valeur de l’intégrale de
Gauss — cachée derrière le fait que la densité de la loi normale centrée réduite
est d’intégrale 1.
© On peut démontrer la convergence de E(Zn− ) vers E(Z − ) dans la question c)
sans passer par la question b). Pour cela, on remarque dans un premier temps
que (1) implique

lim inf E(Zn− ) > E(Z − ∧ A) (3)


n→+∞

pour tout A > 0. Comme E(Z − ) = supA>0 E(Z − ∧ A) on en tire, par le théorème
de convergence monotone (ou par le théorème de convergence dominée),

lim inf E(Zn− ) > E(Z − ).


n→+∞

Par ailleurs, pour tout n > 1 et tout A > 0, on a


   
E(Zn− ) = E Zn− 1Zn− 6A + E Zn− 1Zn− >A
 
6 E Zn− ∧ A + E Zn− 1Zn− >A .

(4)

583
95. Formule de Stirling par la limite centrale

Or, d’après les inégalités de Cauchy-Schwarz et de Markov :


  r  
E Zn− 1Zn− >A 6 E (Zn− )2 P(Zn− > A)
r  
= E (Zn− )2 P((Zn− )2 > A2 )
s
  E((Z − )2 )
n
6 E (Zn− )2
A2
(Zn− )2

E
6
A
E Zn2
6
A
V(Zn )
6
A
1
= .
A

Cette observation implique, après passage à limite supérieure dans l’inégalité (4)
grâce à (1), que
1
lim sup E(Zn− ) 6 E(Z − ∧ A) +
n→+∞ A
pour tout A > 0, d’où
1
lim sup E(Zn− ) 6 E(Z − ) +
n→+∞ A

quel que soit A > 0, et donc, en laissant tendre A vers +∞,

lim sup E(Zn− ) 6 E(Z − ).


n→+∞

Cette relation et (3) permettent alors de conclure que

lim E(Zn− ) = E(Z − ).


n→+∞

© Les probabilistes avertis peuvent démontrer la convergence de E(Zn− ) vers E(Z − )


en utilisant la notion d’uniforme intégrabilité ainsi que le théorème de Skorokhod
(tous deux absents du programme de l’agrégation mais abordables lors de l’oral
par des candidats qui en sont familiers). La famille (Zn− )n∈N∗ est uniformément
intégrable car bornée dans L2 . En effet, le calcul effectué dans le commentaire
précédent assure que

E (Zn− )2

  1
E Zn− 1Zn− >A 6 6 −−−−−→ 0.
A A n→+∞

Comme (Zn− )n∈N∗ converge en loi vers Z − , il existe par le théorème de Sko-
rokhod un espace probabilisé (Ω0 , A0 , P0 ) sur lequel sont définies des variables

584
Probabilités et statistiques

aléatoires (Zn0 )n∈N∗ et Z 0 telles que pour tout n > 1 la loi de Zn0 sous P0 soit la loi
de Zn− sous P, que la loi de Z 0 sous P0 soit la loi de Z − sous P, et que

p.s.
Zn0 −−−−−→ Z 0 .
n→+∞

La suite de variables aléatoires (Zn0 )n∈N∗ est uniformément intégrable et converge


en probabilité vers Z 0 (pour P0 ) ; elle converge donc vers Z 0 dans L1 (P0 ), au sens
où limn→+∞ E0 (|Zn0 − Z 0 |) = 0 (où E0 est l’espérance associée à P0 ). On en déduit
que limn→+∞ E0 (Zn0 ) = E0 (Z 0 ), soit limn→+∞ E(Zn− ) = E(Z − ).
© Une démonstration alternative de la formule de Stirling consiste à montrer que
Z +∞ Z +∞
lim P(Zn > t)dt = P(Z > t)dt (5)
n→+∞ 0 0

et à calculer les termes 0+∞ P(Zn > t)dt et 0+∞ P(Z > t)dt. Comme on va le
R R

voir, cette preuve utilise le théorème de convergence dominée et le théorème de


Fubini-Tonelli ; elle peut à ce titre illustrer la leçon 235.
On sait que pour tout t > 0, limn→+∞ P(Zn > t) = P(Z > t) d’après le théorème
central limite puisque la loi de Z est absolument continue. Comme par ailleurs on
a P(Zn > t) 6 E(Zn2 )t−2 = t−2 pour tout t > 0 d’après l’inégalité de Markov et
comme t 7→ 1 ∧ t−2 est intégrable sur R+ , le théorème de convergence dominée
permet d’obtenir (5).
R +∞
Si n > 1, on calcule 0 P(Zn > t)dt en écrivant

Z +∞ Z +∞

P(Zn > t)dt = P(X1 + . . . + Xn > t n + n)dt
0 0
+∞ +∞
! !
nk k
Z +∞ Z +∞
n
1k>t√n+n e−n 1k>t√n+n e−n
X X
= dt = dt
0 k=0
k! k=0 0 k!
+∞ k−n +∞
!
k √
nk k − n
−n n
Z
n
e−n
X X
= e dt = √
k=n
k! 0 k=n
k! n
+∞ +∞ +∞ +∞
! !
e−n X nk X nk e−n X nk X nk+1
= √ k − n = √ −
n k=n
k! k=n
k! n k=n
(k − 1)! k=n k!
 
+∞ +∞
e−n X e−n nn
nk+1 X nk+1
= √  − = √
n k=n−1 k! k=n
k! n (n − 1)!
 n
√ n 1
= n ,
e n!

où l’interversion somme-intégrale procède du théorème de Fubini-Tonelli.

585
95. Formule de Stirling par la limite centrale

On calcule enfin 0+∞ P(Z > t)dt grâce à une nouvelle application du théorème
R

de Fubini-Tonelli :
Z +∞ Z +∞ Z +∞
1

u2
P(Z > t)dt = √ e− 2 du dt
0 0 t 2π
Z +∞ Z +∞
1 − u2

= 1t6u √ e 2 du dt
0 0 2π
Z +∞ +∞ 1 − u2
Z 
= 1t6u √ e 2 dt du
0 0 2π
Z +∞ Z u
1 2

u
= √ e− 2 dt du
0 0 2π
Z +∞
1 u2
= √ ue− 2 du
0 2π
1
=√ ,

la fin du calcul étant identique à la correction de la question d).


La relation (5) donne alors
 n
√ n 1 1
lim n =√ ,
n→+∞ e n! 2π

d’où la formule de Stirling.

Questions.
1. Détailler l’utilisation du théorème de transfert faite à la question d).
Pn
2. Justifier que i=1 Xi suit une loi de Poisson de paramètre n.
3. Justifier que la variable Zn est centrée et réduite.
4. Représenter graphiquement la fonction x 7→ x− ∧ A pour constater qu’elle est
continue et bornée.
5. Justifier que si X admet un moment d’ordre 2, alors E(X) et E(X ∧ A) existent.
6. La variable Z − est-elle à densité ?
n
X nk 1
7. Justifier que exp (−n) −→ à l’aide du théorème central limite.
k=0
k! n→+∞ 2
 1

8. Montrer que ln nn+ 2 e−n − ln(n!) est bien la somme partielle d’une série
télescopique convergente.
9. Donner une construction explicite des variables Xn0 et X 0 obtenues par le
théorème de Skorokhod utilisé en commentaire.
Indication : utiliser les fonctions de répartition inverses des Xn− et de X − .
10. Rappeler pourquoi une suite uniformément intégrable de variables aléatoires
réelles convergeant en probabilité converge aussi dans L1 .

586
Probabilités et statistiques

11. On présente ici une autre preuve de la formule de Stirling, tirée de [GK19]
(exercice 251 de la deuxième édition).
Soit (Yn )n∈N une suite de variables aléatoires indépendantes et de même loi
exponentielle de paramètre 1. Pour tout n ∈ N, on pose Sn = Y0 + · · · + Yn .
n −n
(a) Montrer que S√ n
converge en loi vers une variable suivant une loi normale
centrée réduite lorsque n tend vers +∞.
Indication : on pourra utiliser le lemme de Slutsky.
(b) Montrer que pour tout n > 1, la variable aléatoire Sn suit la loi Γ(n + 1, 1),
n −n
et déduire que la densité de S√ n
s’écrit gn = an hn avec

1 √
nn+ 2 e−n 2π
an =
Γ(n + 1)
et n
1 √ x

hn (x) = √ e− nx 1 + √ 1[−√n,+∞[ (x).
2π n
(c) Montrer que
Z 1 Z 1 Z 1
1 x2
lim gn (x)dx = lim hn (x)dx = √ e− 2 dx.
n→+∞ 0 n→+∞ 0 0 2π

(d) En déduire la formule de Stirling.

587
96. Une marche aléatoire sur [0, 1]

Développement 96 (Une marche aléatoire sur [0, 1] FF)

Soit p ∈ ]0, 1[. On considère une suite (ξn )n∈N de variables aléatoires de
même loi de Bernoulli de paramètre p, ainsi qu’une suite (Un )n∈N de variables
aléatoires de même loi uniforme sur [0, 1]. On suppose que toutes les variables
aléatoires ainsi introduites sont indépendantes.
On pose à présent X0 = x pour un x ∈ [0, 1], et

Xn+1 = Un Xn + ξn (1 − Un )
pour tout n > 0. Les Xn sont donc à valeurs dans [0, 1].
a) Montrer que si (bn )n∈N est une suite réelle convergente et si a ∈ [0, 1[, alors
toute suite (un )n∈N vérifiant la relation de récurrence un+1 = aun + bn , pour
tout n > 0, converge.
b) En déduire que pour tout k ∈ N, la suite (E(Xnk ))n∈N converge vers le
moment d’ordre k d’une loi bêta de paramètres p et 1 − p.
c) Montrer que la suite (Xn )n∈N converge en loi vers une loi bêta de para-
mètres p et 1 − p.

Leçons concernées : 201, 209, 261, 262, 265, 266

On étudie ici la convergence en loi d’une chaîne de Markov (Xn )n∈N représentant
la position d’une particule qui se déplace sur [0, 1] en choisissant à chaque pas
de temps une nouvelle position uniformément parmi les points situés à sa droite
(avec probabilité p) ou parmi les points situés à sa gauche (avec probabilité 1 − p).
La preuve consiste à exploiter la relation de récurrence existant entre les moments
des Xn pour en montrer la convergence en loi grâce à un argument de densité.
À ce titre, ce développement permet d’illustrer les leçons 201, 209, 261 et 262.
Par l’utilisation répétée qu’il fait des fonctions spéciales gamma et bêta, il trouve
par ailleurs tout à fait sa place dans la leçon 265. Enfin, la modélisation explicite
des sauts de la particule à l’aide de variables à densité indépendantes justifie
pleinement l’utilisation de ce développement pour illustrer la leçon 266.

Correction.

a) Plaçons-nous dans les conditions de l’énoncé, notons b ∈ R la limite de (bn )n∈N


et considérons ε > 0. Il existe alors un rang N > 0 tel que b − ε 6 bn 6 b + ε pour
tout n > N , et donc, en ajoutant aun aux termes de cette inégalité :

∀n > N, aun + b − ε 6 un+1 6 aun + b + ε. (1)

Définissons les suites arithmético-géométriques (vn )n>N et (wn )n>N en posant les
valeurs initiales vN = wN = uN ainsi que

vn+1 = avn + b − ε et wn+1 = awn + b + ε

588
Probabilités et statistiques

pour tout n > N . Une récurrence facile assure alors que

vn 6 un 6 wn (2)

pour tout n > N . Or il est classique que la suite arithmético-géométrique (vn )n>N
b−ε b+ε
converge vers 1−a et que (wn )n>N converge vers 1−a , si bien que (2) donne

b−ε b+ε
6 lim inf un 6 lim sup un 6 .
1−a n→+∞ n→+∞ 1−a
b
Comme ε est quelconque, on en déduit que (un )n∈N converge vers 1−a .
b) Comme les Xn sont à valeurs dans [0, 1], elles admettent des moments de
tous ordres. Pour tous k, n ∈ N, on note mn,k = E(Xnk ). En conditionnant par
la valeur de ξn puis en utilisant l’indépendance de Un et de Xn , on obtient pour
tous k, n ∈ N :
k
mn+1,k = E(Xn+1 )
k k
= (1 − p)E(Xn+1 | ξn = 0) + p E(Xn+1 | ξn = 1)
h i h i
= (1 − p)E (Un Xn )k + p E (Un Xn + 1 − Un )k
h i
= (1 − p)E(Unk )E(Xnk ) + p E (Un (Xn − 1) + 1)k
Z 1 h
1−p i
= mn,k + p E (u(Xn − 1) + 1)k du.
k+1 0

Si k, n ∈ N, le théorème de Fubini-Lebesgue donne alors


1−p 1
Z 
mn+1,k = mn,k + p E (u(Xn − 1) + 1)k du
k+1
" 0 #
1−p Xnk+1 − 1
= mn,k + p E 1Xn <1 + 1Xn =1
k+1 (k + 1)(Xn − 1)
k
" #
1−p p X
= mn,k + E Xi .
k+1 k + 1 i=0 n

On en déduit enfin par linéarité de l’espérance que


k
1−p p X
mn+1,k = mn,k + mn,i
k+1 k + 1 i=0
1 p k−1
X
= mn,k + mn,i . (3)
k+1 k + 1 i=0

Montrons par récurrence forte sur k que (mn,k )n∈N converge pour tout k ∈ N.
La propriété est évidente pour k = 0, puisque dans ce cas on a mn,k = 1 quel
que soit n > 0. Considérons à présent k ∈ N et supposons que la suite (mn,i )n∈N
converge pour tout i 6 k. La relation (3) permet alors d’écrire que pour tout n > 0
1 p Pk−1
la quantité mn+1,k vaut amn,k + bn , où a = k+1 ∈ [0, 1[ et où bn = k+1 i=0 mn,i

589
96. Une marche aléatoire sur [0, 1]

converge lorsque n tend vers +∞. D’après la question a), la suite (mn,k+1 )n∈N
converge donc, ce qui établit la propriété au rang k + 1.
Par le principe de récurrence, on déduit que pour tout k ∈ N la suite (mn,k )n∈N
converge vers une limite que nous noterons mk .
Il s’agit à présent de montrer que les mk sont exactement les moments d’une loi
bêta de paramètres p et 1 − p. En passant à la limite n → +∞ dans (3), on obtient
pour tout k ∈ N la relation

1 p k−1
X
mk = mk + mi ,
k+1 k + 1 i=0

soit encore
p k−1
X
mk = mi .
k i=0
En utilisant le fait que m0 = 1 et en calculant les premiers termes de (mk )k∈N ,
on conjecture la formule suivante, qui se démontre sans difficulté par récurrence
forte :
p k−1
Y p 1 k−1


Y
∀k ∈ N , mk = 1+ = (i + p) . (4)
k i=1 i k! i=0

Or si k ∈ N, le moment d’ordre k de la loi bêta de paramètres p et 1 − p, que


nous noterons m0k , vaut
Z 1
1 B(p + k, 1 − p)
m0k = tk tp−1 (1 − t)−p dt =
B(p, 1 − p) 0 B(p, 1 − p)

et la formule rappelée page 499 donne

B(p + k, 1 − p) Γ(p + k)Γ(1 − p) Γ(1) Γ(p + k)


= = .
B(p, 1 − p) Γ(k + 1) Γ(p)Γ(1 − p) Γ(k + 1)Γ(p)

En utilisant la relation Γ(z + 1) = zΓ(z) valable pour tout z ∈ C tel que Re(z) > 0,
on en déduit pour tout k ∈ N que

1 k−1
m0k =
Y
(p + i)
k! i=0

soit, grâce à (4), m0k = mk , ce qu’il fallait démontrer.


c) Il s’agit ici de rappeler pourquoi la convergence des moments d’une suite de
variables aléatoires (Xn )n∈N à valeurs dans [0, 1] vers ceux d’une loi de probabilité µ
sur [0, 1] implique la convergence en loi de (Xn )n∈N vers µ.
On a montré que pour tout k ∈ N,
h i Z 1
E Xnk = mn,k −−−−−→ m0k = tk fp,1−p (t)dt,
n→+∞ 0

590
Probabilités et statistiques

où fp,1−p est la fonction de densité de la loi bêta de paramètres p et 1 − p. Par


linéarité de l’espérance, on a alors
Z 1
E[g(Xn )] −−−−−→ g(t)fp,1−p (t)dt (5)
n→+∞ 0

pour toute fonction polynomiale ϕ : [0, 1] → R.


Soit à présent ϕ : [0, 1] → R une fonction continue et soit ε > 0. Comme [0, 1]
est compact et ϕ continue, le théorème de Stone-Weierstrass implique l’existence
d’une fonction polynomiale gε : [0, 1] → R telle que kgε − ϕk∞ 6 ε. Pour tout
entier n > 0, on a donc E(|gε (Xn ) − ϕ(Xn )|∞ ) 6 ε, d’où
Z 1 Z 1
E[ϕ(Xn )] − ϕ(t)fp,1−p (t)dt 6 ε + E[gε (Xn )] − ϕ(t)fp,1−p (t)dt
0 0

d’après l’inégalité triangulaire, et enfin, en passant à la limite supérieure et en


utilisant (5),
Z 1
lim sup E[ϕ(Xn )] − ϕ(t)fp,1−p (t) 6 ε.
n→+∞ 0

La valeur de ε > 0 étant arbitraire, cela signifie


Z 1
E[ϕ(Xn )] −−−−−→ ϕ(t)fp,1−p (t)dt,
n→+∞ 0

ce qui est exactement la convergence en loi attendue.

Commentaires.
© On peut traiter la question a) à l’aide d’un argument de sommation des relations
de comparaison. Plaçons-nous une fois encore dans les conditions de l’énoncé,
b
notons b ∈ R la limite de la suite (bn )n∈N et posons ` = 1−a , si bien que ` vérifie
` = a` + b. Pour tout k ∈ N, on a alors

uk+1 − ` = a(uk − `) + bk − b = a(uk − `) + o(1)

et donc  
a−(k+1) (uk+1 − `) − a−k (uk − `) = o a−k , (6)

où la relation de négligeabilité est valable lorsque k → +∞. Comme a−1 > 1, la


série de terme général positif a−n diverge et on obtient par sommation
n−1 n−1
!
X 
−(k+1) −k −k
= o a−n ,
X 
a (uk+1 − `) − a (uk − `) = o a
k=0 k=0

soit a−n (un − `) = o(a−n ) et donc un − ` = o(1), si bien que (un )n∈N converge
vers `.

591
96. Une marche aléatoire sur [0, 1]

© On pourrait traiter la question c) à l’aide du théorème de Lévy. On note φ la


fonction caractéristique de la loi bêta de paramètres p et 1 − p, et pour tout n > 0
on note φn la fonction caractéristique de la variable aléatoire Xn . Comme les Xn
sont à valeurs dans [0, 1], les moments mn,k sont tous bornés par 1. Le théorème
de Fubini et le théorème de convergence dominée permettent alors d’écrire que
  +∞
X ik tk +∞
X ik tk
φn (t) = E eitXn = mn,k −−−−−→ mk = φ(t)
k=0
k! n→+∞
k=0
k!
pour tout t ∈ R. Le théorème de Lévy implique alors le résultat de convergence
en loi attendu.
© La loi limite obtenue est indépendante de la condition initiale x fixée. Ce fait,
classique pour les chaînes de Markov irréductibles récurrentes, ne doit pas étonner :
il est dû à l’absence de mémoire du processus et au fait que la particule visite
presque sûrement tout borélien de [0, 1] de mesure non nulle.
© Compte tenu du problème modélisé, on s’attend à ce que la distribution limite
de Xn soit concentrée sur les bords de l’intervalle [0, 1] et charge d’autant plus
le voisinage de 1 par rapport au voisinage de 0 que p est élevé. La Figure 2.39
confirme ces intuitions.

Figure 2.39 – Illustration de la convergence en loi démontrée dans le


développement. On a représenté, pour une distribution équilibrée (p = 1/2) et
pour une distribution biaisée vers la droite (p = 5/7), l’histogramme normalisé de
10000 réalisations de X100 ainsi que la fonction de densité fp,1−p de la loi bêta de
paramètres p et 1 − p.

© L’espérance conditionnelle utilisée dans le premier calcul de la réponse à la


question a) est définie de la façon suivante : si X est une variable aléatoire réelle
bornée et A un événement de probabilité non nulle, l’espérance conditionnelle
de X sachant A, notée E(X | A), est l’intégrale de X relativement à la probabilité
conditionnelle sachant A, c’est-à-dire à P(· | A). On peut montrer en utilisant la
formule des probabilités totales que si (Ai )i∈I (avec I fini ou dénombrable) est un
système complet d’événements de probabilités non nulles, alors
X
E(X) = E(X | Ai )P(Ai ). (7)
i∈I

592
Probabilités et statistiques

Dans ce développement, cette formule est utilisée pour le système complet d’évé-
nements {(ξn = 0), (ξn = 1)}.
Les lecteurs probabilistes reconnaîtront dans E(X | A) la valeur sur A de l’espérance
conditionnelle de X par rapport à une tribu contenant A, et dans la formule
k k k
E(Xn+1 ) = (1 − p)E(Xn+1 | ξn = 0) + p E(Xn+1 | ξn = 1)
utilisée dans la correction de la question a) une réécriture de la relation
E(Xn+1 ) = E[E(Xn+1 | ξn )] .

Questions.
1. Expliquer pourquoi (Xn )n∈N représente la position d’une particule qui se
déplace sur [0, 1] en choisissant à chaque pas de temps une nouvelle position
uniformément parmi les points situés à sa droite (avec probabilité p) ou parmi les
points situés à sa gauche (avec probabilité 1 − p).
Indication : on pourra écrire Xn+1 = (1 − ξn )Un Xn + ξn (Un Xn + (1 − Un ) · 1) pour
tout n > 0.
2. Montrer que l’intégrale
Z 1
B(α, β) := tα−1 (1 − t)β−1 dt
0

est bien finie pour tous les complexes α, β ∈ C tels que Re(α) > 0 et Re(β) > 0.
3. Détailler la récurrence menant à l’encadrement (2) dans la question a).
4. Traiter la question a) pour des suites à valeurs dans C en supposant seulement
que a ∈ C vérifie |a| < 1.
5. Détailler les calculs préliminaires donnant l’intuition de la relation (4), ainsi
que la démonstration par récurrence de cette relation.
Indication : dans la démonstration par récurrence, on pourra faire apparaître une
somme télescopique en écrivant pi comme 1 + pi − 1.
6. Détailler l’utilisation du théorème de Fubini et du théorème de convergence
dominée dans la réponse à la question c) par le théorème de Lévy suggérée en
commentaire.
7. Démontrer la relation (7).
8. Montrer que
Z 1 
φn+1 (t) = p + (1 − p)eit(1−u) φn (ut)du
0

pour tout n > 0 et tout t ∈ R.


9. Calculer φ1 .
10. Comment pourrait-on définir la notion d’irréductibilité et de récurrence pour
une chaîne de Markov à valeurs dans [0, 1] ?
11. La suite (Xn )n∈N converge-t-elle en probabilité ?

593
97. Loi forte des grands nombres

Développement 97 (Loi forte des grands nombres FF)

a) Soit (Yn )n∈N∗ une suite de variables aléatoires indépendantes intégrables


de même loi et d’espérance m > 0. Montrer que
n
1X
lim inf Yk > 0
n→+∞ n k=1

presque sûrement.
b) Soit (Xn )n∈N∗ une suite de variables aléatoires indépendantes de même loi
et d’espérance m ∈ R. Montrer que
n
1X p.s.
Xk −−−−−→ m.
n k=1 n→+∞

Leçons concernées : 261, 262, 266

Ce développement présente une preuve succincte et élémentaire de la loi forte des


grands nombres. Évitant le recours classique à des inégalités impliquant la variance
de versions tronquées des variables Xn , il utilise de façon astucieuse l’identité en
loi entre les suites (Yn )n∈N∗ et (Yn )n>2 et le théorème de convergence dominée.
Pour cette raison, il trouve parfaitement sa place dans les leçons associées à ces
notions (260, 261, 262 et 266)
L’approche présentée ici est inspirée d’un polycopié de Bernard Delyon sur les
systèmes dynamiques. Elle a été reprise dans [DMPS18] (théorème 5.1.8) pour
démontrer le théorème ergodique de Birkhoff pour un système dynamique non
nécessairement ergodique.

Correction.
n n+1
Sn0
X X
a) Pour tout n ∈ N∗ , on note Sn = Yk et = Yk puis on définit
k=1 k=2

Ln = min(S1 , . . . , Sn ), L0n = min(S10 , . . . , Sn0 ),

L∞ = inf{Sn , n > 1}, L0∞ = inf{Sn0 , n > 1},

A = (L∞ = −∞) et A0 = (L0∞ = −∞).

On va montrer que P(A) = 0, ce qui permettra de conclure que (Sn )n∈N∗ est
minorée presque sûrement et d’obtenir la conclusion attendue.
Remarquons d’ores et déjà que 1A0 = 1A presque sûrement. Par ailleurs, pour
tout n ∈ N∗ , les variables Ln et L0n sont intégrables puisqu’elles sont majorées
respectivement par nk=1 |Yk | et n+1k=2 |Yk |.
P P

594
Probabilités et statistiques

Soit n > 2. On a alors

Ln = Y1 + min(S1 − Y1 , . . . , Sn − Y1 )
= Y1 + min(0, S20 , . . . , Sn−1
0
)
= Y1 + min(0, L0n−1 )
> Y1 + min(0, L0n ),

donc Y1 6 Ln −min(0, L0n ) d’où, en multipliant par 1A0 et en passant à l’espérance :

E (Y1 1A0 ) 6 E(1A0 Ln ) − E 1A0 min(0, L0n ) .



(1)

Mais A0 appartient à la tribu engendrée par les Yk pour k > 2 donc 1A0 est
indépendant de Y1 , si bien que E (Y1 1A0 ) = E(Y1 )E(1A0 ) = mE(1A0 ) = mP(A).
Par ailleurs, les suites (Yn )n>2 et (Yn )n∈N∗ ayant même loi, on a

E(1A0 min(0, L0n )) = E(1A min(0, Ln ))

et donc

E(1A0 Ln ) − E 1A0 min(0, L0n ) = E(1A Ln ) − E (1A min(0, Ln ))




= E (1A max(0, Ln )) .

L’inégalité (1) devient alors :

mP(A) 6 E (1A max(0, Ln )) . (2)

Mais lim 1A max(0, Ln ) = 1A max(0, L∞ ) = 0 presque sûrement et


n→+∞

|1A max(0, Ln )| 6 max(0, Ln ) 6 max(0, L2 ) 6 |L2 |

quel que soit n > 2 puisque la suite (Lk )k∈N∗ est décroissante. Le théorème de
convergence dominée donne donc, par passage à la limite dans (2), mP(A) 6 0,
puis P(A) = 0, ce qu’il fallait démontrer.
b) Soit p ∈ N∗ . Posons
n n
!
1 1X 1X 1
Bp = m − 6 lim inf Xk 6 lim sup Xk 6 m + .
p n→+∞ n
k=1 n→+∞ n k=1 p

On va montrer que P(Bp ) = 1. En appliquant le résultat de la question précédente


à la suite (Yn )n∈N∗ définie par Yn = Xn − m + p1 pour tout n ∈ N∗ , on voit que
n
1X 1
lim inf Xk > m −
n→+∞ n k=1 p

presque sûrement, et en l’appliquant à (Yn0 )n∈N∗ définie par Yn0 = −Xn + m + 1


p
pour tout n ∈ N∗ on obtient
n
!
1X 1
lim inf − Xk > −m − ,
n→+∞ n k=1 p

595
97. Loi forte des grands nombres

soit
n
1X 1
lim sup Xk 6 m +
n→+∞ n k=1
p

presque sûrement, si bien que l’événement Bp est réalisé avec probabilité 1.


Il en va donc de même pour l’intersection dénombrable
n
!
\ 1X
Bp = lim Xk = m ,
n→+∞ n
p∈N∗ k=1

ce qui clôt la preuve.

Commentaires.
© L’hypothèse d’indépendance et d’identique distribution des variables Xn n’est
en rien minimale ; il existe de nombreuses versions plus fortes encore de la loi forte
des grands nombres, relâchant par exemple la contrainte d’équidistribution.
© Rappelons les grandes étapes de la démonstration traditionnelle de la loi des
grands nombres par Kolmogorov. On se ramène tout d’abord au cas où les Xn
sont centrées, puis l’on pose Xn0 = Xn 1|Xn |6n pour tout n ∈ N∗ . Grâce au lemme
de Borel-Cantelli, on montre ensuite que presque sûrement Xn0 6= Xn seulement
pour un nombre fini (aléatoire) de n, et qu’il suffit alors d’établir que
n
1X
X 0 −−−−−→ 0
n k=1 k n→+∞

presque sûrement. On centre alors les Xn0 en posant Zn = Xn0 − E(Xn0 ) et on


montre que l’on peut conclure dès lors que
n
1X
Zk −−−−−→ 0. (3)
n k=1 n→+∞

On utilise ensuite le fait que la série de terme général V(Zk /k) converge et on
utilise l’inégalité de Kolmogorov 35
 
( n ) ! P Zk
X Zk k>1 V k
P sup ,n > 1 >x 6
k=1
k x2

et une nouvelle application du lemme de Borel-Cantelli pour voir que la série de


terme général Zk /k est presque sûrement convergente, d’où, d’après le lemme de
Kronecker, la relation presque sûre (3).
On remarquera donc la considérable économie de moyens réalisée dans la démons-
tration présentée en développement par rapport à celle de Kolmogorov.
35. Voir les questions ci-après.

596
Probabilités et statistiques

© Les théorèmes de convergence des martingales (option A) permettent de démon-


trer une version améliorée de la loi forte des grands nombres, où la convergence
donnée dans l’énoncé est à la fois réalisée presque sûrement et dans L1 . On renvoie
pour cela au chapitre 27 de [JP03].
© On peut aussi obtenir la convergence L1 de la moyenne empirique des Xk vers m
à l’aide d’arguments de densité élémentaires (voir question 7 ci-après).

Questions.
1. Que signifie rigoureusement le fait que les suites (Yn )n∈N∗ et (Yn )n>2 ont la
même loi ?
2. Construire une suite (Xn )n∈N∗ de variables aléatoires non indépendantes, iden-
tiquement distribuées et de même espérance m ∈ R, ne satisfaisant pas la loi des
grands nombres.
3. Construire une suite (Xn )n∈N∗ de variables aléatoires indépendantes de même
espérance m ∈ R mais non identiquement distribuées ne satisfaisant pas la loi des
grands nombres.
4. Montrer que si (Xn )n∈N∗ est une suite de variables aléatoires indépendantes de
même loi telle que E(|X1 |) = +∞, alors
n
1 X
lim sup Xk = +∞
n→+∞ n k=1

presque sûrement.
Indication : on remarquera que si E(|X1 |) = +∞ alors E (|X1 |/A) = +∞ pour
tout A > 0, puis on montrera que
X X
P (|Xn | > An) = P (|X1 | > An) = +∞
n>1 n>1

et on utilisera le lemme de Borel-Cantelli.


5. Démontrer le lemme de Kronecker évoqué en commentaire : si (un )n∈N∗ est le
terme général d’une série convergente d’un espace vectoriel normé et si (bn )n∈N∗
est une suite positive croissante divergeant vers +∞, alors
n
1 X
lim bk uk = 0.
n→+∞ bn
k=1

6. Démontrer l’inégalité de Kolmogorov évoquée en commentaire : si (Yn )n∈N∗ est


une suite de variables indépendantes et d’espérance nulle et si Wn = Y1 + . . . + Yn
pour tout n ∈ N∗ , alors pour tout x > 0 on a
P
k>1 V(Yk )
P (sup{|Wn |, n > 1} > x) 6 .
x2
Indication : on pourra poser τ = inf{n ∈ N∗ : |Wn | > x}, montrer que 1τ =k Wk et
Wn − Wk sont indépendantes lorsque 1 6 k 6 n et minorer V(Wn ) = E(Wn2 ) par
l’espérance E(1τ <+∞ Wn2 ), que l’on minorera lui-même par x2 P(τ 6 n) avant de
faire tendre n vers +∞.

597
97. Loi forte des grands nombres

7. On souhaite établir la convergence suivante :


n
" #
1X
lim E Xk − m = 0. (4)
n→+∞ n k=1

(a) Montrer que (4) est vraie si les Xk sont bornées.


(b) Si ε > 0, montrer qu’il existe une variable aléatoire X10 bornée telle que

E |X1 − X10 | 6 ε.


(c) Si (Xk0 )k∈N∗ est une suite de variables indépendantes et identiquement


distribuées d’espérance m0 ∈ R telles que les Xk − Xk0 soient de même loi, montrer
n n
! !
1X 1X
E Xk − m 6 E(|X1 − X10 |) + E X 0 − m0 + |m − m0 |.
n k=1 n k=1 k

(d) Conclure.

598
Probabilités et statistiques

Développement 98 (Théorème de Pólya — version dénombrement FF)

Soit d ∈ N∗ . On note (e1 , . . . , ed ) la base canonique de Rd .


On considère la marche aléatoire simple sur Zd , modélisée par une suite de
variables aléatoires (Xn )n∈N vérifiant
n
∀n ∈ N∗ , Xn =
X
X0 = 0 et ξk ,
k=1

où les
 k
ξ sont des variables aléatoires indépendantes et de même loi uniforme
sur − e1 , e1 , . . . , −ed , ed .
Le but de ce développement est d’établir le théorème de Pólya qui affirme que
la chaîne de Markov (Xn )n∈N est récurrente si et seulement si d 6 2.
a) Montrer que si la marche aléatoire simple sur Zd est récurrente, alors la
0
marche aléatoire sur Zd l’est pour tout d0 6 d.
b) Montrer que (Xn )n∈N est récurrente si et seulement si la série de terme
général P(Xn = 0) diverge.
c) Conclure.

Leçons concernées : 190, 230, 241, 264, 266

Le théorème présenté dans ce développement est un résultat classique de la théorie


des processus stochastiques. Il repose sur des résultats relatifs aux chaînes de
Markov qui trouvent naturellement leur place dans les leçons sur la loi des variables
aléatoires discrètes (261, 264) et sur la notion d’indépendance (266). La preuve
repose sur des arguments de dénombrement permettant d’étudier la nature de la
série de terme général P(Xn = 0) dans les cas d = 2 et d = 3, ce qui illustre les
leçons 190 et 230.

Correction.
a) Notons R l’événement correspondant au retour de la marche aléatoire en 0 en
temps fini, c’est-à-dire [
R := (Xn = 0).
n∈N∗

Rappelons que par définition, la chaîne de Markov irréductible (Xn )n∈N est
transiente lorsque P(R) < 1 et récurrente sinon.
0
Fixons d0 ∈ J1, dK. On note κ la projection de Rd sur Rd définie par
0
κ: Rd −→ Rd
(x1 , . . . , xd ) 7−→ (x1 , . . . , xd0 )

et on considère la suite de temps aléatoires (τk )k∈N définie par


 
τ0 = 0 et ∀n ∈ N, τn+1 = inf k > τn : κ(Xk ) 6= κ (Xτn ) .

599
98. Théorème de Pólya — version dénombrement

La suite (τn )n∈N est la suite des rangs auxquels l’une des d0 premières coordonnées
du vecteur aléatoire Xk change. On pose alors
∀n ∈ N, Xn0 := Xτ (n) .
La suite (Xn0 )n∈N ainsi construite, obtenue en tronquant les d − d0 dernières
coordonnées des termes de la suite (Xn )n∈N et en éliminant les termes successifs
0
qui se répètent, modélise alors la marche aléatoire simple sur Zd . Or
R0 := (Xn0 = 0) =
[ [ [
(Xτ (n) = 0) ⊃ (Xn = 0) = R
n∈N∗ n∈N∗ n∈N∗
0
d’où P(R0 ) > P(R), si bien que (Xn0 )n∈N est récurrente (sur Zd ) dès que P(R) = 1,
c’est-à-dire dès que (Xn )n∈N est récurrente (sur Zd ), ce qu’il fallait démontrer.
b) On sait que le nombre de retours en 0 de (Xn )n∈N , défini par
+∞
X
N0 := 1Xk =0 ,
k=1

suit une loi géométrique de paramètre 1 − P(R) si (Xn )n∈N est transiente et vaut
presque sûrement +∞ sinon. Ainsi, (Xn )n∈N est transiente si et seulement si N0
admet une espérance finie. En écrivant
+∞ +∞ +∞
!
X X X
E(N0 ) = E 1Xk =0 = E (1Xk =0 ) = P(Xk = 0)
k=1 k=1 k=1

grâce au théorème de Fubini-Tonelli, on trouve alors le résultat attendu.


c) D’après la question a), il suffit de prouver que (Xn )n∈N est récurrente dans le
cas d = 2 et transiente dans le cas d = 3.
Cas de la dimension 2.
Supposons tout d’abord que d = 2 et établissons que la série de terme général
P(Xn = 0) diverge, ce qui permettra de conclure d’après la question b). On
remarque tout d’abord que presque sûrement, kXn k1 a la même parité que n pour
tout n ∈ N, si bien que P(Xn = 0) = 0 si n est impair.
Intéressons-nous à présent au cas où n = 2p avec p ∈ N. La marche retourne
à l’origine en 2p étapes si et seulement si elle effectue dans le plan durant ces
n étapes k mouvements vers la droite, k mouvements vers la gauche, p − k
mouvements vers le haut et p − k mouvements vers le bas pour un certain
entier k ∈ J0, pK, d’où
p ! ! !
X 2p 2p − k 2p − 2k 1
P(X2p = 0) =
k=0
k k p − k 42p
p
X (2p)! 1
= 2p
k=0
k!k!(p − k)!(p − k)! 4
! p ! !
2p 1 X p p
= .
p 42p k=0 k p−k

600
Probabilités et statistiques

p ! ! !
X p p 2p
La formule de Vandermonde = donne alors
k=0
k p−k p
!2
2p 1
P(X2p = 0) = .
p 42p

On utilise enfin la formule de Stirling

1
2πp e−p p p
p
p! ∼ pour obtenir P(X2p = 0) ∼ ,
p→+∞ p→+∞ πp

d’où, par comparaison, la divergence de la série des P(Xn = 0) et la récurrence de


la marche aléatoire (Xn )n∈N .
Les Figures 2.40 et 2.41 présentent respectivement des trajectoires typiques des
marches aléatoires (Xn )n∈N en dimensions 1 et 2.

Figure 2.40 – Trajectoire de la marche aléatoire simple sur Z et illustration du


retour en 0 de la marche aléatoire en temps fini.

Cas de la dimension 3.
Supposons à présent que d = 3. Pour tout n ∈ N impair, on a P(Xn = 0) = 0
pour la même raison que précédemment. Par ailleurs, on remarque que le nombre
22p P(X2p = 0) de chemins de longueur 2p conduisant la marche aléatoire de 0 à 0,
que nous appellerons fermés, est une fonction croissante de p ∈ N puisqu’il est
possible de créer un chemin fermé de longueur 2(p + 1) à partir d’un chemin fermé
de longueur 2p en lui ajoutant deux mouvements qui se compensent. Ainsi, pour
tout p ∈ N∗ on a

P(X6p−4 = 0) 6 16 P(X6p = 0) et P(X6p−2 ) 6 4 P(X6p = 0).

601
98. Théorème de Pólya — version dénombrement

Il suffit donc d’établir la convergence de la série de terme général P(X6p = 0) pour


conclure que celle de terme général P(Xn = 0) converge et en déduire grâce à la
question b) que (Xn )n∈N est récurrente.

Figure 2.41 – Trajectoire de (Xn )n∈N (en haut) et de (kXn k1 )n∈N (en bas) dans
le cas d = 2 : la marche aléatoire retourne en 0 avec probabilité 1.

Fixons p ∈ N. En considérant le nombre de mouvements « vers le haut, le bas, la


gauche, la droite, l’avant et l’arrière » comme dans le cas d = 2, on trouve
! ! ! ! !
X 6p 6p − i 6p − 2i 6p − 2i − j 2k 1
P(X6p = 0) =
i, j, k∈J0,nK
i i j j k 66p
i+j+k=3p
1 X (6p)!
= . (1)
66p i, j, k∈J0,3pK
(i!j!k!)2
i+j+k=3p

Or on a i!j!k! > (p!)3 pour tous i, j, k ∈ J0, 3pK tels que i + j + k = 3p (voir

602
Probabilités et statistiques

les commentaires suivant ce développement), si bien que l’égalité (1) entraîne


l’inégalité
(6p)! X (3p)!
P(X6p = 0) 6 6p 3
. (2)
6 (3p)!(p!) i, j, k∈J0,3pK i!j!k!
i+j+k=3p
Or la formule du binôme permet d’écrire
3p 3p−i
X (3p)! X X (3p)!
=
i, j, k∈J0,3pK
i!j!k! i=0 j=0 i!j!(3p − i − j)!
i+j+k=3p
3p 3p−i
X 3p − i
!
X (3p)!
=
i=0
i!(3p − i)! j=0 j
3p !
X 3p 3p−i
= 2 = 33p ,
i=0
i
donc l’inégalité (2) devient
(6p)!33p
P(X6p = 0) 6 .
66p (3p)!(p!)3
Mais la formule de Stirling donne
(6p)!33p 1
∼ ,
66p (3p)!(p!)3
p
p→+∞ 4π 3 p3
donc la série de terme général P(X6p = 0) converge par comparaison, d’où le
résultat attendu.
La Figure 2.42 représente une trajectoire typique de (kXn k1 )n∈N lorsque d = 3.

Figure 2.42 – Trajectoire de (kXn k1 )n∈N pour d = 3 : la marche diverge vers


l’infini.

603
98. Théorème de Pólya — version dénombrement

Commentaires.
© La marche aléatoire simple sur Zd est parfois appelée « marche de l’homme
ivre ». Le théorème de Pólya stipule que l’homme ivre décrit par le processus
parvient avec probabilité 1 à rentrer chez lui (bien qu’il ne dise pas quand !), sauf
s’il effectue sa marche dans l’espace ou en dimension supérieure...
© L’inégalité i!j!k! > (p!)3 pour tous i, j, k ∈ J0, 3pK vérifiant i + j + k = 3p, qui
peut sans mal être admise pour ne pas allonger outre mesure la présentation du
développement, se démontre comme suit.
Posons S = {(i, j, k) ∈ J0, pK3 : i + j + k = 3p} et montrons que le minimum de la
quantité i!j!k! pour (i, j, k) ∈ S est atteint pour le triplet (p, p, p). Soit (i, j, k) ∈ S
minimisant i!j!k!. Si i < k − 1, alors i < 3p et k > 1 donc (i + 1, j, k − 1) ∈ S, or

(i + 1)!j!(k − 1)! i+1


= < 1,
i!j!k! k

contrairement à l’hypothèse. Ainsi, on a i > k − 1, et par symétrie k > i − 1, d’où


|k − i| 6 1. On montre par le même raisonnement que |k − j| 6 1 et |j − i| 6 1.
Comme i, j et k sont entiers, on en déduit que deux d’entre eux sont égaux, disons
i = j. Si on a de plus k = i ± 1, alors 3p = i + j + k = 3i ± 1 ≡ ±1 mod 3, ce qui
est impossible, si bien que k = i. On a donc i = j = k, et ces trois entiers sont
égaux à p puisque i + j + k = 3p. On en déduit bien la minoration attendue.
© On se reportera au Développement 99 pour une preuve du théorème de Pólya
par des moyens plus analytiques.

Questions.
1. Démontrer la formule de Vandermonde, qui affirme que pour tous m, n ∈ N et
tout r ∈ J0, m + nK on a
r
! ! !
m+n X m n
= .
r k=0
k r−k

2. Établir directement que la série de terme général P(Xn = 0) diverge dans le


cas où d = 1.
3. Détailler l’argument permettant de réduire le problème de convergence de la
série des P(Xn = 0) à celui de la convergence de la série des P(X6p = 0) dans le
cas d = 3.
4. Détailler l’utilisation de la formule de Stirling dans le cas d = 3.
5. Donner la matrice de transition de la chaîne de Markov (Xn )n∈N dans le cas
unidimensionnel (d = 1).
6. Vérifier que la suite (Xn0 )n∈N introduite dans la question a) modélise bien
0
la marche aléatoire simple sur Zd , c’est-à-dire que les variables aléatoires Xn0

604
Probabilités et statistiques

0
sont toutes à valeurs dans Zd , que l’on a X00 = 0 et que les variables aléatoires
0
Xn+1 − Xn0 (pour n ∈ N) sont indépendantes et de même loi uniforme sur
0
{−e01 , e01 , . . . , −e0d0 , e0d0 }, où (e01 , . . . , e0d0 ) représente la base canonique de Rd .
Indication : on utilisera la propriété de Markov forte et on considèrera les trajec-
toires de (Xn )n∈N possibles entre les temps τn successifs.
7. Démontrer la formule du multinôme, qui stipule que si x1 , . . . , xn ∈ R, alors
N!
xi11 · · · xinn .
X
(x1 + · · · + xn )N =
i
∈J0,N K 1
i1 , ··· , in
! · · · in !
i1 +···+in =N

8. Considérons le cas d = 2. Vérifier que les suites des projections (he1 , Xn i)n∈N
et (he2 , Xn i)n∈N sur Z ne sont pas des marches aléatoires simples indépendantes,
mais que (he1 + e2 , Xn i)n∈N et (he1 − e2 , Xn i)n∈N le sont. En déduire que pour
tout entier n ∈ N on a P (Xn = 0) = P (Yn = 0)2 , où (Yn )n∈N modélise une marche
aléatoire simple sur Z.
9. Montrer que si l’on change la loi des ξk de façon à ce qu’elles soient toujours
indépendantes, identiquement distribuées et à valeurs dans {−e1 , e1 , . . . , −ed , ed }
mais d’espérance non nulle, alors on a
 
P kXn k −−−−−→ +∞ = 1.
n→+∞

10. Montrer que si d > 3, alors on a kXn k1 −→ +∞ presque sûrement.


n→+∞
11. La suite de variables aléatoires (kXn k1 )n∈N est-elle une chaîne de Markov ?
12. Montrer que si d 6 2, la marche aléatoire est récurrente nulle, au sens où le
temps de retour de la chaîne (Xn )n∈N en 0 est d’espérance infinie.
Indication : on pourra utiliser le fait que la récurrence nulle pour une chaîne de
Markov irréductible récurrente équivaut à l’existence d’une mesure invariante de
masse totale infinie pour cette chaîne.

605
99. Théorème de Pólya — version analytique

Développement 99 (Théorème de Pólya — version analytique FF)

On reprend les notations du Développement 98.


Le but de ce développement est d’établir le théorème de Pólya qui affirme que
la chaîne de Markov (Xn )n∈N est récurrente si et seulement si d 6 2.
On considère la fonction génératrice ϕ de la variable aléatoire ξ1 , définie par

ϕ : Rd −→ C  
x 7−→ E e2iπhx, ξ1 i .

Pour tout n ∈ N, on note ϕn la fonction génératrice de Xn , donnée par

ϕn : Rd −→ C  
x 7−→ E e2iπhx, Xn i .

a) Montrer que (Xn )n∈N est récurrente si et seulement si la série de terme


général P(Xn = 0) diverge.
b) Pour tout n ∈ N, donner l’expression de ϕn en fonction de ϕ et de n et
montrer que Z
ϕn (x)dx = P(Xn = 0).
[0,1]d

1
c) On pose à présent 1 := (1, . . . , 1) ∈ Rd . Montrer que la fonction est
1−ϕ
bien définie et continue sur [0, 1]d \ {0, 1}, puis que
+∞
dx
X Z
P(Xn = 0) = ∈ R ∪ {+∞}.
n=0 [0,1]d 1 − ϕ(x)

d) Conclure.

Leçons concernées : 215, 235, 236, 241, 261, 264, 266

Ce développement présente une démonstration alternative du théorème de Pólya


établi dans le Développement 98. La preuve analytique donnée ici est à privilégier
dans les leçons traitant du calcul d’intégrales simples et multiples, des difféo-
morphismes et de la convergence des suites et séries de fonctions. On utilise
ici encore des résultats sur les variables aléatoires discrètes (261, 264) et sur la
notion d’indépendance de variables aléatoires (266). La preuve repose cette fois
sur les fonctions caractéristiques des Xn et utilise des interversions de sommes et
d’intégrales pour ramener le problème à l’étude de la convergence d’une intégrale,
finalement menée à bien par un passage en coordonnées polaires en dimension d.
Les outils mobilisés par cette démonstration en font un choix de développement
pertinent pour les leçons 215, 235, 236 et 241.

606
Probabilités et statistiques

Correction.
a) Notons R l’événement correspondant au retour de la marche aléatoire en 0 en
temps fini, c’est-à-dire [
R := (Xn = 0).
n∈N∗

Rappelons que par définition, la chaîne de Markov irréductible (Xn )n∈N est
transiente lorsque P(R) < 1 et récurrente sinon.
On sait que le nombre de retours en 0 de la marche aléatoire (Xn )n∈N , défini par
+∞
X
N0 := 1Xk =0 ,
k=1

suit une loi géométrique de paramètre 1 − P(R) si (Xn )n∈N est transiente et vaut
presque sûrement +∞ sinon. Ainsi, (Xn )n∈N est transiente si et seulement si N0
admet une espérance finie. En écrivant
+∞ +∞ +∞
!
X X X
E(N0 ) = E 1Xk =0 = E (1Xk =0 ) = P(Xk = 0)
k=1 k=1 k=1

grâce au théorème de Fubini-Tonelli, on trouve alors le résultat attendu.


b) Soit n ∈ N. Les variables aléatoires ξk étant indépendantes et de même loi, on
peut écrire
 Pn 
ξ i
∀x ∈ Rd , ϕn (x) = E e2iπhx, k=1 k

n
!
2iπhx, ξk i
Y
=E e
k=1
n  
E e2iπhx, ξk i = ϕ(x)n ,
Y
=
k=1

d’où ϕn = ϕn .
Par définition de l’espérance et par linéarité de l’intégration, on a
Z Z  
ϕn (x)dx = E e2iπhx, Xn i dx
[0,1]d [0,1]d
Z X
= e2iπhx,ki P(Xn = k)dx
[0,1]d
k∈Zd
X Z
= P(Xn = k) e2iπhx,ki dx.
[0,1]d
k∈Zd

Or, pour tout k = (k1 , . . . , kd ) ∈ Zd , on a


Z d Z 1
Y d
Y
e2iπhx, ki dx = e2iπxj kj dxj = 1{0} (kj ) = 1{0} (k)
[0,1]d j=1 0 j=1

607
99. Théorème de Pólya — version analytique

d’après le théorème de Fubini-Lebesgue, car les fonctions xj 7→ e2iπxj kj sont


bornées. On a donc
Z X
ϕn (x)dx = P(Xn = k)1{0} (k) = P(Xn = 0),
[0,1]d
k∈Zd

ce qu’il fallait démontrer.


c) Pour tout x = (x1 , . . . , xd ) ∈ [0, 1]d , on a
 
ϕ(x) = E e2iπhx, ξ1 i
d 
1 X 
= e2iπhx, −ek i + e2iπhx, ek i
2d k=1
d
1X
= cos(2πxk ). (1)
d k=1

Cette équation et l’inégalité triangulaire assurent que |ϕ(x)| 6 1, et que ϕ(x) = 1


si et seulement si cos(2πxk ) = 1 pour tout k ∈ J1, dK, c’est-à-dire si x = 0 ou
1
si x = 1. Ainsi, la fonction 1−ϕ est bien définie sur [0, 1]d \ {0, 1}, et elle y est
continue puisque ϕ l’est.
Pour tout ε ∈ [0, 1[ on a |εϕ| 6 ε < 1, donc la série des εn ϕn converge normalement
sur [0, 1]d et on peut écrire
+∞
dx
Z Z X
= (εϕ)n (x)dx
[0,1]d 1 − εϕ(x) [0,1]d n=0
+∞
XZ
= εn ϕn (x)dx
d
n=0 [0,1]
+∞
X
n
= ε P(Xn = 0)
n=0

d’après la question b). On a donc


+∞ +∞
dx
X X Z
P(Xn = 0) = lim εn P(Xn = 0) = lim (2)
n=0
ε%1
n=0
ε%1 [0,1]d 1 − εϕ(x)

par le théorème de convergence monotone.


Posons à présent P + := [0, 1]d ∩ ϕ−1 (R∗+ ) et P − := [0, 1]d ∩ ϕ−1 (R− ). Par une
nouvelle application du théorème de convergence monotone, on trouve l’égalité
dans R+ ∪ {+∞} suivante :
dx dx
Z Z
= lim . (3)
P+ 1 − ϕ(x) ε%1 P+ 1 − εϕ(x)
On obtient de la même façon
dx dx
Z Z
= lim . (4)
P− 1 − ϕ(x) ε%1 P− 1 − εϕ(x)

608
Probabilités et statistiques

R dx dx
R
Or toutes les intégrales P − 1−εϕ(x) (pour ε ∈ [0, 1[) ainsi que l’intégrale P − 1−ϕ(x)
1
sont finies puisque 1−ϕ est bornée par 1 sur l’ensemble P − qui est de mesure finie.
On peut donc sommer les égalités (3) et (4) pour obtenir la relation suivante,
cette fois dans R ∪ {+∞} :

dx dx dx
Z Z Z
= +
[0,1]d 1 − ϕ(x) P + 1 − ϕ(x) P − 1 − ϕ(x)
dx dx
Z Z
= lim + lim
ε%1 P + 1 − εϕ(x) ε%1 P − 1 − εϕ(x)
dx dx
Z Z 
= lim +
ε%1 P + 1 − εϕ(x) P − 1 − εϕ(x)
dx
Z
= lim ,
ε%1 [0,1]d 1 − εϕ(x)

d’où, par (2) :


+∞
dx
X Z
εn P(Xn = 0) = ,
n=0 [0,1]d 1 − ϕ(x)
ce qui est exactement le résultat attendu.
d) L’égalité (1) et développement limité de cos à l’ordre 2 en 0 permettent d’écrire,
lorsque x → 0 :
d
1X
1 − ϕ(x) = (1 − cos(2πxk ))
d k=1
d
!
1X (2πxk )2  
= + o x2k
d k=1 2
2π 2  
= kxk22 + o(kxk22 )
d
2π 2
∼ kxk22 .
d
Par ailleurs, l’équation (1) donne ϕ(1 − x) = ϕ(x) pour tout x ∈ Rd , donc
l’équivalent précédent donne, lorsque x → 1 (et donc 1 − x → 0) :

1 − ϕ(x) = 1 − ϕ(1 − x)
2π 2
∼ k1 − xk22 .
d
On en tire les équivalents
1 d 1 d
∼ et ∼ .
1 − ϕ(x) x→0 2π kxk22
2 1 − ϕ(x) x→1 2π k1 − xk22
2

609
99. Théorème de Pólya — version analytique

En notant B(0, 1) et B(1, 1) les boules ouvertes de centres respectifs 0 et 1 et de


rayon 1 pour la norme euclidienne standard sur Rd , on voit donc que l’intégrale
1
de 1−ϕ sur [0, 1]d est finie si et seulement si

dx dx
Z Z
et
B(0,1) kxk22 B(1,1) k1 − xk22

sont finies. En effectuant le changement de variable y = 1 − x dans la deuxième


intégrale, on trouve que ces deux intégrales sont simultanément finies ou simulta-
nément infinies, si bien que la question se réduit à montrer que

dx
Z
< +∞ si et seulement si d ∈ {1, 2}.
B(0,1) kxk22

Pour évaluer cette intégrale, on va opérer un passage en coordonnées polaires


généralisées. On introduit pour cela le difféomorphisme

d−1
ψ : ]0, 1[ × − π2 , π2

−→ B(0, 1)
   
ρ ρ cos(θ1 )

 θ1


 ρ sin(θ1 ) cos(θ2 )

 ..

7−→
 .. 
,
. .
  
   
θd−2  ρ sin(θ1 ) · · · sin(θd−2 ) cos(θd−1 )
   

θd−1 ρ sin(θ1 ) · · · sin(θd−2 ) sin(θd−1 )

d−1
dont le déterminant jacobien Jψ (ρ, θ) au point (ρ, θ) ∈ ]0, 1[ × − π2 , π2

vérifie
l’identité
Jψ (ρ, θ) = ρd−1 Jψ (1, θ)

par multilinéarité du déterminant. La formule de changement de variable donne


alors

dx 1 d−1
Z Z
= ρ |Jψ (1, θ)| dρdθ
A kxk22 ]0,1[ ×] − π2 , π2
[
d−1
ρ2
Z Z
= ρd−3 dρ d−1
|Jψ (1, θ)| dθ (5)
]0,1[ ]− π2 , π2 [

par le théorème de Fubini-Tonelli.


Les mêmes arguments assurent que le volume vol(B(0, 1)) de B(0, 1) pour la

610
Probabilités et statistiques

mesure de Lebesgue sur Rd vérifie


Z
vol(B(0, 1)) = dx
B(0,1)
Z
= d−1
|Jψ (ρ, θ)| dρ dθ
]0,1[×]− π2 , π2 [
Z
= d−1
ρd−1 |Jψ (1, θ)| dρ dθ
]0,1[×] − π2 , π2
[
Z Z
= ρd−1 dρ d−1
|Jψ (1, θ)| dθ
]0,1[ ]− π2 , π2 [
1
Z
= |Jψ (1, θ)| dθ.
d ]− π2 , π2 [d−1
Comme B(0, 1) est de volume fini, on en déduit que θ 7→ Jψ (1, θ) est intégrable
d−1
sur − π2 , π2

. On tire ainsi de l’équation (5) que
dx
Z Z
< +∞ si et seulement si ρd−3 dρ < +∞,
B(0,1) kxk22 ]0,1[

c’est-à-dire que
dx
Z
< +∞ si et seulement si d ∈ {1, 2},
B(0,1) kxk22
d’où le résultat annoncé.
La question a) implique alors le théorème de Pólya.

Commentaires.
© On se reportera au Développement 98 ainsi qu’aux commentaires et aux ques-
tions qui le suivent pour une démonstration plus combinatoire et des informations
supplémentaires sur le théorème démontré ici.
© La méthode présentée ici permet le calcul explicite de la probabilité P(R) de
retour de la marche aléatoire simple en 0, puisque les questions a) et c) donnent
+∞
1 dx dx1 · · · dxd
X Z Z
−1= P(Xn = 0) = = Pd dx.
P(R) n=1 [0,1]d 1 − ϕ(x) [0,1]d d − k=1 cos(2πxk )
Glasser et Zucker ont montré en 1977 que dans le cas d = 3, cette probabilité vaut
−1 −1 −1 −1
32π 3 1 5 7 11
   
P(R) = 1 − √ Γ Γ Γ Γ ≈ 0, 3405373296.
6 24 24 24 24
Les expressions analytiques de P(R) ne sont pas connues en dimension supérieure,
mais les approximations numériques montrent sans surprise que P(R) est d’autant
plus faible que d est grand :
P(R) ≈ 0, 1932 si d = 4, P(R) ≈ 0, 1352 si d = 5,
P(R) ≈ 0, 1047 si d = 6, P(R) ≈ 0, 0858 si d = 7, etc.

611
99. Théorème de Pólya — version analytique

Questions.
1. Montrer que pour tout k ∈ Z on a
Z 1
e2iπxk dx = 1{0} (k).
0

2. Montrer que l’application ψ définie en commentaire est bien un difféomorphisme


et vérifier l’identité Jψ (ρ, θ) = ρd−1 Jψ (1, θ) satisfaite par son jacobien.
3. Montrer par récurrence sur d que pour tout r > 0, le volume vol(B(0, r)) de
la boule ouverte de centre 0 et de rayon r pour la norme euclidienne sur Rd est
donné par √
πn rn
vol(B(0, r)) = ,
Γ n2 + 1
où Γ est la fonction gamma d’Euler.
  √
Indication : on pourra utiliser l’égalité Γ 12 = π et l’identité faisant le lien
entre les fonctions gamma et bêta donnée à la page 499.

612
Probabilités et statistiques

Développement 100 (Un théorème de grandes déviations FF)

Soit (Xn )n∈N∗ une suite de variables aléatoires indépendantes de même loi de
Bernoulli de paramètre 12 . Pour tout n ∈ N∗ , on note
n
1X
Xn = Xk .
n k=1

a) Pour n ∈ N, étudier les variations de la suite finie (p!(n − p)!)p∈J0,nK .


1
b) Montrer que pour tous a, b ∈ R vérifiant 2 < a < b 6 1, on a
 
!
1  n 
ln  max  −
−−−−→ a ln (a) + (1 − a) ln (1 − a) .
n p∈J0,nK p n→+∞
p/n∈[a,b]

c) Montrer que si a, b ∈ R sont tels que 0 6 a < b 6 1, on a



0 
 si a 6 12 6 b,
1 h  i 
ln P X n ∈ [a, b] −−−−−→ −I(a) < 0 si 12 < a < b,
n n→+∞ 

−I(b) < 0 si a < b < 21 ,

où la fonction de taux I est définie par

I : ]0, 1[ −→ R
x 7−→ ln(2) + x ln (x) + (1 − x) ln (1 − x) .

Leçons concernées : 262, 264, 265, 266

Le résultat démontré ici est un théorème de grandes déviations, qui permet de


quantifier la probabilité pour que la moyenne empirique d’une suite de variables de
Bernoulli indépendantes de même paramètre 12 se trouve dans une certaine zone
de l’intervalle [0, 1], en particulier lorsque ladite zone ne contient pas 12 . Dans
ce dernier cas, on montre que la probabilité étudiée décroît exponentiellement, à
un taux que l’on parvient à évaluer. Ce développement affine la loi des grands
nombres et mobilise le théorème central limite tout en impliquant des calculs sur
des suites de variables de Bernoulli indépendantes, d’où son utilisation dans les
leçons 262, 264 et 266. Enfin, l’utilisation constante du logarithme dans les calculs
et dans la formulation même du résultat démontré peut justifier le placement du
développement dans la leçon 265.

613
100. Un théorème de grandes déviations

Correction.
a) Soit n ∈ N. Pour tout p ∈ J0, nK, on note up = p!(n − p)! > 0. On a alors :
up+1 p+1
∀p ∈ J0, n − 1K , =
up n−p
donc up+1 < up si et seulement si p < n−1
2 et up+1 > up si et seulement si p >
n−1
2 .
Ainsi, si n est pair on a
r n z rn z
∀p ∈ 0, − 1 , up > up+1 et ∀p ∈ , n , up < up+1 ,
2 2
et si n est impair on a u n−1 = u n+1 ainsi que
2 2
s { s {
n−1 n+1
∀p ∈ 0, − 1 , up > up+1 et ∀p ∈ , n , up < up+1 .
2 2
i i2
b) Soit (a, b) ∈ 1
2, 1 tel que a < b. Pour tout n ∈ N∗ on a
!
n n! n!
   
max ln = max ln = ln
p∈J0,nK p p∈J0,nK p!(n − p)! dane!(n − dane)!
p/n∈[a,b] p/n∈[a,b]

d’après la question précédente, puisque dane est la valeur de p ∈ J0, nK telle que
p 1
n ∈ [a, b] soit le plus proche de 2 . La formule de Stirling donne l’équivalent
√ 1
n! ∼ 2πnn+ 2 e−n ,
n→+∞

d’où
1
n! nn+ 2
∼ √ 1 1
dane!(n − dane)! n→+∞
2πdanedane+ 2 (n − dane)n−dane+ 2
dane+ 1  n−dane+ 1
1 n n

2 2
=√ . (1)
2πn dane n − dane
n! n 
Comme > n−1 = n pour tout n ∈ N∗ tel que a 6 n−1
n , on a
dane!(n − dane)!
n!
−−−−−→ +∞.
dane!(n − dane)! n→+∞
On peut donc composer (1) par la fonction ln pour obtenir
 
!
n  n! 1 1
 
ln  max  = ln ∼ − ln(2π) − ln(n)

p∈J0,nK p dane!(n − dane)! n→+∞ 2 2
p/n∈[a,b]
1 n 1 n
       
+ dane + ln + n − dane + ln ,
2 dane 2 n − dane
d’où, comme dxne ∼ xn pour tout x ∈ R∗ lorsque n → +∞ :
 
!
1  n 
ln  max  −
−−−−→ −a ln (a) − (1 − a) ln (1 − a) .
n p∈J0,nK p n→+∞
p/n∈[a,b]

614
Probabilités et statistiques

c) On traite successivement les trois cas distingués.


• Pour tout n ∈ N∗ et tous a, b tels que 12 < a < b 6 1, on a
!
 1
 X n
P X n ∈ [a, b] = n ,
2 p∈J0,nK
p
p/n∈[a,b]

et donc
! !
1 n   n+1 n
max 6 P X n ∈ [a, b] 6 max .
2n p∈J0,nK p 2n p∈J0,nK p
p/n∈[a,b] p/n∈[a,b]

Le résultat de la question précédente donne alors


1 h  i
ln P X n ∈ [a, b] −→ − ln(2) − a ln (a) − (1 − a) ln (1 − a) = −I(a).
n n→+∞

• Si a et b sont tels que 0 6 a < b < 12 , on obtient la conclusion recherchée en


appliquant le résultat ci-avant aux variables Xk0 = 1 − Xk et en remarquant
que 12 < 1 − b < 1 − a :
1 h  0 i
ln P X n ∈ [1 − b, 1 − a] −→ −I(1 − b).
n n→+∞

0
   
Mais pour tout n ∈ N∗ on a P X n ∈ [1 − b, 1 − a] = P X n ∈ [a, b] ainsi
que I(1 − b) = I(b), si bien que
1 h  i
ln P X n ∈ [a, b] −→ −I(b).
n n→+∞

• Enfin, si a < 12 < b, la loi des grands nombres montre que P(X n ∈ [a, b])
tend vers 1 lorsque n → +∞, et si a = 12 < b ou a < 12 = b, le théorème
central limite montre que cette probabilité tend vers 12 .
Dans les trois cas, on a donc
1 h  i
ln P X n ∈ [a, b] −−−−−→ 0,
n n→+∞

ce qui clôt la preuve.

Commentaires.
© Le résultat présenté ici est un cas particulier du théorème de Cramér-Chernoff
démontré dans le Développement 101. On se reportera aux commentaires suivant
ce dernier développement pour une formulation plus générale du théorème.
© On notera que la limite obtenue en b) ne dépend pas de la borne b. Une
explication de ce phénomène est que conditionnellement au fait que X n dépasse
la valeur a, X n se trouve avec haute probabilité à proximité immédiate de a. Ce
dernier point est abordé dans les questions ci-après.

615
100. Un théorème de grandes déviations

Questions.
1. Détailler l’utilisation du théorème central limite faite dans la question c).
2. Étudier les variations de la fonction I sur ]0, 1[ (voir la Figure 2.43) et en
déduire que pour tout intervalle [a, b] ⊂ ]0, 1[ avec a < b, on a
1 h  i
lim ln P X n ∈ [a, b] = − inf I(x).
n→+∞ n x∈[a,b]

ln(2)

0 1/2 1

Figure 2.43 – Courbe représentative de la fonction I.

3. Montrer que pour tous intervalles A et B disjoints et de longueur non nulle


inclus dans ]0, 1[, on a
1 h  i  
lim ln P X n ∈ A ∪ B = − min inf I(x), inf I(x)
n→+∞ n x∈A x∈B

et en déduire que pour tout ouvert non vide A de [0, 1], on a


1 h  i
limln P X n ∈ A = − inf I(x).
n→+∞ n x∈A
h h
4. Démontrer que pour tout ε ∈ 0, 12 , il existe un unique λ0 ∈ R vérifiant
n 
" !#
1 1

1
  
= ln E eλ0 (X1 − 2 ) − ελ0 < 0.
X
lim ln P Xk − > nε
n→+∞ n 2
k=1

Remarque : une version plus générale de ce résultat, appelé théorème de Cramér-


Chernoff, est établie dans le Développement 101 pour des variables aléatoires
centrées dont la transformée de Laplace est définie sur R.
5. Si 0 < ε < ε0 6 21 , montrer que
1 1 1
    
lim P X n ∈ + ε, 1 Xn ∈
/ − ε0 , + ε = 1.
n→+∞ 2 2 2
6. Si 0 < ε < ε0 6 1
2 et 0 < ε < ε00 6 21 , montrer que
1 1 1 1
    
lim P X n ∈ + ε, + ε00 Xn ∈
/ − ε0 , + ε = 1.
n→+∞ 2 2 2 2

616
Probabilités et statistiques

Développement 101 (Théorème de Cramér-Chernoff FFF)

On considère une suite de variables aléatoires (Xk )k∈N∗ non constantes, indé-
pendantes et de même loi µ sur (R, B(R)), d’espérance nulle et telle que eλX1
soit intégrable pour tout λ ∈ R. Pour tout n ∈ N∗ , on pose
n
1X
X n := Xk .
n k=1

On veut montrer le théorème de Cramér-Chernoff :

Pour tout ε > 0 tel que P(X1 > ε) > 0, il existe un unique λ0 ∈ R
tel que
1 h  i   
lim ln P X n > ε = ln E eλ0 X1 − ελ0 < 0.
n→+∞ n

Soit ε > 0 tel que P(X1 > ε) > 0.


  
a) Montrer qu’il existe un unique λ0 ∈ R minimisant ln E eλX1 − ελ.
En déduire que  
E X1 eλ0 X1

E (eλ0 X1 )
  
et que ln E eλ0 X1 − ελ0 < 0.
b) Montrer que pour tout n ∈ N∗ ,
  h     in
P X n > ε 6 exp ln E eλ0 X1 − ελ0 .

e sur (R, B(R)) par


c) On définit la mesure de probabilité µ

eλ0 x µ(dx)
µ
e(dx) = .
E (eλ0 X )

Calculer l’espérance d’une variable aléatoire de loi µ


e.
d) Montrer que
1 h  0 i  
lim inf ln P ε > X n > ε > E eλ0 X1 − ε0 λ0
n→+∞ n
pour tout ε0 > ε, puis conclure.

Leçons concernées : 219, 228, 229, 239, 253, 262, 266

L’objet de ce développement est d’établir un résultat fondamental en théorie des


grandes déviations, qui permet d’estimer la probabilité avec laquelle la moyenne

617
101. Théorème de Cramér-Chernoff

empirique X n d’un échantillon de variables aléatoires centrées prend des valeurs


éloignées de sa moyenne théorique (c’est-à-dire de son espérance) nulle. La loi
faible des grands nombres assure que cette probabilité tend vers 0 lorsque n tend
vers l’infini, mais on affine ici ce résultat sous l’hypothèse selon laquelle la loi
commune des variables admet une transformée de Laplace définie sur R. On
exploite dans ce développement le lien entre optimisation et convexité des fonctions
dérivables d’une variable réelle (leçons 219, 228, 229 et 253), mais aussi des
résultats classiques sur les variables aléatoires indépendantes (leçon 266) ainsi
que sur la dérivation d’espérances définies par des paramètres (leçon 239) et le
théorème central limite (leçon 262).

Correction.
a) Pour tout λ ∈ R, on pose
    
φ(λ) = E eλX1 et ψ(λ) = ln E eλX1 − ελ.
La fonction φ est bien définie sur R par hypothèse sur X1 , et la fonction ψ l’est
aussi puisque φ > 0.
Montrons que ψ est deux fois dérivable sur R. Fixons pour cela M > 0 ; la
majoration
X1 eλX1 6 e|X1 | eλX1 6 e|X1 | eM |X1 | = e(1+M )|X1 | 6 e−(1+M )X1 + e(1+M )X1 ,

valable pour tout λ ∈ [−M, M ], assure que l’espérance E(X1 eλX1 ) existe pour
tout λ ∈ [−M, M ] et, par le théorème de dérivation sous l’espérance, que φ est
dérivable sur ] − M, M [ et vérifie φ0 (λ) = E(X1 eλX1 ) pour tout λ ∈] − M, M [. On
obtient de même la majoration
X12 eλX1 6 e2|X1 | eλX1 6 e−(2+M )X1 + e(2+M )X1 ,

pour tout λ ∈ [−M, M ], qui permet de voir que φ0 est dérivable sur ] − M, M [ et
que φ00 (λ) = E(X12 eλX1 ) pour tout λ ∈] − M, M [. Ces identités sont bien entendu
valables sur R tout entier puisque M est quelconque.
La fonction ψ est donc deux fois dérivable et vérifie :

0 φ0 (λ) 00 φ(λ)φ00 (λ) − (φ0 (λ))2


∀λ ∈ R, ψ (λ) = − ε et ψ (λ) = .
φ(λ) φ(λ)2
Mais si λ ∈ R, l’inégalité de Cauchy-Schwarz appliquée aux variables eλX1 /2 ainsi
que X1 eλX1 /2 , qui sont non colinéaires puisque X1 n’est pas constante, donne
2       2
φ(λ)φ00 (λ) − φ0 (λ) = E eλX1 E X12 eλX1 − E X1 eλX1 > 0,

d’où ψ 00 (λ) > 0. La fonction ψ est donc strictement convexe. Elle admet donc un
minimum sur R, nécessairement unique, si et seulement si elle admet un point
critique, c’est-à-dire s’il existe λ0 ∈ R tel que ψ 0 (λ0 ) = 0, soit
 
E X1 eλ0 X1
= ε. (1)
E (eλ0 X1 )

618
Probabilités et statistiques

  
Or on remarque que ψ(λ) = ln E eλ(X1 −ε) pour tout λ ∈ R. Le lemme de
Fatou ainsi que les relations
p.s p.s
eλ(X1 −ε) −−−−→ (+∞) · 1X1 >ε et eλ(X1 −ε) −−−−→ (+∞) · 1X1 <ε
λ→+∞ λ→+∞

impliquent alors que ψ tend vers +∞ en −∞ et +∞, puisque P(X1 > ε) > 0 et
P(X1 < ε) > P(X1 6 0) > 0. Ainsi, ψ admet bien un minimum global sur R, d’où
l’existence (et l’unicité) du point λ0 recherché. Comme ψ(0) = ln(φ(0)) = 0 et
comme λ 6= 0 d’après (1), on a bien ψ(λ0 ) < 0.
b) Soit n ∈ N∗ . Comme les variables Xk sont indépendantes, on a
   Pn   Pn 
P X n > ε = P eλ0 k=1
Xk
> eλ0 nε 6 E eλ0 k=1
Xk
e−nελ0
h   in h     in
= E eλ0 X1 e−ελ0 = exp ln E eλ0 X1 − ελ0

d’après l’inégalité de Markov, ce qui est le résultat attendu.


c) Soit X
e une variable aléatoire de loi µ. On a :

eλ0 x
Z +∞ Z +∞

e(dx) = x µ(dx)
−∞ −∞ E(eλ0 X )
1 +∞ Z
= xeλ0 x µ(dx)
E(eλ0 X ) −∞
1 
λ0 X

= E Xe
E(eλ0 X )

d’après le théorème de transfert et par définition de λ0 , donc X


e est une variable
intégrable d’espérance ε.
d) Soit (Xe k )k∈N∗ une suite de variables aléatoires indépendantes de loi µ
e et soient
deux réels ε0 > ε > 0. Pour tout n ∈ N∗ , on a :
Z Z
P(ε0 > X n > ε) = · · · 1nε0 >Pn xk >nε µ(dx1 ) · · · µ(dxn )
k=1
h  in Z Z
−λ0 x1
= E eλ0 X1 · · · 1nε0 >Pn xk >nε e e(dx1 ) · · · e−λ0 xn µ
µ e(dxn )
k=1
h  in Z Z Pn
= E eλ0 X1 · · · e−λ0 k=1
xk
1nε0 >Pn e(dx1 ) · · · µ
xk >nε µ e(dxn )
k=1
h  in  Pn 
= E eλ0 X1 E e−λ0 X
1ε0 > 1 Pn
k=1
ek
n k=1
X
ek >ε
in  
0
h 
> E eλ0 X1 e−nε λ0 E 1ε0 > 1 Pn X
ek >ε
n k=1
n
!
h 
λ0 X1
in
−nε0 λ0 1X 0
= E e e P ε > X
ek > ε .
n k=1

619
101. Théorème de Cramér-Chernoff

Alors
1 h  0 i
ln P ε > X n > ε
n
n
" !#
   1 1X
> ln E e λX1 0
− ε λ0 + ln P ε0 > X
ek > ε ,
n n k=1

mais les variables X


e k sont indépendantes et de même loi µ
e d’espérance ε, donc

n
!
0 1X 1
P ε > X
ek > ε −−−−−→
n k=1 n→+∞ 2

d’après le théorème central limite, d’où


1 h  0 i   
lim inf ln P ε > X n > ε > ln E eλX1 − ε0 λ0
n→+∞ n

et donc
1 h  i   
lim inf ln P X n > ε > ln E eλX1 − ε0 λ0 .
n→+∞ n

Comme la relation est vraie pour tout ε0 > ε, on obtient alors


1 h  i   
lim inf ln P X n > ε > ln E eλX1 − ελ0 .
n→+∞ n

Mais la question b) donne

1 h  i   
lim sup ln P X n > ε 6 ln E eλX1 − ελ0 ,
n→+∞ n

d’où le théorème de Cramér-Chernoff.

Commentaires.

© Le théorème central limite prédit que les déviations de X n par rapport à sa


moyenne 0 sont, avec grande probabilité, de l’ordre de √1n . Le caractère non
borné de la loi normale centrée réduite n’exclut cependant pas la possibilité de
« grandes déviations » de l’ordre de 1, et le théorème de Cramér-Chernoff montre
que ces déviations ont effectivement lieu, avec une probabilité exponentiellement
décroissante en n.
© Le théorème de Cramér-Chernoff et ses succédanés possèdent de nombreuses
applications dans la théorie des processus stochastiques. Une branche de cette
théorie, développée par Freidlin et Wentzell, s’intéresse à des processus markoviens
obtenus en appliquant des perturbations browniennes d’ordre n1 à la solution d’une
équation différentielle. Les résultats obtenus par Freidlin et Wentzell permettent

620
Probabilités et statistiques

de prédire que le temps de sortie du voisinage d’un point attractif par le processus
est, avec grande probabilité, de l’ordre de e−V n pour un « coût de sortie » V > 0
calculé en fonction d’une quantité appelée quasi-potentiel, mais aussi que cette
sortie aura lieu, toujours avec grande probabilité, par un chemin « de moindre
résistance » minimisant le coût induit par le quasi-potentiel.
© Une relation du type limn→+∞ n1 ln(un ) = −α, où (un )n∈N∗ est une suite stricte-
ment positive et α > 0, est appelée équivalence logarithmique et est généralement
notée un ≈ e−nα . Elle est strictement moins forte que l’équivalence un ∼ e−nα .
Notons que la borne supérieure obtenue dans la question b) réalise cette dernière
équivalence.
© On pouvait démontrer la convexité de la fonction ψ sans calculer sa dérivée
seconde. Pour tous λ, λ0 ∈ R et a ∈]0, 1[, l’inégalité de Hölder appliquée à eaλX1
0
et e(1−a)λ X1 avec les exposants conjugués a−1 et (1 − a)−1 donne
 0
  a  0
1−a
φ(aλ+(1−a)λ0 ) = E eaλX1 e(1−a)λ X1 6 E eλX1 E eλ X1 = φ(λ)a φ(λ0 )1−a ,
d’où, après passage au logarithme, la convexité de ln ◦ φ, et donc de ψ.
© L’intérêt principal — et le coup de force mathématique — de ce développement
réside dans le changement de mesure opéré. En pondérant la mesure d’entrée µ par
une densité proportionnelle à eλ0 x pour un λ0 bien choisi, on obtient une mesure
µ
e dont l’espérance n’est plus nulle mais égale à la dérive constitutive des grandes
déviations que l’on cherche à étudier, ce qui permet de ramener le problème à
l’étude d’une marche aléatoire centrée et de conclure en invoquant le théorème
central limite.
© Le théorème de Cramér-Chernoff prend une forme plus générale pour des
variables supposées seulement intégrables (et non plus de transformée de Laplace
définie sur tout R). Il s’écrit alors :
n
" !#
1 X
∀A ∈ B(R), lim ln P Xk ∈ A = − inf I(x),
n→+∞ n x∈A
k=1

pour une certaine fonction I à valeurs dans [0, +∞], dite fonction de taux 36 . C’est
ce formalisme qui est retenu dans le Développement 100.

Questions.
1. Calculer λ0 dans le cas de variables de Rademacher, c’est-à-dire le cas où
µ = 12 (δ−1 + δ1 ).
  
2. Calculer λ0 et ln E eλ0 X1 − ελ0 dans le cas µ = N (0, 1).
3. Détailler l’argument utilisant le théorème central limite dans la réponse à la
question d).
4. Généraliser le théorème de Cramér-Chernoff au cas où les variables Xk ne sont
pas centrées.
36. Cette fonction est définie par I(x) = supξ∈R ξx − ln E(eξX1 , où E(eξX1 ) vaut +∞


lorsque eξX1 n’est pas intégrable.

621
101. Théorème de Cramér-Chernoff

5. Appliquer cette version « non centrée » du théorème de Cramér-Chernoff à des


variables de Bernoulli.
Remarque : on pourra se reporter au Développement 100 pour une démonstration
élémentaire du théorème de Cramér-Chernoff dans le cas de variables de Bernoulli
de paramètre 12 , et vérifier que la limite logarithmique donnée par cet exercice est
bien égale à ln(E(eλ0 X1 )) − ελ0 .
6. Soit p ∈ ]0, 1[ et soit ε > 0. On considère un n-échantillon X1 , . . . , Xn de
variables aléatoires i.i.d. de loi de Bernoulli de paramètre p, et on note
n
1X
Xn = Xk
n k=1

la moyenne empirique de
 ces variables aléatoires.
 Donner un équivalent logarith-
mique de la quantité P X n ∈
/ [p − ε, p + ε] lorsque n tend vers l’infini.
7. On modélise les temps de passage des bus à un arrêt de bus par un processus
de Poisson d’intensité 1. Donner un équivalent logarithmique lorsque n tend vers
l’infini de la probabilité pour que strictement moins de 2n bus soient passés à
l’arrêt avant le temps 2n.
8. La conclusion du théorème de Cramér-Chernoff est-elle vraie si ε > 0 est tel
que P(X1 > ε) = 0 mais P(X1 = ε) > 0 ?

622
Développements d’informatique
Algorithmique

Un algorithme est une description d’une méthode de résolution d’un problème qui
utilise uniquement des opérations élémentaires. On peut ainsi citer les algorithmes
d’addition et de soustraction d’entiers appris dès l’école primaire, qui correspondent
à des procédures décrites au IXe siècle par le mathématicien perse Al-Khwârismî
(dont le nom aurait inspiré le mot « algorithme »).
Bien que la formalisation précise de la définition d’algorithme fait appel à des
notions récentes (voir page 666), certains algorithmes étaient connus dès l’antiquité :
à Babylone dès le IIIe millénaire av. J.-C., en Grèce au IIIe siècle av. J.-C.
(comme l’atteste le célèbre algorithme d’Euclide — probablement connu bien avant
l’écriture du traité d’Euclide — ou un algorithme de calcul des décimales de π
fourni par Archimède), ou encore en Inde où la méthode chakravala permettait
de résoudre certaines équations de Pell-Fermat dès le VIe siècle. L’étude des
algorithmes a ensuite connu son essor avec le développement des machines à
calculer et des ordinateurs qui, bien qu’incapables de résoudre directement des
tâches complexes, excellent dans l’exécution de séquences d’instructions simples.
L’algorithmique est la branche de l’informatique consistant à analyser et conce-
voir des algorithmes. Dans cette discipline, on s’intéresse principalement à trois
caractéristiques d’un algorithme :
• sa terminaison : est-ce qu’il fournit toujours une réponse ?
• sa correction : est-ce qu’il a bien le comportement attendu ?
• sa complexité : de combien de temps et de mémoire a-t-il besoin ?
Autour de ces notions gravitent des questions majeures à la base de vastes domaines
de recherche. Par exemple, déterminer si un problème est décidable (c’est-à-dire
résolu par un algorithme qui termine toujours) est une question fondamentale
en calculabilité. La théorie de la complexité, quant à elle, est née de la volonté
de classifier les problèmes selon une échelle de difficulté définie à partir de la
complexité d’algorithmes qui les résolvent. On peut enfin citer le domaine de
la vérification de programmes, qui consiste à développer des outils (comme la
logique de Hoare, voir page 853) pour montrer la correction ou la terminaison
d’algorithmes (ou plus précisément de leur implémentation).
Dans ce chapitre, nous nous intéressons à des algorithmes manipulant des objets
simples, à savoir des structures linéaires (tableaux, listes) ou arborescentes (tas,
arbre de recherche). Les questions algorithmiques ne se limitent évidemment pas à
ces objets : d’autres algorithmes, manipulant des objets plus spécifiques (matrices,
graphes, langages. . .), seront développés dans les chapitres associés.
Algorithmique

Développement 102 (Autour du tri rapide FF)

On s’intéresse à la procédure de tri rapide d’un tableau T de taille n dont les


éléments sont deux à deux distincts. On commence par choisir un élément x
dans T , noté f (T ) et appelé « pivot ». On sépare alors T en deux tableaux T<x
et T>x contenant respectivement les éléments inférieurs et supérieurs à x, puis
on trie récursivement T<x et T>x .
a) Écrire l’algorithme du tri rapide.
b) En supposant que f (T ) se calcule en utilisant αn comparaisons où α > 0,
combien de comparaisons sont utilisées par le tri rapide dans le pire cas ?
c) On suppose que f est une fonction sur les tableaux, qui renvoie un élément
aléatoire f (T ) choisi uniformément dans T . Soit C(n) l’espérance du nombre
de comparaisons effectuées dans l’algorithme de tri rapide appliqué à un
tableau de taille n.
(i) Exprimer C(n) en fonctionde C(0),
 . . . , C(n−1), puis établir une relation
C(n)
de récurrence sur la suite n+1 .
n∈N
(ii) En déduire que C(n) 6 2(n + 1) ln(n) pour tout n ∈ N∗ .
d) On s’intéresse à une version déterministe du tri rapide. Autrement dit,
on cherche une fonction f déterministe telle que le tri rapide n’utilise qu’au
plus O(n ln n) comparaisons. On choisit comme pivot un élément médian de T ,
i.e. un élément à la fois supérieur et inférieur à au moins b n−1
2 c éléments de T .
On calcule un tel élément à l’aide des Algorithmes 1 et 2 ci-après.
(i) Montrerjque ksi x = Pivot(T ), alors T<x et T>x contiennent chacun au
moins 3 n−5
10 éléments.
(ii) On note D(n) le nombre de comparaisons effectuées lors de l’appel de
l’algorithme Rang(T, i) si T est de taille n. Soit c = 19 20 . Montrer par
récurrence sur k qu’il existe deux réels β, γ tel que pour tous entiers k, n
tels que nck < 1, on a
k
X
D(n) 6 βn ci + γ.
i=0

(iii) En déduire une borne sur le nombre de comparaisons C(n) utilisées lors
du tri rapide d’un tableau de taille n utilisant cette version de f .

Leçons concernées : 903, 926, 931

Ce développement relativement classique s’intéresse à des variantes probabilistes


et déterministes du tri rapide. Il s’intègre donc naturellement dans la leçon 903.
Les questions abordées ici concernent surtout sa complexité (en terme de nombre
de comparaisons), il est donc possible d’utiliser ce développement pour illustrer la
leçon 926. Enfin, l’approche employée relève du paradigme « diviser pour régner »,
qui permet (dans une moindre mesure) de l’insérer dans la leçon 931.

627
102. Autour du tri rapide

Algorithme 1 : Rang(T, i).


Entrée : un tableau T de taille n et un entier i.
Sortie : l’élément de rang i dans T .
1 si n = 1 alors
2 renvoyer le seul élément de T
3 x ← Pivot(T ).
4 T<x := tableau des T [y] tel que T [y] < x
5 T>x := tableau des T [y] tel que T [y] > x
6 si i = |T<x | alors
7 renvoyer x
8 si i < |T<x | alors
9 renvoyer Rang(T<x , i)
10 si i > |T<x | alors
11 renvoyer Rang(T>x , i − |T<x |)

Algorithme 2 : Pivot(T ).
Entrée : un tableau T .
Sortie : un élément pivot de T .
1 Diviser T en b n5 c blocs de 5 éléments, plus un bloc à n mod 5 éléments
2 M ← tableau des médians de chaque bloc
3 renvoyer Rang(M, b n+5 10 c)

Correction.
a) L’algorithme du tri rapide peut s’écrire de la manière suivante :
Algorithme 3 : Tri(T ).
Entrée : un tableau T .
Sortie : le tableau obtenu en triant T .
1 si |T | 6 1 alors
2 renvoyer T
3 sinon
4 x ← f (T )
5 (i, j) ← (0, 0)
6 (T<x , T>x ) ← tableaux de taille n − 1
7 pour k = 0 à n − 1 faire
8 si T [k] < x alors
9 T<x [i] ← T [k]
10 i←i+1
11 sinon si T [k] > x alors
12 T>x [j] ← T [k]
13 j ←j+1
14 Tronquer T<x au i-ième élément et T>x au j-ième.
15 renvoyer Tri(T<x )+JxK+Tri(T>x )

628
Algorithmique

b) Étant donnés un tableau T et un pivot x, on peut calculer T<x et T>x en


parcourant une fois T et en effectuant au plus deux comparaisons à chaque étape
(ce qui correspond aux lignes 7-13 dans l’algorithme Tri). Ainsi, les lignes 4-13
effectuent au plus (2 + α)n comparaisons.
Dans le pire cas, le pivot choisi à chaque étape fait en sorte que T<x ou T>x est
vide. Ainsi, le nombre maximal de comparaisons est borné par

(2 + α)(1 + · · · + n) = O(n2 ).

c) (i) On utilise n comparaisons pour calculer T<x et T>x . Ainsi, on a

C(n) = n + C(|T<x |) + C(|T>x |).

Comme le pivot est choisi uniformément et que les éléments de T sont deux à
deux distincts, pour tout k ∈ J0, n − 1K, la probabilité que T<x soit de taille k
est n1 . De plus, on a alors |T>x | = n − 1 − k. Alors, par définition de l’espérance
et en effectuant un changement d’indices, on obtient

1 n−1
X 2 n−1
X
C(n) = n + (C(k) + C(n − 1 − k)) = n + C(k).
n k=0 n k=0

Pour obtenir une relation de récurrence plus simple, on doit s’affranchir de la


somme. En considérant (n+1)C(n+1)−nC(n), on obtient une somme télescopique :

(n + 1)C(n + 1) − nC(n) = 2n + 1 + 2C(n),

d’où la relation de récurrence recherchée


C(n + 1) C(n) 2n + 1
− = .
n+2 n+1 (n + 1)(n + 2)

(ii) D’après la question précédente, on a, pour tout k ∈ J0, n − 1K,

C(k + 1) C(k) 2k + 1 2(k + 1) 2


− = 6 = .
k+2 k+1 (k + 1)(k + 2) (k + 1)(k + 2) k+2

En sommant cette inégalité pour k ∈ J0, n − 1K, on reconnaît une somme télesco-
pique et on a (puisque C(0) = 0)
n−1
C(n) C(n) C(0) X 1
= − 62 6 2 ln n,
n+1 n+1 1 k=0
k+2

ce qui termine la preuve.


d) (i) Chaque médian est supérieur ou égal à troisjéléments
k de T dans son bloc.
Le pivot x = Pivot(T ) est strictement supérieur à n+5
10 − 1 médians. Ainsi,

n+5 n+5 n−5


      
|T<x | > 3 −1 =3 −1 =3 .
10 10 10

629
102. Autour du tri rapide

j k j k
De même x est inférieur ou égal à n5 − n+5 10 + 1 médians et chaque médian est
inférieur ou égal à trois éléments de son bloc, d’où

n n+5 n−5
     
|T>x | > 3 −3 +3>3 ,
5 10 10
où la dernière inégalité provient du fait que

b2yc > 2byc > byc + by − 1c,


n+5
valide pour tout réel positif y, et appliqué à y = 10 .
(ii) Calculer l’élément central d’un tableau de taille 5 requiert un nombre
constant β1 de comparaisons. Ainsi, le calcul du tableau M = Jm1 , . . . , mp K des
médians dans l’algorithme Pivot requiert au plus β1 n comparaisons. De plus,
on a vu précédemment que le calcul de M<f (M ) et M>f (M ) requiert au plus β2 n
comparaisons pour un certain β2 > 0. On pose

γ = max{D(n) : n 6 90} et β = β1 + β2 + γ.

Pour tout entier k non nul, on montre par récurrence la propriété HRk :
k
X
« Pour tout n tel que ck n < 1, on a D(n) 6 βn ci + γ ».
i=0

Si k = 1, on a cn < 1 que pour n = 1, et alors D(1) = 0, donc HR1 est vraie.


Supposons que HRk est vraie pour un certain k ∈ N∗ , et prenons un entier n tel
que ck+1 n < 1. Alors

D(n) 6 β n
1 + D(|M |) + β n
2 + D(|M 0 |) (1)
|{z} | {z } |{z} | {z }
calcul des médians sélection du pivot calcul de M0 appel récursif

où M 0 = M<f (M ) ou M>f (M ) est le tableau sur lequel s’effectue l’appel récursif


des lignes 9 ou 11 dans l’algorithme Rang. D’après la question précédente,

n−5 n−5 7n + 45
   
|M 0 | 6 n − 3 6n−3 −1 = .
10 10 10

• Si 7n+45
10 > 3n
4 , alors n 6 90 et D(n) 6 γ par définition de γ, ce qui
montre HRk+1 .
• Autrement, on a |M | 6 n
5 et |M 0 | 6 3n
4 , d’où

n 3n
ck |M | 6 ck · 6 ck+1 n < 1 et ck |M 0 | 6 ck · < ck+1 n < 1.
5 4
On peut alors appliquer HRk et on obtient :
k k
D(|M 0 |) 6 β|M 0 |
X X
D(|M |) 6 β|M | ci + γ et ci + γ.
i=0 i=0

630
Algorithmique

Alors, l’équation (1) fournit (en majorant un des γ par γn)


k k
ci + γ + β|M 0 |
X X
D(n) 6 (β1 + β2 )n + β|M | ci + γ
i=0 i=0
k k
n X 3n X
6 (β1 + β2 + γ)n + β ci + β ci + γ
5 i=0
4 i=0
k k+1
!
X X
6 βn 1 + c ci + γ = βn ci + γ.
i=0 i=0

Ainsi, HRk+1 est vraie, ce qui conclut la récurrence.


(iii) Puisque c < 1, pour tout entier n, il existe un entier k tel que ck n < 1.
Alors la question d)(ii) assure que
k+1 +∞
X X βn
D(n) 6 βn ci + γ 6 βn ci + γ 6 + γ = 20βn + γ.
i=1 i=1
1−c

Ainsi, l’algorithme Rang effectue un nombre de comparaisons linéaire en n.


D’après la question a), c’est donc le cas pour chaque étape du tri rapide. On a
donc
n−1
 
C(n) 6 2C + O(n).
2
Le master theorem fournit alors C(n) = O(n ln n).

Commentaires.
© Dans ce développement, il est indispensable d’écrire les algorithmes utilisés
car on s’y réfère très souvent. C’est notamment valable pour les algorithmes
Rang et Pivot, mais aussi pour l’algorithme du tri rapide vu qu’on en considère
différentes variantes. Comme le reste de l’analyse de complexité n’est pas très
long, ces algorithmes peuvent aussi bien figurer dans le plan qu’être écrits au
tableau. L’avantage de la deuxième solution est de pouvoir expliquer à l’oral leur
fonctionnement, voire les modifications à effectuer pour obtenir une variante en
place.
© On a supposé dans cet exercice que les éléments du tableau T étaient deux à
deux distincts. Cette hypothèse est nécessaire pour justifier que la longueur du
tableau T<x suit une loi uniforme sur J0, n − 1K, mais n’est pas requise pour la ver-
sion déterministe (quitte à légèrement modifier l’algorithme Tri pour calculer T>x
au lieu de T>x ). En pratique, on peut s’assurer que cette hypothèse est vérifiée en
remplaçant chaque T [i] par (T [i], i), puis en triant T par ordre lexicographique.
Cette opération générique permet de rendre stable n’importe quel algorithme de
tri, mais nécessite de doubler l’espace mémoire requis.
© L’algorithme Rang permet de calculer l’élément de rang donné dans un tableau.
Il est facile d’en tirer un algorithme de tri rapide déterministe de complexité
optimale. Le point difficile est le calcul de sa complexité. En supposant que la

631
102. Autour du tri rapide

fonction D est croissante (hypothèse raisonnable, mais pas forcément valide),


l’analyse précédente montre que, pour tout n assez grand,
n 3n
   
D(n) 6 D +D + O(n). (2)
5 4
On ne peut pas appliquer directement le master theorem : on doit montrer une
version ad hoc, ce qui est fait en question d)(ii).
© La question d)(iii) peut être traitée sans faire appel au master theorem, en
considérant la suite des cp = C(2p − 1). On a alors

cp 6 2cp−1 + 20β2p + γ 6 2p c0 + 20βp2p + (2p+1 − 1)γ

par une récurrence immédiate, d’où cp = O(p2p ) = O(2p ln(2p )). Comme on ne
peut pas affirmer que C est croissante, on ne peut pas conclure directement. On
peut en revanche obtenir un algorithme de tri en O(n ln n) via un argument de
padding, c’est-à-dire en effectuant l’appel de Tri seulement sur un tableau de taille
2p − 1. Il suffit de considérer l’algorithme qui, à partir d’un tableau T de taille n,
calcule son maximum m, puis ajoute les éléments m + 1, m + 2, . . . à la fin de T
jusqu’à ce que sa taille soit de la forme 2p − 1 (la taille finale de T est donc au
plus le double de sa taille initiale). On applique alors l’algorithme Tri au tableau
obtenu, puis on restreint le résultat à ses n premières cases. Ce nouvel algorithme
n’utilise que n comparaisons (et O(n) opérations élémentaires) de plus que Tri,
c’est-à-dire au plus C(2p ) + O(n) = O(p2p ) + O(n) = O(n ln n) comparaisons.
© L’équation (2) est de la forme

D(n) 6 D(an) + D(bn) + O(nd ),

avec a, b, d des réels. Par analogie avec le master theorem, on veut être dans le cas
a + b < d pour obtenir la complexité souhaitée.
Le choix d = 1 est imposé par l’algorithme. De même, découper en blocs de
taille 5 force a = 15 . Considérer des blocs plus longs est évidemment possible et
permet d’obtenir une meilleure valeur pour a, au prix de l’augmentation de la
constante β1 .
Le choix de b, quant à lui, est contraint d’une part par la relation a + b < d,
qui impose b < 54 , et d’autre part par le choix du pivot x, qui garantit que
les tableaux T<x et T>x ont une taille de l’ordre de 7n 10 + O(1). Ainsi, on doit
7
avoir b > 10 pour obtenir l’inégalité bn > 7n10 + O(1) pour n assez grand.
Ceci explique tout d’abord le choix de b = 4 , et donc c = 19
3 1 3
20 = 5 + 4 . Le choix
de γ, quant à lui, est nécessaire pour prendre en compte le nombre fini de valeurs
de n pour lesquelles 3n 7n
4 < 10 + O(1). L’analyse précédente donne une valeur
explicite sur la constante O(1), ce qui permet de montrer que cette inégalité est
satisfaite seulement si n 6 90, justifiant le choix de γ.
© En pratique, on n’utilise pas la variante déterministe présentée ci-avant, car elle
est nettement plus lente. On préfère choisir un pivot aléatoire, puisque le pire cas
quadratique s’avère être peu probable. On peut de plus éviter ce cas en utilisant

632
Algorithmique

un tri hybride : on effectue un tri rapide en retenant la profondeur des appels


récursifs, et si ce nombre dépasse K ln n (où K est une constante et n la taille du
tableau initial), on applique un tri fusion ou par tas sur le sous-tableau considéré.
Cette variante est appelée introsort.
© Bien que les tris rapide, fusion et par tas aient des complexités moyennes
optimales O(n ln n), on préfère en pratique utiliser le tri rapide (ou des variantes
hybrides) qui est plus rapide en moyenne que le tri par tas, et nécessite moins de
mémoire que le tri fusion. En effet, à part pour stocker le tableau en entrée, le tri
rapide ne nécessite que de la mémoire dans la pile d’appels récursifs, égale à la
profondeur maximale d’appels récursifs (à savoir O(ln n) en moyenne) alors que
le tri fusion utilise une mémoire linéaire en n.

Questions.
1. Justifier l’inégalité
n−1
X 1
6 ln n.
k=0
k + 2

2. Expliciter la valeur de β1 .
3. Justifier l’inégalité b2xc > 2bxc pour x > 0.
4. On suppose maintenant que l’algorithme Pivot(T ) utilise des sous-tableaux
de taille k. Comment évolue la borne sur D(n) dans la question d) en fonction
de k ? Peut-on choisir k = 3 ?
5. Écrire une version en place de l’algorithme du tri rapide avec pivot aléatoire.
Peut-on obtenir une version en place de la version déterministe ?
Indication : on pourra s’inspirer de l’algorithme de tri hollandais.
6. Quelle sont les complexités en temps et en mémoire des tris rapide et fusion ?
7. Montrer que tout algorithme de tri basé sur des comparaisons nécessite d’utiliser
Ω(n ln n) comparaisons pour trier un tableau de n entiers.
8. Montrer qu’aucun algorithme de tri basé sur les comparaisons ne peut utiliser
qu’un nombre linéaire de comparaisons sur la moitié des permutations de taille n.
Est-ce toujours vrai pour une fraction de n1 ? 21n ?
9. Pour trier un tableau de taille n, on le découpe en parties de taille k (sauf
éventuellement une, de taille au plus k), puis on applique un algorithme de tri
quadratique sur chaque partie. Donner un algorithme de fusion des tableaux triés.
Quelle est la complexité de cet algorithme (en fonction de k et n) ? Quel est le
meilleur choix possible de k (en fonction de n) ?
10. On considère l’algorithme de tri suivant : étant donné un tableau T de taille n,
n
on trie récursivement (et en place) T [1, . . . , 2n 3 ], puis T [ 3 + 1, . . . , n], puis à
2n
nouveau T [1, . . . , 3 ]. Montrer qu’il s’agit effectivement d’un algorithme de tri, et
déterminer sa complexité.

633
103. Tri par tas

Développement 103 (Tri par tas F)

Un tas est un arbre binaire étiqueté où la valeur de chaque nœud est supérieure
ou égale à la valeur de chacun de ses fils, tous les niveaux de l’arbre doivent
être remplis et le dernier niveau est « tassé » vers la gauche (voir ci-après).
On implémente la structure de tas à l’aide d’un tableau indexé à partir de 1.
Ainsi le fils gauche (resp. droit) du nœud en case i est en case 2i (resp. 2i + 1)
et le père d’un nœud i est en case bi/2c.

4 6

3 1 2

Tas donné par le tableau J8, 4, 6, 3, 1, 2K muni de la taille 6.

Un tas est la donnée de son tableau associé et de sa taille : T = (tab, taille).


Le tri par tas consiste à construire un tas à partir du tableau à trier, puis
à itérer les opérations suivantes : échanger la racine et le dernier élément,
diminuer la taille de 1 et restaurer la structure de tas.

a) On veut écrire une procédure auxiliaire Entasse(T, i) qui transforme le


sous-arbre de racine i en un tas, en supposant que les sous-arbres enracinés
en les deux fils de i sont bien des tas.
(i) Écrire cet algorithme et le faire tourner sur l’exemple suivant :

J4, 17, 22, 8, 2, 9, 7K.

(ii) Montrer la correction, la terminaison et déterminer la complexité de cet


algorithme.
b) On veut maintenant construire un tas à partir d’un tableau d’éléments.
(i) Grâce à la procédure Entasse(T, i), écrire l’algorithme Construit(tab).
(ii) Montrer que l’algorithme est correct, termine et que sa complexité est
linéaire en le nombre d’éléments du tableau.
c) On veut mettre en œuvre le principe du tri par tas.
(i) Écrire l’algorithme Tri_tas(tab) et le faire tourner sur un exemple.
(ii) Montrer la correction, la terminaison et déterminer la complexité de cet
algorithme.

Leçons concernées : 901, 903, 926, 927

634
Algorithmique

Le tri par tas étant un tri par comparaison, il entre naturellement dans la leçon 903
dédiée au problème du tri. De plus, il a la particularité d’utiliser une structure de
données particulière, la structure de tas, afin d’atteindre la borne minimale de
complexité pour les algorithmes de tri par comparaison. Cela justifie son placement
dans la leçon 901. Enfin, puisque c’est un développement présentant un algorithme
dont on donne la complexité et dont on montre la terminaison et la correction,
c’est une illustration des leçons 926 et 927.

Correction.
a) (i) L’algorithme Entasse(T, i) transforme le sous-arbre de racine i en un
tas, en supposant que les deux fils de i sont bien des tas.
On compare l’élément d’indice i avec ses deux fils, on place le maximum des trois
éléments à l’indice i en l’échangeant avec l’ancien élément qui était en i et ensuite
on entasse de nouveau à partir de l’indice du fils qui a été modifié.

Algorithme 4 : Entasse(T, i).


Entrée : un arbre T et un nœud i tel que les deux sous-arbres enracinés en
les fils de i sont des tas.
Sortie : un arbre dont le sous-arbre enraciné en i est un tas.
1 max ← i
2 g ← 2i
3 d ← 2i + 1
4 si g 6 T.taille et T.tab[g] > T.tab[max] alors
5 max ← g
6 si d 6 T.taille et T.tab[d] > T.tab[max] alors
7 max ← d
8 si max 6= i alors
9 échanger T.tab[i] et T.tab[max]
10 Entasse(T, max)

i 4 Entasse(T, i) 22 Entasse(T, 2i + 1) 22

17 22 17 4 17 9

8 2 9 7 8 2 9 7 8 2 4 7

(ii) L’algorithme termine car la hauteur de l’arbre est finie et que l’on appelle la
fonction Entasse sur un sous-arbre dont la hauteur est strictement plus petite que
l’arbre initial. Le variant est donc h(i) où h(i) désigne la hauteur du sous-arbre
enraciné en i.

635
103. Tri par tas

On montre la correction par récurrence sur la hauteur de l’arbre enraciné en i.


Soit G, D les sous-arbres gauche et droits enracinés en 2i et 2i + 1.
Si max = i, alors G et D sont inchangés, et le sous-arbre de T enraciné en i est
un tas puisque G et D en sont et que T [i] > max(T [2i], T [2i + 1]).
Sinon, par symétrie, on peut supposer max = 2i+1, c’est-à-dire qu’on échange T [i]
et T [2i + 1] puis qu’on appelle Entasse sur D. Le sous-arbre G ainsi que les
sous-arbres gauche et droit de D ne sont pas affectés par cet échange, ce sont
donc toujours des tas. De plus h(2i + 1) < h(i), donc l’hypothèse de récurrence
appliquée à D assure que Entasse(T, 2i + 1) transforme D en tas. La nouvelle
racine de D est un élément présent initialement dans D, il est donc inférieur
à T [2i + 1]. Ainsi, l’arbre enraciné en i est bien un tas. Cela montre la correction
de l’algorithme Entasse.

Cet algorithme effectue seulement des comparaisons, des affectations ou des


échanges (opérations en coût constant) puis effectue de nouveau l’algorithme sur
un seul de ses fils au pire des cas, donc la complexité est en O(h(i)) où h(i) désigne
toujours la hauteur du sous-arbre enraciné en i. Or on a h(i) 6 h = bln2 nc car
le tas est quasi-complet (où h désigne la hauteur du tas). Ainsi la complexité de
Entasse est au pire en O(ln n).

b) (i) On va commencer par construire des tas à partir des feuilles et remonter
petit à petit jusqu’à la racine en utilisant les tas déjà fabriqués et la fonction
Entasse.

Algorithme 5 : Construit(tab).
Entrée : un tableau tab.
Sortie : un tas qui contient exactement les éléments du tableau tab.
1 T.taille ← longueur de tab
2 T.tab ← tab
3 pour i allant de bT.taille/2c à 1 faire
4 Entasse(T, i)
5 renvoyer T

4 Entasse(T, 3) 4 Entasse(T, 2) 4

7 8 7 10 9 10

9 3 10 9 3 8 7 3 8

636
Algorithmique

Entasse(T, 1) 10 Entasse(T, 3) 10

9 4 9 8

7 3 8 7 3 4

(ii) L’algorithme Construit termine puisqu’il contient une boucle bornée dans
laquelle on appelle la fonction Entasse qui termine.
Les éléments enracinés en i pour i allant de T.taille à bT.taille/2c + 1 sont des
feuilles et donc sont déjà des tas. Ensuite un invariant de boucle est « l’arbre issu
de i est un tas ». En effet, on entasse pour chaque i (pris dans l’ordre décroissant)
un arbre dont les deux fils sont des tas par l’invariant de boucle. Ainsi l’algorithme
Construit est correct.
La complexité de Construit est naïvement en O(n ln n) car pour chaque élément
on appelle Entasse, mais on peut calculer plus finement pour avoir une complexité
linéaire.
Chaque nœud qui est de profondeur p s’entasse en O(h − p) et il y a au plus 2p
nœuds de profondeur p dans le tas. La complexité de Construit est en O(n) car
h−1 h h  k +∞ k
X
p
X
h−k h
X 1 X 1
2 (h − p) = 2 k=2 k6n k = O(n).
p=0 k=1 k=1
2 k=1
2
| {z }
=2

Ainsi la complexité de Construit est linéaire en le nombre d’éléments du tableau.

c) (i) Dans l’algorithme Tri_tas(T ), on va construire notre tas, échanger


l’élément maximal et le dernier élément du tas, diminuer la taille du tas de 1, puis
faire redescendre la racine dans le tas avec la fonction Entasse. Ainsi à la fin de
l’algorithme les éléments seront triés par ordre croissant.

Algorithme 6 : Tri_tas(tab).
Entrée : un tableau tab.
Sortie : un tableau trié qui contient exactement les éléments de tab.
1 T ← Construit(tab)
2 pour i allant de T.taille à 2 faire
3 échanger T.tab[1] et T.tab[i]
4 T.taille ← T.taille − 1
5 Entasse(T, 1)
6 renvoyer T.tab

637
103. Tri par tas

Construit(T ) 10 échanger 10 et 4 4 Entasse(T, 1) 9

9 8 9 8 4 8

7 3 4 7 3 10 7 3 10

9 échanger 9 et 3 3 Entasse(T, 1) 8

7 8 7 8 7 3

4 3 10 4 9 10 4 9 10

échanger
8 et 4 4 Entasse(T, 1) 7

7 3 4 3 etc.

8 9 10 8 9 10

(ii) L’algorithme du tri par tas termine puisqu’il possède une boucle bornée qui
ne contient que des instructions qui terminent.
Grâce à la correction de Construit, on part d’un tas. On appelle L la longueur
du tableau initial. Un invariant de boucle est « les éléments entre L − i + 1 et L
sont les éléments les plus grands du tableau initial et sont rangés dans l’ordre
croissant ». En effet, à l’étape i on place l’élément maximal du tas (qui contient
les L − i + 1 plus petits éléments du tableau) en position L − i + 1, par invariant
de boucle, il est plus petit que les éléments entre L − (i − 1) + 1 et L, donc à la fin
de l’étape i, l’invariant de boucle est vérifié. Ainsi, à l’étape L, le tableau contient
les L plus grands éléments (autrement dit tous les éléments) rangés dans l’ordre
croissant, donc l’algorithme du tri par tas est correct.
La complexité du tri par tas est en O(n) + n × O(ln n) = O(n ln n).

Commentaires.
© On dit qu’un arbre dont tous les niveaux sont remplis est complet. On dit qu’un
arbre dont tous les niveaux sont remplis sauf le dernier niveau qui est alors tassé
vers la gauche est un arbre quasi-complet.
© On parle en réalité ici de tas-max, on pourrait définir le tas-min si la relation
d’ordre était « inférieur ou égal », mais ici, on ne considèrera que des tas-max
pour faciliter l’échange durant l’algorithme du tri par tas afin d’avoir un ordre
croissant sur les éléments. En considérant des tas-min, on obtiendrait un ordre
décroissant (à quelques modifications près des algorithmes).

638
Algorithmique

© Cet algorithme atteint la borne optimale de complexité pour les tris par compa-
raison, qui est O(n ln n). Cependant, en pratique, on préfère utiliser le tri rapide
qui est en moyenne moins coûteux, voir Développement 102. En effet, la constante
devant le n ln n du tri rapide est plus petite que celle du tri par tas.
© On peut voir l’algorithme Construit comme un algorithme utilisant la pro-
grammation dynamique puisqu’on commence par avoir des tas de taille 1 (les
feuilles) et ensuite à partir d’eux on construit des tas de plus en plus grand.
Cependant, l’apparition très courte de programmation dynamique ne justifie pas
le placement de ce développement dans la leçon sur les schémas algorithmiques.
© Ce tri possède l’avantage d’être un tri en place, il demande une quantité de
mémoire supplémentaire indépendante de la taille du tableau initial.
© Ce n’est pas un tri stable, c’est-à-dire que ce tri peut modifier l’ordre d’éléments
qui ont la même valeur.
© La structure de tas permet de faire des files de priorités, ce qui est utilisé dans
les algorithmes de Prim et Dijkstra par exemple.

Questions.
1. Écrire formellement les récurrences des questions a)(ii) et c)(ii).
+∞ k
X 1
2. Montrer que k = 2.
k=1
2
3. Montrer que la hauteur d’un arbre quasi-complet de taille n est bln2 nc.
4. Donner d’autres algorithmes de tri dont la complexité est en O(n ln n).
5. Montrer que tout tri par comparaison requiert Ω(n ln n) comparaisons.
6. Donner des algorithmes de tri non basé sur la comparaison en O(n).
7. En considérant (J5, 7, 4, 4, 6, 2K, 6), montrer que le tri par tas n’est pas stable.

639
104. Distance de Kendall et tri par insertion

Développement 104 (Distance de Kendall et tri par insertion FF)

Soit T un tableau de n entiers deux à deux distincts. On cherche à trier


ce tableau en utilisant uniquement l’opération suivante : étant donné un
élément ti et une position j > i (resp. j < i), on supprime ti , on décale tous
les éléments d’indices entre i et j d’une case à gauche (resp. à droite) puis on
insère x à la position j − 1 (resp. j + 1).

ti tj tj ti

ti tj tj ti

Cas j > i Cas j < i

a) Montrer que n − |S| insertions sont nécessaires pour trier T , où S désigne


une plus longue sous-séquence croissante (PLSC) de T (non nécessairement
contiguë).
b) Soit S une PLSC de T . Donner un algorithme permettant de trier T en
utilisant n − |S| insertions, et montrer sa correction.
c) Donner un algorithme permettant de calculer S à partir de T .

Leçons concernées : 903, 927, 931

Dans ce développement, on calcule le nombre minimum d’insertions à effectuer lors


d’un tri par insertion. Il a donc toute sa place dans la leçon 903. De plus, on exhibe
ici un invariant de boucle pour montrer la correction d’un algorithme, ce qui justifie
une intégration dans la leçon 927. Enfin, la détermination d’une plus longue sous-
séquence croissante donne lieu à deux algorithmes de programmation dynamique
(voir questions c) et 2) et permettent donc le placement de ce développement dans
la leçon 931.

Correction.
a) Soit T 0 le tableau obtenu à partir de T en insérant l’élément ti à la position j
et S 0 une PLSC de T 0 .
Si S 0 ne contient pas ti , alors S 0 est aussi une sous-séquence croissante de T , donc
par maximalité on a |S 0 | 6 |S|. Si S 0 contient ti , alors S 0 \ {ti } est aussi une
sous-séquence croissante de T , et |S 0 | − 1 6 |S|.
Ainsi, la longueur des PLSC augmente d’au plus un à chaque insertion. Initialement,
la longueur d’une PLSC de T vaut |S|. Celle d’un tableau trié est n, il faut donc
d’utiliser au moins n − |S| insertions pour obtenir un tableau trié.
b) Pour trier T , on parcourt les éléments de T \ S, et on les insère à leur place
dans S, en mettant S à jour de sorte qu’après chaque insertion, S soit une PLSC
de T . L’algorithme est le suivant :

640
Algorithmique

Algorithme 7 : Tri(T, S).


Entrée : un tableau T et une PLSC S.
Sortie : le tableau T trié.
1 pour i = 0 à n − 1 faire
2 si ti ∈
/ S alors
3 pour j = 0 à |S| − 1 faire
4 S 0 ← []
5 si ti < sj et aucune insertion n’a eu lieu alors
6 Insérer ti à la position juste avant celle de sj dans T .
7 S 0 ← S 0 + [ti ]
8 S 0 ← S 0 + [sj ]
9 si aucune insertion n’a eu lieu alors
10 Insérer ti à la position n − 1 dans T .
11 S 0 ← S 0 + [ti ]
12 S ← S0

13 renvoyer T

Notons sj l’élément de S supérieur à ti qui est le plus proche de ti . On va


maintenant montrer qu’à chaque étape de la boucle principale, S est une PLSC
de T . On distingue différents cas selon si les conditions des trois boucles « si »
sont vérifiées ou non. Dans chacun, on note S, T (resp. S 0 , T 0 ) les tableaux avant
(resp. après) l’exécution du corps de la boucle.
• Si ti ∈ S, ni S ni T ne sont modifiés, donc S 0 = S est une PLSC de T 0 = T .
• Si ti ∈/ S et aucune insertion n’a eu lieu après l’exécution de la boucle à
la ligne 3, alors ti est supérieur à tous les éléments de S. Ainsi, S est une
sous-séquence croissante de T \ {ti }, et S 0 est une sous-séquence croissante
de T 0 .
De plus, d’après a), la taille d’une PLSC n’augmente que d’au plus un
élément après une insertion. Comme S 0 est une sous-séquence croissante
de T 0 de taille |S| + 1, c’est une PLSC de T 0 .
• Si ti ∈
/ S et une insertion a eu lieu au rang j de la boucle en ligne 3, alors

s0 < · · · < sj−1 < ti < sj < · · · < s|S|−1 .

On obtient donc que S 0 est une sous-séquence croissante de T 0 de taille |S|+1,


et par le même argument que dans le cas précédent, c’est une PLSC de T 0 .
L’invariant « S est une PLSC de T » est par définition vérifié avant l’exécution
de la boucle. Il est donc vérifié à la fin de l’algorithme. De plus, chaque élément
de T \ S est inséré dans S au cours de l’algorithme. Ainsi, à la fin de la boucle, S
est une PLSC de T contenant tous les éléments de T . Le tableau T est donc trié.
On peut aussi constater qu’une insertion a eu lieu pour chaque élément de T \ S.
Il y a donc eu n − |S| insertions dans T .

641
104. Distance de Kendall et tri par insertion

c) Tout préfixe d’une PLSC de T est une PLSC d’un sous-tableau préfixe de T .
Cette propriété de « sous-structure optimale » conduit à considérer un algorithme
de programmation dynamique. Pour i ∈ J0, n − 1K, on note Mi la longueur d’une
sous-séquence croissante de T maximale parmi celles finissant sur ti . Comme toute
telle sous-séquence est construite en ajoutant ti à une sous-séquence finissant
sur tk avec k < i et tk < ti (pour un certain k), on peut établir la relation de
récurrence suivante :

Mi = 1 + max{Mk : k ∈ J0, iK , tk < ti },

avec la convention max ∅ = 0. On a de plus la condition initiale M0 = 1.


On obtient alors l’algorithme suivant, de complexité quadratique :

Algorithme 8 : PLSC(T ).
Entrée : un tableau T .
Sortie : une PLSC de T .
1 M0 ← 1
2 P0 ← 0
3 pour i = 1 à n − 1 faire
4 Mi ← 1
5 Pi ← i
6 pour k = 0 à i − 1 faire
7 si tk < ti et Mi < 1 + Mk alors
8 Mi ← 1 + Mk
9 Pi ← k

10 j ← indice du maximum des Mi


11 S ← [tj ]
12 tant que Pj 6= j faire
13 j ← Pj
14 S ← tj :: S
15 renvoyer S

Pour tout i ∈ J0, n − 1K, Pi contient l’indice du prédécesseur de ti dans une PLSC
de T finissant sur ti si cette PLSC n’est pas [ti ], et Pi = i sinon. Ce tableau
auxiliaire permet de reconstruire la PLSC finale sous la forme de la liste S. En
prenant l’exemple du tableau T = J4, 2, 7, 6, 3, 5K, on a P = J0, 1, 0, 0, 1, 4K et
la PLSC est S = [2, 3, 5].

Commentaires.
© L’opération d’insertion est celle utilisée dans les tris par sélection et par insertion.
Ce développement montre que n − s insertions sont nécessaires pour trier un
tableau de taille n dont la PLSC est de taille s. Ceci confirme l’observation selon
laquelle le tri par insertion est très efficace lorsque le tableau est presque trié. En

642
Algorithmique

effet, dans ce cas, s est proche de n, il y a donc peu d’insertions à effectuer. Ceci
explique pourquoi certains algorithmes de tri utilisés en pratique utilisent une
combinaison de deux tris : tout d’abord un premier tri qu’on utilise jusqu’à ce
que le tableau soit « presque trié », puis on applique un tri par insertion.
© Attention à l’acronyme PLSC, qui désigne parfois aussi la plus longue sous-
séquence commune à deux tableaux ou chaînes de caractères (voir question 3).
© Le titre de ce développement est issu de la notion de « distance de Kendall »,
qui compte le nombre de couples d’éléments mal ordonnés relativement à l’un et à
l’autre dans une permutation. En particulier, la distance de Kendall d’un tableau
à sa version triée correspond au nombre d’opérations à effectuer lors d’un tri à
bulles. On peut donc voir ce développement comme un analogue de cette notion
pour le tri par insertion.
© Dans la question b), on peut utiliser la croissance du tableau S pour déter-
miner le plus petit indice j tel que ti < sj plus efficacement, via une recherche
dichotomique. Cependant, ce n’est pas utile car il faut pouvoir ensuite insérer ti
à la bonne place dans S, ce qui coûte une opération d’insertion (ou a un coût
linéaire en nombre d’opérations si on ne souhaite pas comptabiliser les insertions
ayant lieu dans S).
© L’algorithme présenté en question c) n’est pas l’algorithme de complexité
optimale pour résoudre le problème PLSC. En considérant une autre quantité, on
peut en fait obtenir une complexité en O(n ln(n)) (voir question 2 ci-après).

Questions.
1. Adapter les algorithmes ci-avant dans le cas où les éléments de T ne sont plus
supposés deux à deux distincts.
2. Donner un algorithme de programmation dynamique calculant pour chaque
entier i ∈ J0, n − 1K un tableau M où Mj est tel que tMj soit la plus petite valeur
possible pour le dernier élément d’une sous-séquence croissante à j éléments dans
le tableau Jt0 , . . . , ti K.
En déduire un algorithme en O(n ln(n)) pour le calcul d’une PLSC.
3. Donner un algorithme calculant une plus longue sous-séquence commune à
deux tableaux.
4. Étant donnés deux tableaux, écrire un algorithme calculant une séquence de
longueur minimale dont chaque tableau est une sous-séquence.
Indication : on pourra dans un premier temps calculer la plus longue sous-séquence
commune des deux tableaux, puis y insérer les caractères manquants.

643
105. Tirage aléatoire de population

Développement 105 (Tirage aléatoire de population FF)

Soit E = {e0 , . . . , en−1 } un ensemble et p0 , . . . , pn−1 des réels de somme 1.


Soient s > 1 un entier et X1 , . . . , Xs des v.a. i.i.d. sur E dont la loi L est
donnée par P(X1 = ej ) = pj pour tout j ∈ J0, n − 1K. Le but de cet exercice
est de déterminer un algorithme renvoyant un s-uplet aléatoire suivant la loi
de (X1 , . . . , Xs ).
a) Pour i ∈ J0, nK, on définit
i−1
X
qi = pj .
j=0

(i) Soit U une variable aléatoire uniforme sur [0, 1], et K le plus grand entier
de J0, n − 1K tel que qK < U . Montrer que eK suit la loi L.
(ii) En déduire un algorithme en temps O(ln n) pour réaliser un tirage
de X1 à partir du tableau des qi . En itérant s fois cet algorithme pour
réaliser (X1 , . . . , Xs ), quelle est la complexité obtenue ?
(iii) Lorsque s < n, proposer une amélioration permettant d’obtenir une
complexité en O(n + s ln s).
b) Soit F la fonction de répartition d’une variable aléatoire Y à support
sur [0, 1] telle que F |[0,1] est continue et strictement croissante. Montrer que
si U est une v.a. uniforme sur [0, 1], alors F |−1 [0,1] (U ) suit la loi de Y .
Soient Y1 , . . . , Ys des v.a. i.i.d. uniformes sur [0, 1], et (X1 , . . . , Xs ) le s-uplet
obtenu en triant (Y1 , . . . , Ys ).
c) (i) Déterminer la fonction de répartition de min(Y1 , . . . , Ys ).
(ii) Montrer que pour tout i ∈ J2, sK, la loi conditionnelle de Xi sachant Xi−1
est la loi du minimum de s − i + 1 v.a. i.i.d. uniformes sur [Xi−1 , 1].
(iii) En déduire un algorithme en O(s) permettant de simuler (X1 , . . . , Xs ).
(iv) En déduire une amélioration de l’algorithme de la question a) en
temps O(n + s).

Leçons concernées : 261, 264, 926, 927

Dans ce développement, on s’intéresse à des algorithmes d’échantillonnage de


population, ou plus simplement de réalisations de variables aléatoires discrètes (à
support fini) dont on connaît la loi. Les différents algorithmes présentés ici suivent
une démarche d’améliorations successives souvent utilisée dans la conception
d’algorithmes. Les calculs de complexités présentés ici, bien que simples, justifient
une intégration dans la leçon 926. De plus la correction de ces algorithmes est non-
triviale et permet d’illustrer la leçon 927. Elle repose sur des résultats classiques
de probabilités bienvenus dans les leçons 261 et 264.

644
Algorithmique

Correction.
a) (i) Soit i ∈ J0, n − 1K. On a

P(eK = ei ) = P(K = i) = P(qi < U 6 qi+1 ) = qi+1 − qi = pi .

Ainsi, eK suit la loi L.


(ii) Pour réaliser un tirage de X1 , on commence par réaliser U , c’est-à-dire par
tirer un réel aléatoire u uniformément dans [0, 1]. Par recherche dichotomique
dans le tableau des qi , on peut déterminer en temps O(ln n) une réalisation k
de la variable aléatoire K, c’est-à-dire le plus grand entier tel que qk < u. On
retourne alors l’élément ek .
À partir du tableau des (pi )i∈J0,n−1K , on peut construire le tableau trié des qi en
temps O(n). Pour réaliser le s-uplet (X1 , . . . , Xs ), on obtient donc finalement un
algorithme en O(n + s ln n).
(iii) Au lieu de tirer un réel aléatoire et d’effectuer une recherche dichotomique
pour réaliser chacun des Xi , on peut tirer un tableau T de s réels aléatoires
uniformément sur [0, 1]. Pour déterminer les réalisations de la variable K associée
à chacun de ces réels, il suffit de trier T , puis de le parcourir d’une manière
similaire à l’algorithme de fusion du tri fusion. En effet, une fois T trié, les
éléments de T dans l’intervalle ]qk , qk+1 ] forment un sous-tableau contigu de T .
On obtient l’algorithme suivant où, à chaque fois que la boucle tant que s’arrête,
k − 1 est une réalisation de la variable aléatoire K associée au i-ème élément Ti
de T .

Algorithme 9 : Échantillonage en O(n + s ln s).


Entrée : l’ensemble E et les probabilités (pi )i∈J0,n−1K représentés sous
forme de tableau, et un entier s > 1.
Sortie : un échantillon R de taille s.
1 R←∅
2 k←0
q←0 /* q va contenir j−1
P
3 k=0 pk */
4 Tirer s réels uniformément sur [0, 1], et trier leur tableau T .
5 pour i = 0, . . . , s − 1 faire
6 tant que q < Ti faire
7 q ← q + pk
8 k ←k+1
9 R ← R ∪ {ek−1 } /* k vérifie Ti ∈]qk−1 , qk ] */
10 renvoyer R

Comme T contient des réels de [0, 1], la boucle interne s’arrête dès que q > 1,
autrement dit quand j > n. Ainsi, lors de l’exécution de l’algorithme, la variable j
est majorée par n, ainsi la boucle interne n’effectuera que O(n) opérations au total.
Les deux boucles ont donc une complexité totale en O(n + s), et le pré-traitement

645
105. Tirage aléatoire de population

a une complexité en O(s ln s) car on trie un tableau de taille s. La complexité


finale est donc O(n + s ln s).
b) Soit x ∈ [0, 1]. La fonction F |[0,1] est continue et strictement croissante donc
bijective, d’où :
 
P F |−1
[0,1] (U ) < x = P(U < F (x)) = F (x).

Comme Y est à support sur [0, 1], la fonction F est nulle sur R− et égale à 1
sur l’intervalle [1, +∞[, ce qui assure que l’égalité précédente reste valide pour
tout x ∈ R \ [0, 1]. Ainsi, la variable F −1 (U ) admet donc F comme fonction de
répartition.
c) (i) Soit x ∈ [0, 1] et Z = min(Y1 , . . . , Ys ). Comme les Yi sont i.i.d., on a
s
Y
P(Z > x) = P(Yi > x) = P(Y1 > x)s = (1 − x)s .
i=1

On constate facilement que P(Z 6 x) = 0 si x < 0 et P(Z 6 x) = 1 si x > 1.


Ainsi, la fonction de répartition de Z est la fonction x 7→ 1 − (1 − x)s prolongée
par 0 sur R− et par 1 sur [1, +∞[.
(ii) Soit x ∈ [0, 1[ et i ∈ J2, nK. Par définition, on a

Xi = min ({Y1 , . . . , Ys } \ {X1 , . . . , Xi−1 }) = min{Yj : Yj > Xi−1 }.

Ainsi, conditionnellement à l’évènement « Xi−1 = x », la variable aléatoire Xi


s’écrit comme le minimum de s − i + 1 variables aléatoires Zi , . . . , Zs , chacune
correspondant aux Yj tels que Yj > x. Pour tout y ∈ [x, 1], on a

P(x < Yj < y) y−x


P(Zj < y) = P(Yj < y | Yj > x) = = .
P(Yj > x) 1−x

En particulier, la loi de Zj est uniforme sur [x, 1]. On peut vérifier de même
que les v.a. Zi , . . . , Zs sont indépendantes puisque Y1 , . . . , Ys le sont. Ainsi, la loi
conditionnelle de Xi sachant Xi−1 est bien fournie par le minimum de s − i + 1
variables aléatoires i.i.d. uniformes sur [Xi−1 , 1].
(iii) D’après la question précédente, il suffit de tirer successivement X1 , . . . , Xs
où, pour tout i ∈ J1, sK, la loi de Xi est celle de min(Zi , . . . , Zs ), où chaque Zj
suit une loi uniforme sur [Xi−1 , 1] (avec par convention X0 = 0).
• Pour i = 1, d’après la question b), il suffit de tirer u uniformément sur [0, 1],
1
et de choisir X1 = F −1 (u) = 1 − (1 − u) s où F est la fonction de répartition
définie en c)(i).
• Pour i > 1, supposons que x soit une réalisation de Xi−1 . On veut alors tirer
un réel selon la loi de min(Zi , . . . , Zs ) où chaque Zj est uniforme sur [x, 1],
,...,Zs )−x
ce qui est équivalent à tirer selon la loi de min(Zi1−x où chaque Zj est
uniforme sur [0, 1]. De manière similaire au cas i = 1, il suffit alors de tirer
s−i+1 −x
un réel u uniformément sur [0, 1], et de définir Xi = 1−(1−u) 1−x .

646
Algorithmique

(iv) Au lieu de tirer s réels uniformément sur [0, 1], puis de trier leur tableau
(ce qui coûte O(s ln s)), on peut tirer directement un tableau trié de taille s réels.
Il suffit alors d’appliquer l’algorithme de la question a)(iii), en changeant le
pré-traitement.
Algorithme 10 : Échantillonage en O(n + s).
Entrée : l’ensemble E et les probabilités (pi )i∈J0,n−1K représentés sous
forme de tableau, et un entier s.
Sortie : un échantillon R de taille s.
1 R←∅
2 j←0
3 x←0 /* x représente le dernier Xi réalisé */
q←0 /* q va contenir j−1
P
4 k=0 pk */
5 pour i = 1, . . . , s faire
6 Tirer un réel u uniformément sur [0, 1]
s−i+1
−x
7 x ← 1−(1−u)
1−x
8 tant que q < x faire
9 q ← q + pj
10 j ←j+1
11 R ← R ∪ {ej−1 }
12 renvoyer R
Comme précédemment, la boucle interne n’effectue au total que O(n) opérations
pendant toute l’exécution de l’algorithme. La complexité de cet algorithme est
dictée par le nombre d’opérations utilisées par la boucle externe, i.e. O(s + n).

Commentaires.
© Les algorithmes présentés ici permettent de tirer aléatoirement des échantillons
d’une population, avec des probabilités fixées. On peut aussi s’en servir pour
simuler s variables i.i.d. selon une loi L à support fini. Certaines de ces lois
admettent des caractérisations permettant de les simuler facilement (par exemple,
on peut simuler une variable de loi binomiale en sommant un nombre adapté de
variables de Bernoulli). Lorsqu’on ne connaît pas de telles caractérisations (par
exemple quand la distribution est obtenue de manière empirique), les algorithmes
présentés ici sont très utiles car ils ne reposent que sur la connaissance de la
distribution des probabilités.
© Dans certains cas, on peut se passer de l’hypothèse que la loi L est à support
fini. C’est traditionnellement la méthode utilisée pour simuler une loi de Poisson.
Si x est un réel choisi uniformément sur [0, 1], on peut calculer le plus grand
entier k tel que p1 + · · · + pk < x en parcourant les entiers dans l’ordre croissant
(ce processus termine pour chaque x). Lorsqu’on veut simuler un échantillon de s
éléments, il est souhaitable de précalculer les pk . Le problème est alors qu’on
ne sait pas a priori jusqu’où les calculer. Une solution consiste à tronquer la
distribution de probabilités à partir d’un entier k assez grand (c’est-à-dire tel que

647
105. Tirage aléatoire de population

la probabilité 1 − p1 − · · · − pk de tirer un entier supérieur à k est assez petite), puis


on simule une variable pour la loi tronquée à l’aide des algorithmes précédents.
© Les algorithmes de ce développement n’ont pas besoin de connaître tout le
tableau des probabilités dès le début. On n’a besoin de connaître pi que lorsqu’on
a « dépassé » qi en parcourant T (resp. quand x dépasse qi ). Ainsi, on peut utiliser
ces algorithmes même si on ne lui fournit les pi qu’au fur et à mesure. On parle
d’algorithme « en ligne » ou « incrémental ».
© On a supposé dans tout ce développement que les tirages aléatoires uniformes
sur [0, 1] s’effectuaient en temps constant. Une analyse plus précise consisterait à
compter séparément le nombre d’opérations, et le nombre de tirages aléatoires.
En l’occurrence, le dernier algorithme présenté dans l’exercice utilise s tirages
aléatoires.
© Lorsque s < n, on obtient un algorithme de complexité O(n) utilisant O(n)
tirages aléatoires. Dans le cas contraire, on verra dans les questions qu’on peut
aussi obtenir un algorithme utilisant O(n) tirages aléatoires d’une loi binomiale.
En supposant que ces tirages se font en O(1), on obtient toujours une complexité
en O(n), plus O(s) opérations utilisées uniquement pour renvoyer l’échantillon
obtenu. On peut en fait combiner ces algorithmes pour obtenir un algorithme
nécessitant seulement O(min(s, n)) tirages aléatoires, et fonctionnant aussi en
temps O(n) (+O(s) pour renvoyer le résultat).
© Le résultat de la question b) est une version affaiblie du « théorème de la
réciproque ». En effet, il suffit que F soit continue à droite et croissante, ce qui
est automatiquement le cas quand on considère une fonction de répartition. La
démonstration de cet énoncé repose sur la notion d’inverse généralisé de F , défini
comme la fonction ω 7→ inf{x ∈ R : F (x) > ω}, qui joue le même rôle que la
fonction F |−1[0,1] utilisée dans la correction.
© Comme on l’illustre ici, le théorème de la réciproque est très utile pour simuler
des lois lorsqu’on peut inverser facilement la fonction de répartition. Comme on
le verra dans les questions, c’est par exemple le cas de la loi de Cauchy ou de
la loi exponentielle. Dans le cas où on ne connaît pas explicitement l’inverse, on
peut utiliser des méthodes d’approximation (par exemple la méthode de Newton)
pour résoudre l’équation F (x) = u d’inconnue x, où u est tiré uniformément sur le
segment [0, 1] et F est la fonction de répartition. On peut ainsi simuler n’importe
quelle loi à partir de sa fonction de répartition et de tirages uniformes sur [0, 1]
(qui, en pratique, se ramènent à des tirages de Bernoulli pour déterminer un à un
les bits d’un flottant de [0, 1]).
© La loi décrite en question c)(i) est un cas particulier de loi β. Plus précisément,
il s’agit de la loi β(1, s). Cette loi arrive naturellement dans certains types de
processus de Pólya. En général, il n’est pas facile de simuler des variables de
loi β(a, b), dont la fonction de répartition est :
Z x
Γ(a + b)
x 7→ y a−1 (1 − y)b−1 dy.
Γ(a)Γ(b) 0

Cependant, lorsque a = 1, cette expression se simplifie en une fonction facile à


inverser, et le théorème de la réciproque permet de simuler facilement ces lois.

648
Algorithmique

© La méthode de rejet est un autre outil de simulation, très pratique pour des
variables à densité. Soit Z une variable de densité f , et g une fonction de densité
telle que fg soit bornée par une constante M . On tire alors indépendamment Y de
densité g et U uniforme sur [0, M ]. Si f (Y ) 6 U g(Y ), on renvoie la valeur de Y ,
sinon on réitère le processus. Ce procédé termine presque sûrement (le nombre
1
d’itérations suit une loi géométrique de paramètre M ), et fournit une simulation
de Z.
En pratique, on utilise cette méthode lorsque la densité f est proche (au sens
où M est proche de 1, ce qui assure que le nombre moyen d’itérations du processus
est faible) d’une densité g facilement simulable.
© Soit Z une v.a. réelle de densité f à support compact K, et notons M un
majorant de f . Alors la méthode de rejet permet de simuler Z, en tirant Y
uniformément sur K, et U uniformément sur [0, M ] jusqu’à ce que U < f (Y ).
Intuitivement, on tire uniformément des points dans le rectangle K × [0, M ]
jusqu’à tomber sous le graphe de f . Cette idée se généralise lorsque f n’est plus à
support compact, en « tronquant » le support de f , c’est-à-dire en choisissant un
compact K tel que l’intégrale de f en dehors de K est petite.
Un autre exemple classique vise à tirer des points uniformément dans le disque
unité. Il suffit alors de tirer X, Y uniformes sur [0, 1] et indépendantes jusqu’à ce
que X 2 + Y 2 6 1.
© On peut aussi voir les arguments utilisés dans la question c)(ii) comme une
application de la méthode de rejet : on a Xi = min{Yj : Yj > Xi−1 }, ainsi, Xi est
le minimum de s − i + 1 v.a. obtenues en rejetant tous les Yj supérieurs à Xi−1 .
Aussi, lorsqu’on conditionne par rapport à Xi−1 , c’est-à-dire qu’on fixe sa valeur,
il reste s − i + 1 v.a. uniformes sur [Xi−1 , 1].

Questions.
1. Calculer la densité de min(Y1 , . . . , Ys ) où Y1 , . . . , Ys sont des v.a. i.i.d. uniformes
sur [0, 1].
2. Supposons qu’on tire successivement X1 , . . . , Xs dans l’ordre croissant. Soient i
et j deux entiers tels que Xj < qi < Xj+1 . Montrer que le nombre de Xi
contenus dans l’intervalle [qi , qi+1 ] suit une loi binomiale de paramètres (s −
pi
j, 1−q i
). En déduire un algorithme de tirage d’une population en temps O(n + s)
nécessitant O(n) tirages aléatoires d’une loi binomiale.
3. Calculer l’espérance d’une variable aléatoire de loi β(a, b).
4. Expliquer comment simuler une loi uniforme sur [a, b] à partir d’une loi uniforme
sur [0, 1].
5. Donner un algorithme simulant une loi binomiale de paramètre (n, p) (resp.
géométrique de paramètre p) à partir de variables de Bernoulli.
6. Comment simuler une loi uniforme sur [0, 1] à partir de variables de Bernoulli ?
7. Si X suit une loi de Poisson de paramètre λ > 0, donner une relation de
récurrence sur la suite (P(X = k))k∈N . Modifier ensuite l’Algorithme 9 pour
simuler X.

649
105. Tirage aléatoire de population

8. Soit λ ∈ R∗+ . Soit (Xn )n∈N une suite de v.a. indépendantes, où chaque Xn suit
une loi binomiale de paramètre (n, nλ ). Montrer que Xn converge en loi vers une
v.a. suivant la loi de Poisson de paramètre λ. En déduire un autre algorithme
permettant de simuler une loi de Poisson.
9. Montrer que le résultat de la question b) se généralise lorsque F est la fonction
de répartition d’une variable aléatoire réelle.
Indication : justifier que l’inverse généralisé G de F est bien défini puis montrer
l’égalité des évènements {ω 6 F (x)} et {G(ω) 6 x} par double inclusion.
10. En utilisant le théorème de la réciproque, comment simuler une loi de Cauchy ?
Une loi exponentielle ?
11. Soit R, T deux v.a. indépendantes telle que R suit la loi exponentielle de
paramètre 12 et T est uniforme sur [0, 2π]. Déterminer la densité du couple
√ √ 
(X, Y ) = R cos(T ), R sin(T )

et en déduire que X, Y sont indépendantes et suivent une loi normale centrée


réduite. En déduire un algorithme de simulation de la loi normale, dit méthode de
Box-Muller.

650
Algorithmique

Développement 106 (Transformée de Fourier rapide FF)

Soit n ∈ N∗ un entier et x0 , . . . , xn−1 ∈ Cn des nombres complexes deux à


deux distincts. On représente un polynôme P de Cn−1 [X] de deux manières :
n−1
X
• comme un tableau Jt0 , . . . , tn−1 K où P = tk X k (forme interpolée) ;
k=0
• comme le tableau JP (x0 ), . . . , P (xn−1 )K (forme évaluée).
a) Combien d’opérations arithmétiques dans C sont requises lors du calcul
naïf de la somme et du produit de deux polynômes sous forme interpolée ?
b) Ces deux représentations sont-elles équivalentes ? Donner des algorithmes
permettant de passer de l’une à l’autre ainsi que leur complexité.
c) De la forme évaluée à la forme interpolée.
On suppose que n > 2 est une puissance de 2, et on prend ω = exp( 2iπ
n ) une
racine primitive n-ième de l’unité.
(i) Montrer que l’évaluation de P sur 1, ω, . . . , ω n−1 peut se ramener à
n
l’évaluation de deux polynômes de degré au plus n2 sur 1, ω 2 , . . . , (ω 2 ) 2 −1 .
(ii) En déduire un algorithme en O(n ln n) pour passer de la forme interpolée
à la forme évaluée.
d) De la forme interpolée à la forme évaluée.
(i) Montrer que le vecteur colonne t (P (1), . . . , P (ω n−1 )) peut être obtenu
comme un produit Mω X où X est le vecteur colonne t (t0 , . . . , tn−1 ) et
Mω ∈ GLn (C).
(ii) Montrer que Mω−1 = n1 Mω−1 . En déduire un algorithme pour passer de
la forme évaluée à la forme interpolée. Quelle est sa complexité ?
e) En déduire un algorithme de multiplication en O(n ln n) pour deux poly-
nômes de Cn−1 [X] donnés sous forme interpolée.

Leçons concernées : 102, 901, 931

Ce développement présente un algorithme de multiplication de polynômes utilisant


la transformée de Fourier rapide. Cet algorithme consiste à considérer deux struc-
tures de données : l’une correspondant à la représentation usuelle des polynômes,
et l’autre adaptée aux calculs algébriques. Cette vision de l’exercice justifie une
intégration dans la leçon 901. L’algorithme de traduction d’une structure à l’autre
relève du paradigme « diviser pour régner », ce qui justifie aussi l’utilisation de
ce développement dans la leçon 931. Enfin, cet algorithme peut aussi être cité
dans la leçon 102, comme illustration de l’utilisation de racines de l’unité en
algorithmique, ainsi que comme application des matrices de Vandermonde dans
certaines leçons d’algèbre linéaire.

651
106. Transformée de Fourier rapide

Correction.
a) Pour calculer la somme de deux polynômes de Cn−1 [X] mis sous forme inter-
polée T = Jt0 , . . . , tn−1 K et T 0 = Jt00 , . . . , t0n−1 K, il suffit de construire un tableau
de taille n dont le k-ième coefficient est tk + t0k , ce qui se fait en temps O(n).
Pour le produit, il s’agit cette fois de construire un tableau de taille 2n dont
le k-ième coefficient est i+j=k ti t0j . Chacune de ces sommes se calcule en temps
P

linéaire en k, donc linéaire en n et la complexité finale est O(n2 ).


b) On vérifie aisément que l’application d’évaluation

ϕ : Cn−1 [X] −→ Cn
P 7−→ (P (x0 ), . . . , P (xn−1 ))

est linéaire entre deux espaces vectoriels de même dimension n. Elle est de plus
injective. En effet, si P ∈ Ker (ϕ), alors P est un polynôme de degré au plus n − 1
ayant n racines distinctes, d’où P = 0.
Ainsi, l’application ϕ est un isomorphisme dès que x0 , . . . , xn−1 sont deux à deux
distincts, ce qui assure que les deux représentations sont bien isomorphes.
Pour passer de la forme interpolée à la forme évaluée, il suffit d’évaluer le poly-
nôme P en chacun des xi . Chaque évaluation peut se faire en temps O(n) via
l’algorithme de Horner, d’où un coût total O(n2 ).
Pour l’opération inverse, on peut remarquer que les coefficients de P peuvent être
obtenus en multipliant le vecteur colonne t (P (x0 ), . . . , P (xn−1 )) par la matrice
de ϕ−1 dans la base canonique. Cette matrice est l’inverse de celle de ϕ (qui est une
matrice de Vandermonde). On peut calculer cet inverse en temps O(n3 ) à l’aide
d’un pivot de Gauss. Le passage de la forme évaluée à interpolée se ramène alors
à effectuer le produit d’une matrice par un vecteur en O(n2 ), soit une complexité
totale de O(n3 ).
c) (i) Posons P0 (resp. P1 ) le polynôme de degré au plus n/2 − 1 tel que le
coefficient de X i dans P0 (resp. P1 ) soit le coefficient de X 2i (resp. X 2i+1 ) dans P .
Autrement dit, P = P0 (X 2 ) + XP1 (X 2 ).
Alors, pour évaluer P sur 1, . . . , ω n−1 , on commence par évaluer P0 qet P1 aux
n
points 1, ω 2 , . . . , (ω 2 ) 2 −1 . On remarque alors que pour tout entier k ∈ 0, n2 − 1 ,
y
n
on a ω k+ 2 = −ω k , d’où :
     
P ω k = P0 ω 2k + ω k P1 ω 2k ,
n
     
P ω k+ 2 = P0 ω 2k − ω k P1 ω 2k .

(ii) La question précédente conduit à considérer l’Algorithme Eval présenté


ci-après. Notons T (n) sa complexité en temps. On a alors T (n) = 2T ( n2 ) + O(n).
En effet, le calcul de P0 et P1 se fait en O(n), puis on les évalue en temps 2T ( n2 ), et
on combine les valeurs obtenues en temps O(n). On obtient donc T (n) = O(n ln n)
par le master theorem.

652
Algorithmique

Algorithme 11 : Eval(P, ω).


Entrée : un tableau Jt0 , . . . , tn−1 K représentant un polynôme P ∈ Cn−1 [X]
sous forme interpolée, et ω une racine primitive n-ième de l’unité.
Sortie : le tableau S = JP (1), . . . , P (ω n−1 )K.
1 si n = 1 alors
2 renvoyer Jt0 K
3 sinon
4 décomposer P (X) = P0 (X 2 ) + XP1 (X 2 )
5 Ja0 , . . . , a n2 −1 K ← Eval(P0 , ω 2 )
6 Jb0 , . . . , b n2 −1 K ← Eval(P1 , ω 2 )
7 χ←1 /* χ va contenir les puissances successives de ω */
8 pour k = 0 à n2 − 1 faire
9 sk ← ak + χbk
10 sk+ n2 ← ak − χbk
11 χ ← ωχ
12 renvoyer Js0 , . . . , sn−1 K

d) (i) On pose xk = ω k pour tout k ∈ J0, n − 1K. Par choix de ω, les xk sont
deux à deux distincts. Ainsi, l’application ϕ définie en question b) est alors un
isomorphisme entre Cn−1 [X] et Cn . On choisit alors Mω comme la matrice de ϕ
entre les bases canoniques de ces deux espaces, qui est bien inversible et vérifie
l’égalité recherchée.
(ii) On peut remarquer que Mω est une matrice de Vandermonde dont le coef-
ficient en position (j, k) est xk−1
j−1 = ω
(j−1)(k−1) . Calculons alors le coefficient en

position (j, k) de Mω Mω−1 :


n n−1
ω (j−1)(`−1) ω −(`−1)(k−1) =
X X
ω `(j−k) .
`=1 `=0

Il s’agit de la somme des termes d’une suite géométrique de raison ω j−k . Ainsi,
n(j−k) −1
cette somme vaut n si j = k, et ωω(j−k) −1 = 0 sinon.
Ainsi, Mω Mω−1 = nIn d’où Mω−1 = n1 Mω−1 . On peut donc réutiliser l’algorithme
Eval pour passer de la seconde représentation à la première, en remplaçant ω par
son inverse, et en divisant par n. On obtient ainsi l’Algorithme Interpol ci-après.
Comme Eval fonctionne en temps O(n ln n), Interpol fonctionne avec une com-
plexité en O(n ln n) + O(n) = O(n ln n).
e) La multiplication de deux polynômes P et Q donnés sous forme évaluée S, S 0 se
fait en temps linéaire : il suffit de construire le tableau (sk s0k )k∈J0,n−1K . Cependant,
on a deg(P Q) = deg(P ) + deg(Q) 6 2n − 2 et cette inégalité est atteinte. La
donnée de seulement n valeurs évaluées de P Q ne suffit donc pas à interpoler P Q.
On doit donc évaluer P et Q en plus de points, ce qui conduit à l’Algorithme
Mult, où ω est une racine 2n-ième de l’unité, ce qui permet d’obtenir des tableaux
de taille 2n.

653
106. Transformée de Fourier rapide

Algorithme 12 : Interpol(P, ω).


Entrée : le tableau S = JP (1), . . . , P (ω n−1 )K où P ∈ Cn−1 [X], et ω une
racine primitive n-ième de l’unité.
Sortie : le tableau des coefficients de P .
1 Jt0 , . . . , tn−1 K ← Eval(S, ω −1 )
2 pour k = 0 à n − 1 faire
3 tk ← tnk
4 renvoyer Jt0 , . . . , tn−1 K

Algorithme 13 : Mult(P, Q).


Entrée : Deux polynômes P, Q ∈ Cn−1 [X] sous forme interpolée.
Sortie : Le polynôme P Q sous forme interpolée.
1 ω ← exp( iπ n)
2 Ja0 , . . . , a2n−1 K ← Eval(P, ω)
3 Jb0 , . . . , b2n−1 K ← Eval(Q, ω)
4 pour k = 0 à 2n − 1 faire
5 sk ← ak bk
6 renvoyer Interpol(Js0 , . . . , s2n−1 K, ω)

La complexité de cet algorithme est finalement de O(n ln n) car l’évaluation et


l’interpolation se font en temps O(n ln n) (d’après les questions c)(ii) et d)(ii),
et le calcul du produit sous forme évaluée prend un temps O(n).

Commentaires.
© Le cœur de ce développement est résumé dans la figure suivante. Il est recom-
mandé de faire ce dessin dès le début du développement : ceci permet de donner
les lignes directrices de la suite de l’exposé.
 
× en O(n2 )
ti t0j 
X
P = (tk )k , Q = (t0k )k PQ = 
i+j=k k
en O(n ln n)

interpolation
évaluation

en O(n ln n)

× en O(n)
(P (xk ))k , (Q(xk ))k (P Q(xk ))k

© L’algorithme de multiplication de polynômes par transformée de Fourier rapide


repose sur le fait que l’application ϕ définie en question b) est en fait un isomor-

654
Algorithmique

phisme d’algèbres, qui transforme la multiplication (coûteuse) de polynômes en


la multiplication (linéaire) de n-uplets. Toute l’astuce repose alors sur un calcul
efficace de cet isomorphisme, ce qui est explicité ici : un choix astucieux de points
d’évaluation permet d’obtenir un algorithme relevant du paradigme diviser pour
régner.
© On montre ici que ϕ est un isomorphisme en utilisant un argument classique
de dimension. On peut s’en passer en construisant explicitement les polynômes
interpolateurs de Lagrange (qui sont en fait l’image par ϕ−1 de la base canonique
de Cn ). La preuve présentée ici est donc moins technique, mais elle ne montre
que l’existence d’un polynôme interpolateur, sans le produire explicitement. Il est
cependant nécessaire de savoir retrouver rapidement ce polynôme, puisqu’il s’agit
d’une question naturelle et probable de la part du jury.
© L’interpolation de Lagrange est un outil pratique d’approximation de fonctions.
Cependant, attention au phénomène de Runge : il existe des fonctions (même
1
simples comme x 7→ 1+x 2 ) pour lesquelles la suite des polynômes obtenue en
augmentant le nombre de points d’interpolation ne converge pas (même simple-
ment) vers la fonction choisie. Intuitivement, le problème provient du fait que les
fonctions polynomiales se mettent à osciller avec une grande amplitude entre les
points d’interpolation (voir Figure 3.1 et Développement 91).

Figure 3.1 – La suite (en gris de plus en plus foncé) des polynômes
interpolateurs s’éloigne de la fonction à approcher (en noir).

© Pour évaluer un polynôme P de degré n en un point x, l’algorithme naïf requiert


un nombre quadratique de multiplications. En utilisant l’exponentiation rapide
pour calculer chacun des xk pour k ∈ J0, nK, on peut améliorer ce nombre en
O(n ln n). Enfin, on peut utiliser n multiplications pour précalculer le tableau
des xk , ce qui amène le coût total à 2n − 1 multiplications. L’algorithme de
Horner n’utilise que n multiplications, ce qui est optimal. Cet algorithme consiste

655
106. Transformée de Fourier rapide

à réécrire
n
X
P (x) = p k xk en (· · · ((pn x + pn−1 )x + pn−2 )x + · · · + p1 )x + p0 .
k=0

L’algorithme de Horner peut donc s’écrire facilement de manière récursive en


utilisant seulement n multiplications.
© La méthode de Horner ne se limite pas à l’évaluation de polynômes : on peut
l’utiliser par exemple pour calculer un polynôme translaté d’un polynôme P , c’est-
à-dire un polynôme Q tel que P (X) = Q(X + a) pour un certain a. Ceci fournit
une méthode d’approximation de racines de P . En effet, supposons qu’on dispose
d’un encadrement d’une racine entre deux nombres x0 et x0 + 1 tels que P (x0 ) et
P (x0 + 1) soient de signe contraire. On peut alors trouver un polynôme Q tel que
Q(X) = P (X + x0 ) grâce à la méthode de Horner. Quitte à multiplier chaque
coefficient de Q par une puissance de 10 bien choisie, on obtient un polynôme R
y
tel que x0 + 10 est racine de P si et seulement si y est racine de R. Il suffit
alors de tester pour quel entier x1 ∈ J0, 9K, les réels R(x1 ) et R(x1 + 1) sont de
signe contraire. On a alors amélioré l’encadrement de la racine (de l’intervalle
initial [x0 , x0 + 1[ à [x0 + x101 , x0 + x110+1 [), et on peut itérer ce processus. On obtient
ainsi un algorithme d’approximation qui fournit chaque décimale en temps O(n).
© Comme on le montre dans cet exercice, on peut multiplier deux polynômes
de degré n en temps O(n ln n). Cependant, ceci requiert de travailler avec des
opérations sur les nombres complexes pouvant être coûteuses pour garder la
précision requise. Ainsi, la constante cachée dans ce O(·) rend cet algorithme
moins efficace pour les polynômes de petit degré que par exemple l’algorithme de
Karatsuba, un autre algorithme du paradigme diviser pour régner fonctionnant
en temps O(nln2 (3) ).
© L’algorithme de Karatsuba s’adapte aussi au problème de la multiplication
d’entiers, avec la même complexité O(nln2 (3) ) où n est le nombre de bits des entiers
à multiplier. Cet algorithme est le premier algorithme sous-quadratique pour ce
problème, et remonte à 1962. Cette complexité a été améliorée par Toom et Cook
en O(nln3 (5) ), puis par Schönhage et Strassen en 1971 en O(n ln(n) ln ln(n)) en
utilisant une variante de la transformée de Fourier rapide présentée ici. Ces derniers
conjecturent aussi que la meilleure complexité serait O(n ln(n)). Un algorithme de
cette complexité a finalement été obtenu en 2019 par Harvey et van der Hoeven,
mais on ne sait pas si cette complexité est optimale.
© Le nom « transformée de Fourier rapide » provient de la notion de transformée
de Fourier discrète, qui est un analogue discret de la bien connue transformée
de Fourier. Plus précisément, étant donné un signal s de N échantillons, sa
transformée de Fourier discrète est une fonction définie pour k ∈ J0, N − 1K par
−1
1 NX 2iknπ
ŝ(k) = s(n)e N ,
N n=0

c’est-à-dire la transformée de Fourier pour la mesure de comptage sur J0, N − 1K.


L’algorithme présenté ici calcule en fait la transformée de Fourier rapide du signal

656
Algorithmique

correspondant aux coefficients de P . Connaissant les propriétés de la transformée


de Fourier usuelle, il est alors naturel d’une part de l’utiliser pour transformer un
produit de polynômes (correspondant à la convolution des signaux) en un produit
(terme à terme) des coefficients de Fourier, et d’autre part d’utiliser un calcul
similaire pour calculer la transformée de Fourier inverse.
© L’algorithme présenté ici fonctionne dans le cas de n’importe quel corps conte-
nant une racine de l’unité ω d’ordre 2n, ou même dans un anneau si 1 − ω ` est
inversible pour tout ` non multiple de 2n. Dans le cas où une telle racine n’existe
pas, on peut simplement effectuer les calculs dans K[Y ]/(Y 2n − 1) au lieu de K.
Cependant, ce nouvel anneau ne satisfait pas la condition précédente (Y 2n − 1
n’étant pas forcément irréductible sur K). Une solution consiste à considérer
plutôt le quotient K[Y ]/Φ2n où Φ2n est le polynôme cyclotomique d’ordre 2n.
L’inconvénient de cette méthode provient des opérations à effectuer dans cet
anneau, qui sont plus coûteuses que le O(1) des opérations dans K. On peut néan-
moins obtenir une complexité de l’ordre de O(n ln(n) ln ln(n)) grâce à l’algorithme
de Schönhage-Strassen qui calcule un produit 2k P Q pour un certain entier k.
Ainsi, en caractéristique différente de 2, on peut obtenir le produit P Q par cet
algorithme. Dans le cas de la caractéristique 2, on peut utiliser une variante (qui
découpe en trois parties les polynômes au lieu de les découper en deux) calculant
3` P Q pour un certain entier `. Quitte à utiliser une relation de Bézout entre 2k
et 3` , on peut alors récupérer le produit P Q.

Questions.
1. Expliciter la réciproque de l’application ϕ définie en question b).
2. Calculer la somme et le produit des racines n-ièmes de l’unité.
3. Soit Φn le n-ième polynôme cyclotomique, c’est-à-dire le produit des (X − ζ)
où ζ parcourt l’ensemble des racines primitives n-ièmes de l’unité. Montrer que
Y
Xn − 1 = Φd
d|n

et en déduire que le produit des racines primitives n-ièmes de l’unité est 1 ou −1.
4. Calculer le degré dn de Φn , et montrer que Φn est un polynôme réciproque,
c’est-à-dire que pour tout i ∈ J0, dn K, les coefficients de X i et de X dn −i dans Φn
sont égaux.
5. À l’aide de la formule d’inversion de Möbius, déterminer une expression de Φn
comme un quotient de produits de polynômes de la forme X d − 1. En déduire que
Φn est à coefficients entiers.
6. Justifier qu’on peut supposer que n est une puissance de 2 sans affecter la
complexité de l’algorithme.
7. Soit A un anneau et a1 , . . . , an des éléments de A. Calculer le déterminant et
l’inverse (lorsqu’il existe) de la matrice de Vandermonde (aji )i,j∈J1,nK .

657
107. B-arbres

Développement 107 (B-arbres FF)

Un B-arbre d’ordre t est un arbre T possédant les propriétés suivantes :


1. Chaque nœud x contient les attributs ci-après :
(a) le booléen x.f euille indiquant si le nœud x est une feuille ;
(b) le nombre de clés x.n conservées dans le nœud x (le nœud x est alors
d’arité n + 1 si x n’est pas une feuille) ;
(c) le tableau trié des x.n clés de x : Jx.cle1 , . . . , x.clen K ;
(d) le tableau des x.n + 1 fils de x : Jx.f ils0 , . . . , x.f ilsn K (le tableau est vide
si x est une feuille) ;
2. Les clés stockées dans les arbres fils vérifient la propriété suivante :
k0 6 x.cle1 6 k1 6 x.cle2 6 · · · 6 kn−1 6 x.clen 6 kn

pour toute clé ki apparaissant dans le fils x.f ilsi de x.


3. Toutes les feuilles ont la même profondeur, qui est la hauteur h de l’arbre ;
4. Pour tout nœud x qui n’est pas la racine, on a t − 1 6 x.n 6 2t − 1 et pour la
racine r, on a 1 6 r.n 6 2t − 1.
Exemple de B-arbre d’ordre 2 et représentant {A, B, D, J, K, M, S, T, W } :

J M

ABD K ST W

On veut présenter des algorithmes de recherche et d’insertion dans un B-arbre.


Vu le contexte de leur utilisation (voir commentaires), nous nous intéressons
aux opérations d’écriture et de lecture dans une mémoire auxiliaire où le
B-arbre est stocké. On suppose données deux opérations Écrire et Lire. La
complexité des algorithmes sera exprimée en fonction de ces deux opérations.
a) Généraliser aux B-arbres l’algorithme Recherche des arbres de recherche
classiques.
Pour évaluer la complexité de l’algorithme Recherche, on cherche une borne
sur la hauteur d’un B-arbre en fonction du nombre d’éléments qu’il contient.
b) Montrer que, pour un B-arbre d’ordre t > 2 contenant n clés, sa hauteur h
vérifie 
n+1

h 6 lnt .
2
En déduire la complexité de l’algorithme Recherche.
c) Pourquoi l’algorithme d’insertion dans un arbre binaire de recherche n’est
pas correct pour un B-arbre ? Écrire un algorithme Insertion qui insère, si
nécessaire, un élément dans un B-arbre en conservant la structure de B-arbre.

Leçons concernées : 901, 921, 932

658
Algorithmique

La structure de B-arbre est une structure de données de dictionnaire (recherche,


insertion et suppression), ainsi ce développement entre naturellement dans les
leçons 901 et 921. De plus, lors du stockage de bases de données sur un disque
externe, on est amené à vouloir une structure optimisée afin de minimiser les coûts
de recherche, d’insertion et de suppression en terme d’accès au disque externe. La
structure de B-arbre répond à ses critères et ainsi constitue une illustration de la
leçon 932 dédiée aux bases de données. Pour justifier pleinement cette insertion, il
peut être judicieux de faire toute une partie « optimisation des bases de données »
dans la leçon 932.

Correction.
Pour tous les algorithmes, on considère les hypothèses suivantes :
• La racine du B-arbre se trouve toujours en mémoire principale : on pourra
l’appeler directement par T.racine ; cependant, il faudra effectuer une opé-
ration Écrire lors de sa modification.
• Tout nœud passé en paramètre sera déjà en mémoire principale, l’appel à
l’opération Lire aura été fait.
a) La recherche dans un B-arbre est analogue à la recherche dans un arbre de
recherche classique pour lequel ces nœuds contiennent des intervalles de clés. On
commence alors à chercher dans quel intervalle on se trouve, puis on descend dans
l’arbre.

Algorithme 14 : Recherche(x,c).
Entrée : un nœud x et la clé c à chercher.
Sortie : le nœud y et la place de c dans le nœud y si c est dans l’arbre, Nil
sinon.
1 i←1 /* recherche de l’intervalle dans lequel se trouve c */
2 tant que i 6 x.n et c > x.clei faire
3 i←i+1
4 si i 6 x.n et c = x.clei alors /* c trouvée dans le nœud x */
5 renvoyer (x, i)
6 si x.f euille alors /* absence de c dans l’arbre */
7 renvoyer Nil
8 Lire(x.f ilsi−1 )
9 renvoyer Recherche(x.f ilsi−1 , c)

b) Par définition d’un B-arbre, la racine a au moins une clé et les autres nœuds
ont au moins t − 1 clés. Ainsi, T possède au moins 2 nœuds à la profondeur 1,
2t nœuds à la profondeur 2, etc. Par récurrence, on montre que T possède au
moins 2ti−1 nœuds à la profondeur i. On en déduit que
h
!
X
i−1 th − 1
n > 1 + (t − 1) 2t = 1 + 2(t − 1) = 2th − 1.
i=1
t−1

659
107. B-arbres

n+1 n+1
 
On trouve alors th 6 , puis h 6 lnt .
2 2

On fait un seul Lire dans l’algorithme et l’appel récursif se fait sur un arbre de
hauteur strictement plus petite. La complexité de l’algorithme Recherche est
donc en O(h) où h est la hauteur de l’arbre. Ainsi, on peut borner la complexité
par O(ln n).

c) Dans un arbre binaire de recherche, on ajoute une feuille au bon endroit pour
préserver la structure d’arbre binaire de recherche. Cependant, pour les B-arbres,
on ne peut pas juste ajouter une nouvelle feuille, puisque les feuilles doivent être
toutes à la même profondeur. On est alors obligé d’insérer l’élément dans un nœud
déjà existant.
Pour ajouter une clé x dans un B-arbre, on essaye de l’insérer au bon endroit
dans une des feuilles f de l’arbre. Si f contient déjà un tableau de 2t − 1 clés, on
sépare f en deux feuilles contenant les t − 1 plus petites (resp. grandes) clés du
tableau, et on insère la clé médiane au bon endroit dans le père de f . On peut
alors ajouter notre élément x dans l’une des deux feuilles que l’on a créée. On
réitère le processus tant qu’on essaye d’insérer un élément dans un nœud déjà
plein.
Si on remonte l’arbre jusqu’à la racine sans trouver de nœud non plein, on va
alors séparer la racine en deux et créer un nœud constitué uniquement de la clé
médiane qui sera la nouvelle racine de l’arbre et qui aura pour fils les deux moitiés
du nœud initial. La hauteur de l’arbre va alors augmenter de 1.
On représente cela ci-après sur un exemple.

J M Partage BJ M

ABDE K ST W A DE K ST W
Insertion de E dans l’arbre de l’énoncé.

BJ M Partage BJ M T

A DE K ST U W A DE K S U W

J
Partage
de la racine
B M T

A DE K S U W
Insertion de U dans l’arbre précédent.

660
Algorithmique

Il nous faudra au pire deux passages dans l’arbre : un pour trouver l’emplacement
de la nouvelle clé et un pour remonter un potentiel élément quand les nœuds sont
pleins. Pour éviter de faire deux passages, on peut, pendant la descente (recherche
de l’emplacement) séparer tous les nœuds qui sont pleins. Ainsi on aura besoin
que d’un seul passage.
Pour implémenter l’insertion, on utilise deux fonctions auxiliaires : Partage qui
sépare un nœud plein et InsertionNonPlein qui insère un élément dans un
sous-arbre dont la racine n’est pas pleine. On commence par écrire la fonction
Partage qui sépare un sous-arbre dont la racine n’est pas pleine.

Algorithme 15 : Partage(x,i).
Entrée : un nœud x non plein et un paramètre i qui indique le fils x.f ilsi
plein à séparer.
1 z ← NœudVide()
2 y ← x.f ilsi
3 z.f euille ← y.f euille
4 z.n ← t − 1
5 pour j = 1 à t − 1 faire /* création des clés de z */
6 z.clej ← y.clej+t
7 si non y.f euille alors
8 pour j = 0 à t − 1 faire /* création des fils de z */
9 z.f ilsj ← y.f ilsj+t+1

10 y.n ← t − 1
11 pour j = x.n décroissant jusqu’à i + 1 faire
12 x.f ilsj+1 ← x.f ilsj /* modification des fils de x */
13 x.f ilsi+1 ← z
14 pour j = x.n décroissant jusqu’à i + 1 faire
15 x.clej+1 ← x.clej /* modification des clés de x */
16 x.clei+1 ← y.clet
17 x.n ← x.n + 1
18 Écrire(x)
19 Écrire(y)
20 Écrire(z)

La complexité de cet algorithme est en O(1) lectures-écritures sur le disque.


On définit InsertionNonPlein qui insère un élément k dans un nœud x qui
est supposé non plein. La complexité de cet algorithme est en O(ln n) = O(h)
lectures-écritures sur le disque (on ne fait que O(1) de lectures-écritures entre
deux appels récursifs).
La combinaison de ces deux fonctions permet d’implémenter Insertion qui insère
un élément k en une seule descente de l’arbre. La complexité de cet algorithme
est alors en O(h) = O(ln n) lectures-écritures sur le disque.

661
107. B-arbres

Algorithme 16 : InsertionNonPlein(x, k).


Entrée : un nœud x non-plein et un élément k à insérer dans l’arbre de
racine x.
1 i ← x.n
2 si x.f euille alors /* insertion de k dans la feuille x */
3 tant que i > 1 et k < x.clei faire
4 x.clei+1 ← x.clei ;
5 i←i−1
6 x.clei+1 ← k ;
7 x.n ← x.n + 1 ;
8 Écrire(x)
9 sinon /* insertion de k dans un fils de x */
10 tant que i > 1 et k < x.clei faire
11 i←i−1
12 i ← i + 1;
13 Lire(x.f ilsi ) ;
14 si x.f ilsi .n = 2t − 1 alors
15 Partage(x, i) ;
16 si k > x.clei alors
17 i←i+1

18 InsertionNonPlein(x.f ilsi , k)

Algorithme 17 : Insertion(T, k).


Entrée : un B-arbre T et l’élément k à insérer.
Sortie : le B-arbre T avec l’élément k inséré.
1 r ← T.racine
2 si r.n = 2t − 1 alors /* racine pleine */
3 s ← NœudVide()
4 T.racine ← s
5 s.f euille ← Faux
6 s.n ← 0
7 s.f ils1 ← r /* création d’un nœud père s pour r */
8 Partage(s, 1)
9 InsertionNonPlein(s, k)
10 sinon
11 InsertionNonPlein(r, k)
12 renvoyer T

662
Algorithmique

Commentaires.
© Ce développement est très long surtout si on veut écrire les algorithmes d’inser-
tion (FFF). Cependant, il peut consister en l’écriture de l’algorithme Recherche,
puis la présentation sur un exemple de l’insertion dans un B-arbre, le but étant
de convaincre le jury que l’algorithme d’insertion est compris sans s’embarquer
dans l’écriture formelle de l’algorithme (FF).
© L’opération de suppression est plus complexe que l’insertion. Comme pour
l’insertion, il faut faire attention à préserver les propriétés du B-arbre notamment
le nombre minimal de clés dans un nœud. La suppression est expliquée dans
l’ouvrage [CLRS10].
© On n’a stocké que des clés dans les nœuds, cependant en pratique on stocke
des couples (clé, valeur) et on fait la recherche sur la composante « clé » afin de
pouvoir donner la valeur associée à cette clé.
© En pratique, on utilise des pointeurs pour les x.f ilsi et quand on effectue
l’action Lire, on charge donc qu’un seul nœud en mémoire vive et non tous les
sous-arbres de racines x.f ilsi .
© Les bases de données sont en général très volumineuses et donc stockées sur un
disque externe. Quand on travaille sur une base de données, on ne peut en importer
que quelques fragments dans la mémoire vive, on cherche donc à minimiser le
nombre d’actions sur un disque externe (c’est ce qui prend le plus de temps, avec
un facteur d’un million entre un accès au disque et d’une opération sur processeur).
La structure de données que l’on privilégie est un arbre de recherche. On cherche
alors un arbre avec une ramification importante ce qui nous permet de minimiser
le nombre d’appels au disque puisque la hauteur sera plus petite. En pratique on
stocke une page (unité de transfert avec le disque dur) sur un nœud. Dans ce cas,
on maximise l’impact de chaque accès au disque. De plus, l’ordre de grandeur
de t est choisi en fonction du nombre de tuples que peut contenir une page du
disque. Les opérations Lire et Écrire permettent donc d’importer et d’exporter
des pages sur le disque externe.
© Pour la complexité totale processeur, l’algorithme Partage est en O(t) à cause
des deux boucles pour et les autres algorithmes sont en O(th) = O(t ln n). Pour
l’algorithme Recherche, comme n < 2t, les boucles tant que s’effectuent en O(t),
ce qui donne le temps processeur total en O(th) = O(t ln n).
© Pour implémenter la structure de dictionnaire, les formalismes arborescents
sont nombreux. Ils permettent généralement d’obtenir des complexités linéaires en
leur hauteur. Ainsi, on utilise souvent des arbres satisfaisant certaines propriétés
d’équilibrage, ce qui permet d’obtenir une hauteur logarithmique en le nombre
de clés présentes dans le dictionnaire. Une des implémentations la plus naturelle
est celle d’arbre de recherche équilibré (AVL), pour laquelle on a recours à des
opérations de « rotation » lorsqu’on insère ou supprime un élément afin de préserver
l’équilibrage. Ce type de structures a ensuite été raffiné : on peut par exemple
citer les arbres rouge/noir, ou les arbres 2 − 3 − 4 qui leurs sont équivalents.
© L’inconvénient de l’algorithme Insertion est le fait que l’on partage parfois
inutilement des nœuds lors de la descente, cependant ce n’est pas grave en

663
107. B-arbres

complexité amortie (i.e. parce qu’on aurait dû les partager quand même si on
avait considéré une séquence assez longue d’insertions).

Questions.
1. Donner les algorithmes de recherche, d’insertion et de suppression pour un
arbre binaire de recherche.
2. Sur l’exemple de l’énoncé, supprimer l’élément J du B-arbre en préservant sa
structure.
3. Implémenter la structure de B-arbre, ainsi que les différents algorithmes qui
s’y rapportent.

664
Modèles de calcul

« Une machine peut-elle prouver des théorèmes ? » est, en substance, la question


posée par Leibniz au XVIIe siècle. Cette question fut formalisée par Hilbert en
1928 et devint le problème de la décision, ou Entscheidungsproblem. En termes
modernes, il s’agit de déterminer si on peut tester algorithmiquement la validité
d’un énoncé mathématique. Church et Turing apportèrent indépendamment en
1936 une réponse négative à ce problème. Pour le résoudre, Alonzo Church et
Alan Turing durent définir précisément la notion d’algorithme et de fonction
calculable. Church développe le λ-calcul, ce qui lui permet d’établir un lien avec
les travaux de Gödel. Turing, quant à lui, formalise la notion d’algorithme comme
un ensemble fini de règles très simples à appliquer, ce qui conduisit au formalisme
(équivalent) des machines de Turing.
D’autres formalismes ont été introduits, comme les fonctions µ-récursives décrites
par Herbrand, ou encore (plus récemment) les automates cellulaires et les machines
à RAM (une formalisation des ordinateurs). Turing et Kleene montrent en 1938
que les trois formalismes précédents (machines de Turing, λ-calcul et fonctions
µ-récursives) sont en fait équivalents : ils fournissent la même définition de
calculabilité (voir Développements 109 et 111). Ce résultat montre la robustesse
de cette définition, et étaye la thèse de Church-Turing, c’est-à-dire l’idée selon
laquelle cette définition est la « bonne » définition de la notion de calculabilité.
Ces travaux sont à la base de la théorie de la calculabilité, la branche de l’informa-
tique théorique dont l’objet d’étude sont les fonctions calculables. Dans cette voie,
les questions majeures visent à classifier les fonctions selon leur « complexité »
une fois que l’on a déterminé si elles sont calculables ou non : pour les fonctions
calculables, il s’agit de déterminer à quel point il est complexe de les calculer
effectivement ; pour les fonctions non-calculables, il s’agit de déterminer leur
« degré » de non-calculabilité. Ces notions se transposent aux ensembles (en se
ramenant au cas des ensembles d’entiers et en considérant la calculabilité de
leur indicatrice), et aux problèmes de décision. On parle alors d’ensembles et de
problèmes décidables.
Au programme de l’agrégation figurent les trois formalismes fondateurs : les
machines de Turing, le λ-calcul et les fonctions µ-récursives. Nombre de leurs
variantes (équivalentes) existent dans la littérature, et les conventions et notations
dans ce domaine varient d’un auteur à l’autre. Ce chapitre est ainsi préfacé
d’un résumé des notations considérées, ainsi que de rappels de quelques résultats
classiques, qui n’ont pas vocation à se substituer à un cours.
1 Machines de Turing
Définitions
Les machines de Turing sont des objets permettant de formaliser la notion de calcul
avec une approche mécanique. Chaque machine utilise une mémoire sous la forme
d’un ruban bi-infini sur lequel elle peut lire et écrire des symboles grâce à une tête
de lecture. Un calcul est ainsi réduit à une succession d’étapes élémentaires : lire
un symbole puis appliquer une règle (parmi un ensemble fini de règles) consistant
à écrire un symbole et déplacer la tête de lecture sur une case adjacente.
Définition 3 (Machine de Turing)
Une machine de Turing est un quintuplet (Q, Σ, q0 , F, δ) où :
• Q est un ensemble fini d’états,
• Σ est un alphabet fini contenant un symbole spécial #,
• q0 ∈ Q est un état initial,
• F ⊂ Q est l’ensemble des états acceptants,
• δ ⊂ Q × Σ × Q × Σ × {←, →} est l’ensemble des transitions.

(0, 0, →) (0, 0, ←)
(1, 1, →) (1, 0, ←) (1, 1, ←)

(#, #, ←) (0, 1, ←)
q0 q1 q2
(#, 1, ←)

Figure 3.2 – Représentation d’une machine de Turing : chaque sommet


représente un état et chaque arc de q à q 0 étiqueté par (a, b, d) représente la
transition (q, a, q 0 , b, d). Les états initiaux (resp. acceptants) sont indiqués par des
arcs sans origine (resp. destination).

Définition 4 (Configuration)
Soit M = (Q, Σ, q0 , F, δ) une machine de Turing. On appelle configuration
de M tout triplet (q, u, v) où q ∈ Q est u, v ∈ Σ∗ .

Pour alléger les notations, on notera uqv la configuration (q, u, v). La configuration
uqv représente l’état courant de la machine M : sur le ruban figure le mot
infini · · · #uv# · · · , la tête de lecture est positionnée sur la première lettre de v#
et la machine se trouve dans l’état q (voir Figure 3.3).
Pour décrire formellement le fonctionnement d’une machine de Turing, on définit
comment passer d’une configuration à une autre. Chaque transition (q, a, q 0 , a0 , d)
modélise l’opération élémentaire suivante : si on se trouve dans l’état q et on lit le
caractère a sur le ruban, on entre dans l’état q 0 , on écrit a0 à la place de a, puis
on se déplace d’une case dans la direction indiquée par d.

666
Modèles de calcul

··· # a b c a b # ···

Figure 3.3 – La configuration abcqab.

Définition 5 (Configurations accessibles)


Soit M = (Q, Σ, q0 , F, δ) une machine de Turing et u1 q1 v1 , u2 q2 v2 deux confi-
gurations. On dit que u2 q2 v2 est accessible en un pas depuis u1 q1 v1 et on note
u1 q1 v1 → u2 q2 v2 si l’une des conditions suivantes est vérifiée (voir Figure 3.4) :
• v1 = av2 et u2 = u1 b pour a, b ∈ Σ vérifiant (q1 , a, q2 , b, →) ∈ δ.
• v1 = av, v2 = cbv et u1 = u2 c pour v ∈ Σ∗ et a, b, c ∈ Σ vérifiant
(q1 , a, q2 , b, ←) ∈ δ.
Si C et C 0 sont des configurations, on dit que C 0 est accessible en k pas et on
note C →k C 0 s’il existe une suite de configurations C0 , . . . , Ck avec
C = C0 → C1 → · · · → Ck = C 0 .
La configuration C 0 est accessible depuis C si elle est accessible en k pas pour
un certain entier k ∈ N. On note alors C →∗ C 0 .
q

··· # a b c a b # ···

u1 v1
q0 q0

··· # a b c b b # ··· ··· # a b c b b # ···

u2 v2 u2 v2

Figure 3.4 – Deux configurations accessibles en un pas depuis abcqab en


utilisant une des transitions (q, a, q 0 , b, →) ou (q, a, q 0 , b, ←).

Définition 6 (Exécution, calcul)


Soit M = (Q, Σ, q0 , F, δ) une machine de Turing et w ∈ Σ∗ . Un calcul (ou une
exécution) de M sur l’entrée w est une suite (finie ou infinie) de configurations
C0 → C1 → · · · telle que C0 = q0 w.
Un calcul est dit acceptant s’il se termine dans une configuration C = uqv
avec q ∈ F et de longueur maximale, c’est-à-dire qu’il n’existe pas de configu-
ration C 0 telle que C → C 0 .

On peut maintenant donner la définition de calculabilité au sens des machines


de Turing. Informellement, il s’agit d’étudier l’état du ruban d’une machine de
Turing à la fin d’une exécution sur un mot d’entrée donné.

667
Définition 7 (Fonction calculable)
Une fonction partielle f : Σ∗ → Σ∗ est Turing-calculable s’il existe une machine
de Turing M dont l’alphabet contient Σ qui calcule f , c’est-à-dire que pour
tout w ∈ Σ∗ :
• si f (w) est défini, toutes les exécutions de M sur w sont finies et se terminent
dans une configuration uqv avec uv = f (w).
• si f (w) n’est pas défini, toutes les exécutions de M sur w sont infinies.

Exemple : la machine de Turing représentée en Figure 3.2 calcule la fonction


successeur sur les entiers écrits en binaire sur l’alphabet {0, 1}.
De nombreuses variantes des machines de Turing existent. Outre la version
proposée en définition en début de section, on peut ajouter des restrictions (avoir
un ruban fini à gauche) ou enrichir le modèle (autoriser plusieurs rubans, permettre
à la tête de lecture de rester sur place, etc.). On peut facilement montrer que tous
ces modèles sont équivalents, au sens où toute fonction calculable par l’une de ces
variantes est aussi calculable par n’importe quelle autre.
Une restriction plus intéressante est fournie par l’utilisation du déterminisme.
On peut montrer que cette variante est à nouveau équivalente : toute fonction
Turing-calculable est calculable par une machine de Turing déterministe.
Définition 8 (Déterminisme)
Une machine de Turing (Q, Σ, q0 , F, δ) est dite déterministe si elle a au plus
un calcul de longueur maximale sur chaque entrée. Dans ce cas, on peut voir δ
comme une fonction partielle de Q × Σ à valeurs dans Q × Σ × {←, →}.

Langages récursifs et problèmes décidables


En considérant les machines de Turing sous un angle différent, on peut obtenir
une autre vision de la calculabilité. Comme pour les automates qui acceptent ou
refusent un mot selon si sa lecture aboutit à un état final, les machines de Turing
permettent de définir des langages.
Définition 9 (Langage accepté)
Soit M = (Q, Σ, q0 , F, δ) une machine de Turing. Le langage accepté par M est
l’ensemble L(M ) des mots w ∈ Σ∗ tels qu’il existe un calcul acceptant de M
sur w.
Définition 10 (Langage décidé)
Un langage L ⊂ Σ∗ est décidé par une machine de Turing M si L = L(M ) et
tous les calculs de M sont finis.
Définition 11 (Langage récursif, langage récursivement énumérable)
• Un langage est dit récursif (ou décidable) s’il est décidé par une machine de
Turing. L’ensemble des langages récursifs est noté R.
• Un langage est dit récursivement énumérable s’il est accepté par une machine
de Turing. L’ensemble des langages récursivement énumérables est noté RE.

668
Modèles de calcul

L’inclusion R ⊂ RE est stricte : on pourra trouver de nombreux exemples de


problèmes récursivement énumérables mais non décidables en page 855.
Remarque : le nom « récursivement énumérable » provient du fait qu’un langage L
est récursivement énumérable si et seulement si on peut « énumérer » les mots
qu’il contient, c’est-à-dire trouver une machine de Turing qui écrit un à un les
mots de L sur son ruban, en les séparant par # et sans revenir sur un mot déjà
écrit. Une telle machine est parfois nommée énumérateur.
Les fonctions Turing-calculables et les langages récursivement énumérables sont
deux facettes de la même notion. En effet, un langage est récursivement énumérable
si et seulement si son indicatrice est Turing-calculable. Réciproquement, une
fonction f est Turing-calculable si et seulement si son graphe

{hw, f (w)i : w ∈ Σ∗ }

est récursivement énumérable (où hx, yi représente un encodage permettant de


représenter un couple (x, y) par un mot de Σ∗ ).
En pratique on parle plus couramment de problème de décision, et non de langage.
Dans ce livre, ces problèmes sont représentés sous la forme suivante pour un
prédicat P donné :
(
entrée : un objet x ;
Problème
sortie : oui si P (x), non sinon.

Cette terminologie n’est qu’une notation désignant l’ensemble {x : P (x)}. Quitte


à considérer un encodage hxi de l’objet x dans un alphabet donné (par exemple
en binaire), on parle alors de problème décidable lorsque le langage h{x : P (x)}i
est décidable.
Exemple : le problème du cycle hamiltonien est représenté par le langage

{hHi : H est hamiltonien}.

En particulier, tester si un graphe G est hamiltonien revient à tester si hGi


appartient à ce langage.
En algorithmique, on rencontre souvent d’autres types de problèmes, dits problèmes
d’optimisation, ayant la forme suivante.

entrée :

 un objet x ;
PbOpt sortie : le plus petit entier k tel que (x, k)


 satisfait un prédicat P .

La notion de décidabilité s’étend à ce type de problèmes en considérant le problème


de décision associé, à savoir :
(
entrée : un objet x et un entier k ;
PbDec
sortie : oui s’il existe un entier ` 6 k tel que P (x, `), non sinon.

669
Complexité
Le formalisme mécanique des machines de Turing permet d’étudier plus finement
comment les calculs se déroulent. En particulier, on peut facilement quantifier
les ressources nécessaires pour effectuer un calcul : on s’intéresse généralement
au nombre de pas de calculs et du nombre de cases utilisées sur le ruban. On
peut alors classifier les problèmes selon leur complexité, c’est-à-dire la quantité
de ressources nécessaires pour les résoudre. Cette analyse n’a de sens que pour
les problèmes décidables, c’est pourquoi les machines de Turing considérées dans
cette section n’ont que des calculs finis.
Définition 12 (Complexité temporelle)
Soit C0 → · · · → Ck un calcul d’une machine de Turing M sur un mot w.
• L’entier k est appelé la longueur du calcul C0 → · · · → Ck .
• Le temps de calcul tM (w) de M sur w est le maximum des longueurs des
calculs de M sur w.
• La complexité temporelle de M est la fonction tM : N → N définie par

∀n ∈ N, tM (n) = max tM (w) = max max{k : ∃C, q0 w →k C}.


|w|=n |w|=n

Définition 13 (Complexité spatiale)


Soit C = uqv une configuration d’une machine de Turing M , où on suppose
que u ne commence pas par # et v ne finit pas par #.
• La taille |C| de C est l’entier |u| + |v|.
• Si w est un mot, l’espace de calcul sM (w) de M sur w est le maximum des
tailles des configurations accessibles en exécutant M sur w.
• La complexité spatiale de M est la fonction sM : N → N définie par

∀n ∈ N, sM (n) = max sM (w) = max max{|D| : q0 w →∗ D}.


|w|=n |w|=n

Ces deux complexités sont reliées par les inégalités suivantes : pour toute machine
de Turing M , il existe une constante K > 0 telle que

sM (n) 6 max(n, tM (n)) et tM (n) 6 2KsM (n) . (1)

En effet, la première inégalité provient du fait qu’il faut au moins tM (n) pas de
calcul pour pouvoir remplir sM (n) cases, et que le mot d’entrée occupe déjà n
cases dans la configuration initiale de tout calcul de M . La deuxième inégalité est
une conséquence du principe des tiroirs : le nombre de configurations de taille au
plus sM (n) est borné par 2KsM (n) pour un certain entier K. Si tM (n) excède ce
nombre, il existe un calcul passant deux fois par la même configuration, ce qui
permet de construire un calcul infini. Ceci contredit le fait que M s’arrête sur
toute entrée.
Généralement, on ne s’intéresse qu’au comportement asymptotique des complexités,
et seulement à une constante multiplicative près. Ce fait est justifié par le théorème
d’accélération présenté ci-après.

670
Modèles de calcul

Théorème 1 (d’accélération)
Soit M une machine de Turing décidant le langage L, et dont la complexité
temporelle vérifie tM (n) = Ω(n). Alors, pour tout entier k ∈ N∗ , il existe une
machine de Turing M 0 qui décide L et telle que tM 0 (n) 6 tMk(n) .

La preuve de ce théorème repose sur l’idée suivante : on peut encoder k pas de


calcul de M en un pas de calcul d’une machine M 0 quitte à considérer un alphabet
plus grand. Cette idée peut se retrouver en pratique : elle explique l’intérêt des
architectures 64-bits, plus rapides que celles 32-bits.
Définition 14 (Classes de complexité temporelle)
Soit f : N → N.
• On note Time(f (n)) l’ensemble des langages décidés par une machine de
Turing M déterministe telle que tM (n) = O(f (n)).
• On note NTime(f (n)) l’ensemble des langages décidés par une machine de
Turing M telle que tM (n) = O(f (n)).
• La classe des langages décidés par des machines déterministes en temps
polynomial est  
[
P= Time nk .
k>0

• La classe des langages décidés en temps polynomial est


[  
NP = NTime nk
k>0

• La classe des langages décidés par des machines déterministes en temps


exponentiel est  k
[
Exp = Time 2n
k>0

• La classe des langages décidés en temps exponentiel est


[  k

NExp = NTime 2n
k>0

On définit de même les classes Space(f (n)), NSpace(f (n)), PSpace, NPSpace,
ExpSpace et NExpSpace.
Définition 15 (Complémentaire)
Étant donnée une classe X, on note co-X la classe formée des complémentaires
des langages de X.

Dans le cas des classes X définies à l’aide de machines déterministes, on a directe-


ment X = co-X. C’est aussi le cas pour les classes de complexité spatiale assez
grandes, d’après le théorème suivant.
Théorème 2 (Immerman–Szelepcsényi)
Soit L un langage décidé par une machine de Turing M dont la complexité
spatiale vérifie sM (n) = Ω(ln n). Alors il existe une machine de Turing M 0
décidant le complémentaire de L et telle que sM 0 (n) = O(sM (n)).

671
Exemple : les classes PSpace et co-PSpace coïncident.
Toujours dans le cas des classes de complexité spatiale, on peut établir d’autres
égalités entre versions déterministes et non-déterministes grâce au théorème de
Savitch.
Théorème 3 (Savitch)
Soit L un langage décidé par une machine de Turing M telle que sM (n) = Ω(n).
Alors il existe une machine de Turing déterministe M 0 décidant L telle que
sM 0 (n) = O(sM (n)2 ).

Exemple : les classes PSpace et NPSpace coïncident.


Les théorèmes précédents permettent ainsi de montrer l’égalité de certaines classes
définies ci-avant. On peut aussi établir des inclusions entre les classes restantes, en
utilisant (1) et la proposition suivante. Les inclusions connues sont représentées
sur la Figure 3.5.
Proposition 2
Soit L un langage décidé par une machine de Turing M . Alors il existe une
machine de Turing déterministe M 0 décidant L telle que tM 0 (n) = 2O(tM (n)) .

ExpSpace, NExpSpace, co-ExpSpace, co-NExpSpace

NExp co-NExp

Exp, co-Exp

PSpace, NPSpace, co-PSpace, co-NPSpace

NP co-NP

P, co-P

Figure 3.5 – Inclusions entre les classes de complexité usuelles.

De nombreuses autres classes de complexité sont présentes dans la littérature,


cependant le programme de l’agrégation est surtout focalisé sur P et NP, les
autres classes introduites dans cette introduction se situant plutôt à la frontière
du programme. Plus d’informations sur ces classes, notamment la description
de leurs problèmes emblématiques et la présentation de la notion de réduction
(capitale pour étudier ces classes), sont fournies en pages 859 et 863.

672
Modèles de calcul

Le cas de l’espace logarithmique


Si w est un mot de taille n, tout calcul d’une machine de Turing M sur w utilise
un espace au moins n (puisque w occupe n cases du ruban dès la configuration
initiale). Ceci pose problème lorsqu’on veut par exemple différencier les langages
décidables en place (c’est-à-dire sans utiliser de mémoire additionnelle) de ceux
qui nécessitent un espace de travail. Pour résoudre ce problème, et pouvoir donner
une bonne définition de Space(f (n)) quand f est sous-linéaire, on doit modifier
les machines de Turing considérées : chaque machine a un ruban d’entrée où elle
peut lire mais pas écrire, et un ruban de travail. Dans la configuration initiale, on
écrit l’entrée sur le ruban d’entrée et, lors des calculs, on ne comptabilise que le
nombre de cases utilisées sur le ruban de travail.
Cette modification permet alors de définir
L = Space(ln n) et NL = NSpace(ln n).
Ces deux classes vérifient les relations suivantes :
co-L = L ⊂ NL = co-NL ⊂ P.

2 Fonctions récursives primitives et µ-récursives


Les fonctions récursives constituent une vision inductive de la notion de fonction
calculable. À partir d’une ensemble de fonctions calculables de base, on en construit
de nouvelles en utilisant des opérations comme la composition, qui permettent
de construire de nouvelles fonctions calculables. Plus précisément, on définit
inductivement[l’ensemble des fonctions primitives récursives comme le plus petit
ensemble de F(Nk , N) qui :
k∈N
• contient les fonctions de bases,
• est clos par composition,
• est clos par récursion primitive.

Fonctions de bases
Les fonctions de base des fonctions primitives récursives sont :
• la fonction identiquement nulle d’arité 0
zéro : ∅ −→ N
;
() 7−→ 0
• la fonction successeur d’arité 1
succ : N −→ N
;
x 7−→ x + 1
• les projections d’arité n
πin : Nn −→ N
;
(x1 , . . . , xn ) 7−→ xi
en particulier, π11 est l’identité.

673
Composition
La composition d’une fonction f d’arité p et de p fonctions g1 , . . . , gp d’arité n est
la fonction d’arité n définie par :

comp(f, g1 , . . . , gp ) : Nn −→ N
~x = (x1 , . . . , xn ) 7−→ f (g1 (~x), . . . , gp (~x)).

On notera f (g1 , . . . , gp ) pour comp(f, g1 , . . . , gp ).

Récursion primitive
La récursion primitive rec(f, g) d’une fonction f d’arité n et d’une fonction g
d’arité n + 2 est la fonction d’arité n + 1 définie par :

rec(f, g) : Nn × N −→ N
(
f (~x) si k = 0,
(~x, k) 7−→
g(~x, k − 1, rec(f, g)(~x, k − 1)) sinon.

Quelques exemples
• La fonction un : () 7−→ 1 s’écrit

un = succ (zero) .

On peut définir les fonctions constantes en itérant suffisamment de fois la


fonction succ.
• La fonction plus : (x, y) 7−→ x + y s’écrit
 
plus = rec π11 , succ(π33 ) .

On peut définir la somme de n termes en itérant n fois la fonction plus.


• La fonction mult : (x, y) 7−→ x × y s’écrit
 
mult = rec zero, plus(π13 , π33 ) .

On peut définir le produit de n facteurs en itérant n fois la fonction mult.


• La fonction power : (x, y) 7−→ xy s’écrit
 
power = rec un, mult(π13 , π33 ) .

• La fonction pred : x 7−→ max(x − 1, 0) s’écrit


 
pred = rec zero, π23 .

• La fonction diff : (x, y) 7−→ max(x − y, 0) s’écrit


 
diff = rec zero, pred(π33 ) .

674
Modèles de calcul

Prédicat primitif récursif


On dit qu’un prédicat P est primitif récursif si sa fonction indicatrice l’est. On
va alors identifier un prédicat à son indicatrice. On donne quelques exemples de
prédicats primitifs récursifs :
• Le prédicat P (x) = « x = 0 » est primitif récursif puisque son indicatrice
is_zero s’écrit
is_zero = rec(succ(zero), zero).
( )
1 si x > 0
• Le prédicat sign : x 7−→ s’écrit
0 sinon

sign = rec(zero, succ(zero)).


( )
1 si x > y
• Le prédicat superieur : (x, y) 7−→ s’écrit
0 sinon

superieur(x, y) = sign(diff(x, y)).


( )
1 si x = k
• Le prédicat egal_k : x 7−→ s’écrit
0 sinon

egal_k(x) = mult(diff(un, superieur(x, k)), diff(un, superieur(k, x))).

• Pour donner la négation d’un prédicat P , il suffit de faire

¬P (x) = diff(un, P (x)).

• Pour donner la conjonction de deux prédicats P et Q, il suffit de faire

P (x) ∧ Q(x) = mult(P (x), Q(x)).

Minimisation bornée
• Si P est un prédicat primitif récursif, on peut définir l’opérateur de minimi-
sation bornée noté (n, ~x) 7−→ µ(i 6 n)P (i, ~x) qui renvoie le plus petit i 6 n
tel que P (i, ~x) est vrai, ou n + 1 si un tel i n’existe pas. On l’écrit alors
n Y
X i
µ(i 6 n)(P (i, ~x)) = (1 − P (~x)).
i=0 k=0

• La fonction div : (x, y) 7−→ bx/yc s’écrit

div(x, y) = pred(µ(i 6 x)(superieur(mult(i, y), x))).

• La fonction modulo : (x, y) 7−→ x mod y s’écrit

mod(x, y) = diff(x, mult(div(x, y), y)).

675
Bijection primitive récursive
Les fonctions primitives récursives sont à valeurs dans N. On peut naturellement
étendre la définition en considérant des fonctions à valeurs dans Nk puisqu’on
peut trouver des bijections entre les ensembles Nk et N` (pour tous k, ` ∈ N∗ ) qui
sont primitives récursives et dont les réciproques le sont aussi. Par exemple, pour
avoir une bijection entre N et N2 , on peut définir

ϕ : N −→ N2
k 7−→ (diag(k) − ecart(k), ecart(k))
avec
i(i + 1)
 
diag(k) = µ(i 6 k + 1) > k − 1,
2
diag(k)(diag(k) + 1)
ecart(k) = k − .
2

14

9 13

5 8 12

2 4 7 11

0 1 3 6 10
di

di

di

di

di
ag

ag

ag

ag
g
=

=
0

Fonctions µ-récursives
Ces fonctions primitives récursives ne suffisent pas à représenter toutes les fonctions
calculables par une machine de Turing. Par exemple, la fonction d’Ackermann

n + 1 si m = 0,


A(m, n) = A(m − 1, 1) si m > 0 et n = 0,

A(m − 1, A(m, n − 1))

si m > 0 et n > 0.

n’est pas primitive récursive. Pour avoir l’équivalence avec les fonctions calculables
par une machine de Turing, on doit considérer l’ensemble des fonctions µ-récursives
(voir Développement 109).

676
Modèles de calcul

Ces fonctions sont obtenues en ajoutant l’opération de minimisation non bornée


aux fonctions primitives récursives. La minimisation non bornée est « équivalente »
à la boucle tant que tandis que la minimisation bornée est « équivalente » à la
boucle pour.
Si P est un prédicat primitif récursif, on peut définir l’opérateur de minimisation
non bornée d’arité n noté ~x 7−→ µi P (i, ~x) qui renvoie le plus petit i ∈ N (s’il
existe) tel que P (i, ~x) est vrai. Cette fonction est définie seulement pour les ~x tels
qu’il existe un entier i qui rende le prédicat P vrai, ce sont donc des fonctions
partielles, contrairement aux fonctions primitives récursives qui sont totales.
De plus, on peut caractériser l’ensemble RE comme étant l’ensemble des images
des fonctions µ-récursives (voir Développement 110).

3 λ-calcul
Le λ-calcul est un autre formalisme mathématiques pour définir les fonctions
calculables. Les objets centraux sont les λ-termes, qui sont des représentations
syntaxiques modélisant des fonctions dont les arguments sont aussi des fonctions.
Leur sémantique, ainsi que la notion de « calcul » est fournie par l’opération de
β-réduction, qui modélise l’opération d’application d’une fonction à un argument.

Syntaxe
Définition 16 (λ-terme, sous-terme)
Soit un ensemble {x, y, z, . . .} dénombrable de variables. On définit les termes
de λ-calcul (ou λ-termes) par induction :
• les variables sont des termes ;
• si M et N sont des termes, alors (M N ) est un terme ;
• si M est un terme et x une variable, alors (λx.M ) est un terme.
On dit que M et N sont des sous-termes de (M N ) et que M est un sous-terme
de (λx.M )

Exemple : les expressions (λx.(xy)) et ((λy.y)(λx.(xy))) sont des termes. L’expres-


sion (x.λx) n’est pas un terme.
On s’autorisera à écrire M N P pour ((M N )P ) où M , N et P sont des termes et
λxy.M pour (λx.(λy.M )) où M est un terme et x, y des variables.
Définition 17 (portée)
Dans un terme λx.M , on dit que M et tous les sous-termes de M sont dans la
portée de λx.
Définition 18 (occurrence liée/libre)
Dans un terme P dont la variable x est un sous-terme, une occurrence de x est
liée si elle est dans la portée d’un λx qui est dans P , et libre sinon.
Définition 19 (terme clos)
Si aucune variable d’un terme n’a d’occurrence libre, il est dit clos.

677
Exemple : les termes I = λx.x, K = λxy.x et S = λxyz.xz(yz) sont clos.
Définition 20 (substitution)
Soient M, N des termes et x une variable. La substitution de x par N dans M ,
notée M [x → N ], est le remplacement de chaque occurrence libre de x dans M
par N en renommant si besoin les variables de M par des variables fraîches
pour que les variables libres de N ne deviennent pas liées dans M [x → N ].

Exemple :
• L’expression (λy.xy)[x → λy.y] ne nécessite pas de renommage, (λy.(λy.y)y)
est alors l’expression obtenue.
• L’expression (λz.xz)[x → λy.zy] nécessite un renommage, (λt.(λy.zy)t) est
alors l’expression obtenue.
Définition 21 (α-conversion)
On définit l’α-conversion comme la plus petite relation d’équivalence ∼α
satisfaisant :
• λx.M ∼α λy. (M [x → y]) pour une variable fraîche y ;
• λx.M ∼α λx.N si M ∼α N ;
• M N ∼α P Q si M ∼α P et N ∼α Q.

Exemple : on a λxy.x(xy) ∼α λuv.u(uv).

Réduction et forme normale


Définition 22 (β-réduction)
On définit la relation de β-réduction, notée →β , par induction sur les termes
• (λx.M )N →β M [x → N ] ;
• si M →β M 0 , alors λx.M →β λx.M 0 ;
• si M →β M 0 , alors M N →β M 0 N ;
• si N →β N 0 , alors M N →β M N 0 .

Exemples :
• si I = λx.x alors IM →β M ;
• si K = λxy.x alors (KM )N →β (λy.M )N →β M ;
• si S = λxyz.xz(yz) alors SM N P →3β M P (N P ).

Définition 23 (forme normale)


Un terme M est sous forme normale s’il ne peut pas être β-réduit.
Lemme 1
• Une variable x est sous forme normale.
• Si M est sous forme normale, alors λx.M est sous forme normale.
Lemme 2
Si P →∗β P 0 et Q →∗β Q0 alors Q[x → P ] →∗β Q0 [x → P 0 ].

678
Modèles de calcul

Théorème 4 (Church-Rosser)
Si P →∗β P1 et P →∗β P2 alors il existe Q tel que P1 →∗β Q et P2 →∗β Q. Cette
propriété est nommée confluence.
Définition 24
On dit que P possède une forme normale s’il existe un terme M sous forme
normale tel que P →∗β M . Par le théorème de Church-Rosser, si P possède une
forme normale alors elle est unique.

La forme normale joue en quelque sorte le rôle du résultat du calcul représenté


par un λ-terme donné. La propriété de confluence montre que cette vision est
cohérente : il y a bien unicité de la forme normale lorsqu’elle existe.
Définition 25 (β-équivalence)
On dit que M et N sont β-équivalents, noté M ∼β N , s’il existe M1 , M2 , . . . , Mn
tels que M1 ∼α M , Mn ∼α N et pour tout i ∈ J1, n − 1K, on a Mi →∗β Mi+1
ou Mi+1 →∗β Mi .

Théorème 5 (Church Rosser - 2e version)


Si P ∼β Q alors il existe T tel que P →∗β T et Q →∗β T .

Corollaire 1
• Si P ∼β Q et si Q est sous forme normale alors P →∗β Q.
• Si P ∼β Q alors soit ils ont la même forme normale, soit ils n’en ont pas.

Exemples
On va maintenant définir différents termes de λ-calcul. Rappelons que le λ-
calcul définit les mêmes fonctions calculables que les machines de Turing ou les
ordinateurs (on dit que ces modèles ont le même pouvoir d’expression). Il est donc
naturel de trouver des λ-termes ayant le même comportement que les instructions
if then else traditionnelles, ou permettant de manipuler des listes.
• T := λxy.x
• F := λxy.y
• if then else := λbxy.bxy
La terminologie est justifiée par le fait que si X ∼β T , alors

if X then M else N ∼β T M N ∼β M,

de même si X ∼β F , alors if X then M else N ∼β F M N ∼β N .


• hM, N i := λx.(xM N )
• fst := T
• snd := F
On a hM, N ifst ∼β T M N ∼β M .
• [M ] := M (liste contenant uniquement l’élément M )
• [M1 , . . . , Mn+1 ] := hM1 , [M2 , . . . , Mn+1 ]i

679
• πin := λx1 · · · xn .xi (projection)
(
N si n = 0,
On note M nN =
M (M n−1 N ) si n > 0.

Représentation des entiers


Pour montrer que le λ-calcul a le même pouvoir d’expression que les fonctions
µ-récursives (qui manipulent des entiers), on doit avoir une représentation des
entiers par des λ-termes. On présente ici deux représentations naturelles : les
entiers de Church, où l’entier n est représenté par un λ-terme à deux arguments qui
applique n fois son premier argument à son deuxième. La seconde représentation est
fournie par les entiers de Barendregt, où on construit des λ-termes inductivement
en encodant 0 et la fonction successeur.

Entiers de Church
Plus formellement, les entiers de Church et les opérations usuelles les manipulant
sont définis par :
• J0KC := λsz.z
• JnKC := λsz.sn z
• JsuccKC := λn.(λsz.ns(sz))
La terminologie est justifiée par le fait que

JsuccKC JnKC ∼β λsz.JnKC s(sz) ∼α λsz.(λuv.un v)s(sz)


∼β λsz.sn (sz) ∼α λsz.sn+1 z ∼α Jn + 1KC .

• J+KC := λn1 n2 .λsz.n1 s(n2 sz) = λn1 n2 .n1 JsuccKC n2


• JexpKC := λmn.mn
• JpredKC := λn.fst(n(λy.[sndy, JsuccKC sndy][J0KC , J0KC ]))
En effet, pour calculer n − 1, on incrémente n fois le couple (k, k + 1) jusqu’à
(n − 1, n) puis on extrait la première coordonnée.
• Jis_zeroKC := λn.n(λx.F )T La terminologie est justifiée par le fait que

Jis_zeroKC J0KC ∼β J0KC (λx.F ) T


∼α (λsz.z)(λx.F ) T ∼β T

et

Jis_zeroKC Jn + 1KC ∼β Jn + 1KC (λx.F ) T ∼α (λsz.sn+1 z)(λx.F ) T


∼β (λx.F )n+1 T ∼α (λx.F )n ((λx.F ) T )
∼β (λx.F )n F ∼β F.

680
Modèles de calcul

Entiers de Barendregt
Les entiers de Barendregt sont quant à eux définis par :
• J0KB := I = λx.x
• Jn + 1KB := hF, JnKB i = λx.(xF JnKB )
• JsuccKB := λn.hF, ni
• JpredKB := λn.nF La terminologie est justifiée par le fait que
JpredKB Jn + 1KB ∼α λn.(nF )Jn + 1KB ∼β Jn + 1KB F ∼α λx.(xF JnKB ) F
∼β F F JnKB ∼α (λxy.y)F JnKB ∼β JnKB .
• Jis_zeroKB := λn.nT La terminologie est justifiée par le fait que
Jis_zeroKB J0KB ∼α (λn.nT )J0KB ∼β J0KB T
∼α (λx.x) T ∼β T
et
Jis_zeroKB Jn + 1KB ∼α (λn.nT )Jn + 1KB ∼β Jn + 1KB T
∼α λx.(x F JnKB ) T ∼β T F JnKB ∼β F.

Point fixe
Les opérations décrites précédemment permettent de définir des λ-termes pour
chaque fonction primitive récursive de base. Pour obtenir l’équivalent du schéma
de récursion primitive, on fait appel à des combinateurs de point fixe.
Définition 26 (point fixe)
Un point fixe est un λ-terme Y tel que, pour tout terme G, on a
Y G ∼β G(Y G).
Exemple : le point fixe de Turing est θ = AA avec A = λxf.f (xxf )
En effet, pour tout terme G, on a
θG ∼α AAG
∼α (λxf.f (xxf ))(λxf.f (xxf ))G
→β (λf.f ((λxz.z(xxz))(λxz.z(xxz))f ))G
→β G((λxz.z(xxz))(λxz.z(xxz))G)
∼α G(AAG)
∼α G(θG).
Exemple : le point fixe de Curry est Y = λf.((λx.f (xx))(λx.f (xx)))
En effet, pour tout terme G, on a
Y G →β (λx.G(xx))(λx.G(xx))
→β G((λx.G(xx))(λx.G(xx)))
←β G(Y G).

681
λ-calcul et calculabilité
Définition 27 (λ-définissable)
Soit φ une fonction de Np dans N. La fonction φ est λ-définissable si et seulement
s’il existe un λ-terme G tel que

∀n1 , . . . , np ∈ N, GJn1 K . . . Jnp K ∼β Jφ(n1 , . . . , np )K,


où JnK désigne une des représentations des entiers décrites précédemment.
Théorème 6
Une fonction est µ-récursive si et seulement si elle est λ-définissable.

La preuve de l’implication directe, esquissée ci-avant, fait l’objet du Développe-


ment 111.
On dit que deux ensembles A ⊂ N et B ⊂ N disjoints sont récursivement séparables
s’il existe une fonction µ-récursive ϕ telle que

x ∈ A =⇒ ϕ(x) = 0 et x ∈ B =⇒ ϕ(x) = 1.

Après avoir transposé la définition de récursivement séparable pour les λ-termes,


on peut démontrer le théorème suivant.
Théorème 7 (Scott-Curry)
Aucune paire d’ensembles non vides de termes clos par β-équivalence ne sont
récursivement séparables.

Ce théorème est démontré dans le Développement 112.

682
Modèles de calcul

Développement 108 (Complexité du langage des palindromes F)

On se place sur l’alphabet Σ = {0, 1}. Pour tout mot w = w1 · · · wn , on note


e = wn · · · w1 . Soient
le mot miroir w
n o
L = w ∈ Σ∗ : w
e=w

le langage des palindromes sur Σ et M = (Q, Σ, {q0 }, {accept}, δ) une machine


de Turing à un ruban (infini à droite, fini à gauche) reconnaissant L. L’objectif
de ce développement est de montrer que le temps d’exécution tM de M admet
la borne inférieure tM (n) = Ω(n2 ).
Étant donnée une exécution (acceptante) e en k pas, on note pj (e) la position
de la tête de lecture et ej = (qj , aj , qj+1 , bj , dj ) ∈ δ, la transition empruntée
au j-ième pas de calcul, pour j ∈ J0, k − 1K. On a donc qk = accept et, pour
tout j ∈ J0, k − 1K, pj+1 = pj + dj > 0. Initialement, l’entrée w de M est
inscrite sur le ruban et la tête de lecture est à la position p0 = 0.
Pour r > 0, on note σ(e, r) la sous-suite de transitions (ej )j∈Jr (e) empruntées
lorsque la tête de lecture est en r, où Jr (e) = {j ∈ J0, k − 1K : pj (e) = r}.
a) Soient u, u0 , v, v 0 ∈ Σ∗ tels que r = |u| = |v|. On suppose données deux
exécutions eu , ev de M acceptant les mots u0u0 et v0v 0 respectivement, telles
que σ(eu , r) = σ(ev , r). Montrer que u0v 0 ∈ L.
b) Soit kr (e) = |Jr (e)| le nombre de visites de la case r dans l’exécution e.
Pour tous n > 1 et u ∈ Σn , soit eu une exécution de M acceptant u0n u e ∈ L.
On définit m(eu ) = min{kr (eu ) : r ∈ Jn, 2n − 1K} le plus petit nombre de
visites d’une des cases en position n à 2n − 1 (celles initialement occupées par
le mot 0n ), et
n o
s(eu ) = min r ∈ Jn, 2n − 1K : kr (eu ) = m(eu )

la première de ces cases qui est la moins visitée au cours de eu . Montrer que
[
∆n : Σn −→ N × δk
 k∈N

u 7−→ s(eu ), σ eu , s(eu )
est injective.
c) Soient `n = max{|σ(eu , s(eu ))| : u ∈ Σn } et u ∈ Σn réalisant ce maximum.
Montrer que `n > c n pour tout n > 1, où c > 0 est une constante ne dépendant
que de M . En déduire que |eu | > c n2 .
d) Conclure que tM (n) = Ω(n2 ).

Leçons concernées : 913


Ce développement propose un exemple de manipulation d’une machine de Turing
et est donc parfaitement adapté à la leçon 913.

683
108. Complexité du langage des palindromes

Correction.
a) L’idée est de « panacher » les deux exécutions eu et ev pour obtenir une
exécution e acceptant u0v 0 , comme illustré ci-après : on simule eu lorsque la tête
de lecture est à gauche (c’est-à-dire en position i < r sur le ruban), et on simule ev
lorsque la tête de lecture est à droite (en position i > r). Ceci est possible car
σ(eu , r) = σ(ev , r) : les transitions effectuées par M lorsque la tête de lecture se
trouve au milieu (en position r) sont identiques dans les deux exécutions.

r
u 0 u0

eu :

r
v 0 v0

ev :

r
u 0 v0

e:

Figure 3.6 – Panachage (eu est exécuté sur la gauche du ruban et ev sur la
droite).

On obtient ainsi une exécution de M reconnaissant le mot u0v 0 . D’où u0v 0 ∈ L.


b) Soient u, v ∈ Σn tels que ∆n (u) = ∆n (v). Il existe donc un entier r qui
vérifie r = s(eu ) = s(ev ) ∈ Jn, 2n − 1K et σ(eu , r) = σ(ev , r). Comme eu et ev
acceptent respectivement les mots
r−n 2n−1−r r−n 2n−1−r
u0
| {z }00 u
e et v0
| {z }00 ve,
r symboles r symboles

on déduit de a) que u0r−n 002n−1−r ve = u0n ve ∈ L. Or |u| = |v| = n, donc ve = u


e
puis u = v. L’application ∆n est donc bien injective.
c) L’image de ∆n est constituée d’un couple dont le premier élément est un entier
entre n et 2n − 1 et le second élément est une suite d’au plus `n transitions de δ.

684
Modèles de calcul

L’ensemble ∆(Σn ) a donc au plus n × (1 + |δ|)`n éléments. Ayant par ailleurs le


même cardinal que Σn (par injectivité de ∆n ), on en déduit

2n = |Σn | = |∆(Σn )| 6 n(1 + |δ|)`n ,

soit, en passant au logarithme,

n ln(2) 6 ln(n) + `n ln(1 + |δ|).


2
Grâce à l’inégalité n3 6 4n , qui implique que ln(n) 6 3 ln(2)n, il s’ensuit facilement
que `n > c n pour tout n > 1, avec
ln 2
c= > 0.
3 ln(1 + |δ|)
De plus, au cours de l’exécution eu , la case à l’indice sn (eu ) est visitée `n fois ;
par définition de sn (eu ) les n cases du ruban en positions n + 1, . . . , 2n sont alors
visitées au moins `n fois. Ainsi |eu | > n`n > c n2 .
d) Par définition
tM (n) = maxn max |e|,
u∈Σ e/u

où le maximum porte sur toutes les exécutions e de M sur l’entrée u. D’après c),
 
tM (3n) = Ω n2 ,

ce qui suffit pour conclure. En effet, considérons la machine M 0 qui, sur l’entrée w,
modifie le ruban pour qu’il y soit à la place inscrit le mot w0 = 0w0 (ce qui se
fait en O(n) opérations), puis simule M sur w0 . Alors M 0 est une machine de
Turing à un ruban acceptant L, donc d’après ce qui précède tM 0 (3n) = Ω(n2 ).
Comme on a l’inégalité tM 0 (n) 6 tM (n + 2) + O(n), on en déduit alors que
tM (3n + 2) = Ω(n2 ). Comme cette borne inférieure vaut donc aussi pour M 0 ,
on a aussi tM 0 (3n − 1) = tM 0 (3(n − 1) + 2) = Ω(n2 ) et on obtient par le même
raisonnement que tM (3n + 1) = Ω(n2 ). En conclusion, on a bien tM (n) = Ω(n2 ).

Commentaires.
© Quoique légèrement technique, ce développement est assez direct et naturel. La
plus grande difficulté est sans doute de savoir le mener avec juste ce qu’il faut de
formalisme pour être à la fois clair et convaincant.
L’heuristique est simple : pour vérifier le palindrome u0u e avec |u| = n, une
machine à un ruban ne peut pas vraiment faire mieux que Ω(n) « allers-retours ».
En effet, comme le montre l’argument-clé en a), la suite des opérations effectuées
lorsque la tête de lecture est à la position n est déterminée par u (sinon la machine
accepterait u0v avec v légèrement différent de u e), et puisqu’il y a |Σ|n mots u
possibles, la case du milieu (en position n) doit donc être visitée Ω(n) fois. Le
reste n’est qu’un petit argument de padding (le « milieu » devenant 0n plutôt
que seulement 0), qui ne change pas significativement la longueur de l’entrée et
permet de montrer que la tête de lecture effectue en fait Ω(n) va-et-vient (de part
et d’autre de ce milieu), et donc Ω(n2 ) transitions au total.

685
108. Complexité du langage des palindromes

© Le livre [Pap93], d’où ce développement est tiré, contient de nombreuses autres


illustrations et applications des machines de Turing. Le candidat souhaitant
approfondir sur ce thème est naturellement invité à s’y référer. En particulier, on
y trouvera un autre emploi de la technique de padding utilisée ci-avant afin de
montrer que l’assertion P = NP implique Exp = NExp : sommairement, un certificat
|w|
exponentiel en |w| est polynomial en |w · 02 |, et un algorithme polynomial en
|w|
|w · 02 | est exponentiel en |w|.
© Les machines de Turing à plusieurs rubans ont la même expressivité que les ma-
chines de Turing à un seul ruban, grâce à une transformation simple occasionnant
un ralentissement au plus quadratique en temps (voir à ce propos [Pap93]). Comme
les premières peuvent reconnaître le langage des palindromes en temps linéaire,
le développement ci-avant montre qu’on ne peut pas espérer de transformation
générale asymptotiquement plus rapide. Voir les questions 2 et 3 ci-après.

Questions.
1. Justifier l’inégalité n3 6 4n , pour tout n ∈ N.
2. Le résultat de ce développement demeure-t-il lorsque |Σ| > 2 ? Et si |Σ| = 1 ?
3. Montrer qu’une machine de Turing M à k > 2 rubans est équivalente à une
machine de Turing M 0 à un seul ruban telle que tM 0 (n) = O(tM (n)2 ).
4. Décrire une machine de Turing à 2 rubans reconnaissant L en temps linéaire.
5. Montrer que L n’est pas un langage rationnel.
6. Donner une grammaire algébrique engendrant L. Proposer une forme normale
(de Chomsky ou de Greibach).
7. Montrer l’implication P = NP =⇒ Exp = NExp.

686
Modèles de calcul

Développement 109 (Turing-calculable implique µ-récursive FF)

Soit f une fonction calculée par une machine de Turing M , c’est-à-dire telle
que si on exécute la machine lorsque n est écrit en unaire sur son ruban, la
machine termine et f (n) est écrit en unaire sur son ruban. On suppose que M
est déterministe, à ruban bi-infini, qu’elle a exactement un état initial et un
état final et qu’elle boucle sur son état final. On note :
• J0, mK l’ensemble des états de M , où 0 est l’état initial et m l’état final ;
• J0, k − 1K l’alphabet d’écriture, où 0 représente le symbole blanc ;
• δ : J0, mK × J0, k − 1K → J0, mK × J0, k − 1K × {−1, 1} la fonction de
transition.
On représente la configuration


··· 0 0 gj ··· g1 g0 d0 d1 ··· gi 0 0 ···

par le triplet d’entiers (g, q, d) où q ∈ J0, mK et g, d sont les représentations


en base k des mots avant et après la tête de lecture de M où le bit de poids
faible est celui le plus proche de la tête de lecture, i.e.
j
X i
X
g= gp k p et d = dp k p .
p=0 p=0

a) Justifier que la fonction de transition δ est primitive récursive.


On va maintenant décrire le fonctionnement de la machine de Turing par des
fonctions primitives récursives et µ-récursives afin d’écrire la fonction f sous
la forme d’une fonction µ-récursive.
b) Soit n un entier dont on souhaite calculer f (n). Écrire une fonction primitive
récursive init : N → N3 telle que init(n) renvoie la configuration initiale de M
sur l’entrée n.
c) Donner une fonction primitive récursive config_suivante : N3 → N3 qui, à
partir d’une configuration, donne la configuration suivante de M . En déduire
une fonction primitive récursive config : N3 × N → N3 qui, à partir d’une
configuration et d’un entier n, donne la configuration de M après n étapes.
d) Donner une fonction µ-récursive temps_arret : N3 → N qui, à partir d’une
configuration, donne le nombre d’étapes pour arriver dans un état final de la
machine M .
e) Conclure.

Leçons concernées : 912, 913

687
109. Turing-calculable implique µ-récursive

Ce développement démontre que toute machine de Turing peut être simulée par
une fonction µ-récursive. Il illustre donc parfaitement les leçons 912 et 913 qui
étudient respectivement les fonctions µ-récursives et les machines de Turing.

Correction.
a) La fonction δ est primitive récursive car elle s’écrit comme une somme finie
d’indicatrices puisqu’il y a un nombre fini de transitions.
b) On pose la fonction suivante


 N → 
N3 

n−1
init : X
 n

 7→ 0, 0, kp  .
p=0

La fonction init est primitive récursive car la somme et l’exponentiation sont


primitives récursives. Elle représente le ruban au début de l’exécution de M car
la tête de lecture est sur la première case du mot (donc g = 0), dans l’état initial
(on rappelle que l’état initial est représenté par 0) et il y a n fois le symbole 1 sur
n−1
X
le ruban qui est donc représenté par l’entier k p en base k.
p=0
c) On pose la fonction suivante



 N3 → N3
(
config_suivante : (gk + α, q 0 , bd/kc) si dir = 1
 (g, q, d)
 7→
(bg/kc, q 0 , g0 + k(α + bd/kck)) si dir = −1

pour δ(q, d0 ) = (q 0 , α, dir) où g0 = g mod k et d0 = d mod k. Si dir = 1, la tête


de lecture doit se déplacer à droite et le symbole d0 doit être remplacé par α.
Lorsqu’on se déplace vers la droite, il faut diviser d par k et multiplier g par k
pour simuler la nouvelle position de la tête de lecture. De plus, comme on a écrit α
sur le ruban, α doit devenir le chiffre des unités de g (en base k), ce qui conduit
à l’expression de g. On ferait des transformations similaires pour le décalage à
gauche.
La fonction config_suivante est primitive récursive car on utilise que des fonctions
primitives récursives : le reste de la division euclidienne mod, le quotient de la
division euclidienne b·/·c, l’addition, la multiplication et une conditionnelle pour
la disjonction de cas.
On peut ainsi poser la fonction suivante, qui utilise le principe de récursion
primitive :

3 N3
 N ×N →


(
config : ~x si k = 0,
x, k)
 (~
 7→
config_suivante(config(~x, k − 1))

sinon.
La fonction config est primitive récursive car config_suivante l’est et que l’ensemble
des fonctions primitives récursives est clos par récursion primitive.

688
Modèles de calcul

d) On pose la fonction suivante


(
N3 → N
temps_arret : 3
~x 7→ µi (π2 (config(~x, i)) = m).

La fonction temps_arret est µ-récursive car elle utilise une minimisation non
bornée d’un prédicat primitif récursif.
e) Il faut écrire une fonction qui permet de retrouver le nombre de chiffres 1 dans
k
le nombre 1 · · · 1 écrit en base k car, à la fin de l’exécution de la machine de
Turing M , f (n) est écrit en unaire sur le ruban, mais notre représentation des
configurations nous donne des entiers en base k. On pose donc la fonction
(
N → N
somme :
p 7→ µ(i 6 p)(k i > p).

La fonction somme est primitive récursive car elle utilise qu’une minimisation
bornée sur des prédicats primitifs récursifs.
On peut maintenant écrire la fonction f sous la forme d’une fonction µ-récursive :

f (n) = somme(π13 (config(init(n), temps_arret(init(n)))))


+ somme(π33 (config(init(n), temps_arret(init(n)))))

en appliquant la fonction somme aux composantes g et d de la configuration


obtenue après temps_arret(init(n)) étapes.
On a donc réussi à simuler la machine de Turing avec une fonction µ-récursive.

Commentaires.
© Dans la définition des fonctions µ-récursives, on considère des fonctions de N
dans N. Dans ce développement, on se donne des fonctions primitives récursives et
µ-récursives de N dans N3 . On peut faire cela, car il existe des bijections primitives
récursives de réciproque primitive récursive de N dans N2 . Par récurrence, on
montre donc que l’on peut définir les fonctions µ-récursives de Nk dans N` .
© La démonstration originelle utilise la notion de codage de Gödel. Elle requiert
des notations plus complexes, ce qui est évité ici par l’utilisation du codage unaire.
© Il y a une équivalence entre les trois modèles de calcul : machines de Turing,
fonctions µ-récursives et λ-calcul. On prouve ici une des implications de cette
équivalence. Dans le Développement 111 sur les fonctions λ-définissables, on
prouve une autre des implications.
© Il faut bien comprendre que le seul endroit où l’on a nécessairement une fonction
µ-récursive, c’est pour la fonction temps_arret, car on ne peut pas borner le nombre
d’étapes de la machine de Turing a priori.
© Dans la fonction config, il faut bien appliquer la fonction config_suivante à la
fonction config(~x, k − 1) car c’est le schéma de récursion primitive. L’inverse fonc-
tionne algorithmiquement mais n’est pas syntaxiquement licite pour les fonctions
primitives récursives.

689
109. Turing-calculable implique µ-récursive

© Pour montrer que toute fonction µ-récursive est calculable par une machine
de Turing, on procède par induction sur la structure de la fonction µ récursive.
Il suffit donc de montrer que les fonctions de bases sont exprimables par des
machines de Turing et montrer la clôture par composition, récursion primitive et
minimisation non bornée. Il faut donc donner des machines de Turing qui simulent
les algorithmes suivants :
Algorithme 18 : zero(x).
1 renvoyer 0

Algorithme 19 : succ(x).
1 renvoyer x + 1

Algorithme 20 : πin ((x1 , . . . , xn )).


1 renvoyer xi

Algorithme 21 : comp(f, g1 , . . . , gp )(~x).


1 pour i = 1 à p faire
2 ri ← gi (~x)
3 renvoyer f (r1 , . . . , rp )

Algorithme 22 : rec(f, g)(~x, k).


1 si k = 0 alors
2 renvoyer f (~x)
3 sinon
4 renvoyer g(~x, k − 1, rec(f, g)(~x, k − 1))

Algorithme 23 : µi (P )(~n).
1 i←0
2 tant que ¬P (i, ~n) faire
3 i←i+1
4 renvoyer i

Questions.
1. Justifier que l’on peut considérer une machine de Turing qui vérifie les hypo-
thèses de l’énoncé (déterminisme, ruban bi-infini, unaire, unique état initial et
final, boucle sur l’état final).
2. Montrer que toute fonction µ-récursive est calculable par une machine de
Turing en explicitant les machines de Turing.
3. Montrer qu’une indicatrice est primitive récursive.
4. Montrer que les fonctions arithmétiques utilisées dans ce développement sont
primitives récursives.

690
Modèles de calcul

5. Montrer que la comparaison est un prédicat primitif récursif.


6. Montrer que la conditionnelle est une fonction primitive récursive, i.e. si P est
un prédicat primitif récursif et f, g deux fonctions primitives récursives, alors la
fonction qui a n associe if P (n) then f (n) else g(n) est primitive récursive.
7. Montrer que la minimisation bornée est une fonction primitive récursive.

691
110. Caractérisation de RE

Développement 110 (Caractérisation de RE FF)

Un sous-ensemble A de N est dans RE s’il existe une machine de Turing qui


accepte exactement les éléments de A.
On dit qu’un ensemble E ⊂ N est primitif récursif si sa fonction indicatrice
est primitive récursive.
Soit A un sous-ensemble de N. On va montrer une équivalence entre quatre
propositions.
a) Montrer que si A ∈ RE, alors A = π22 (B) pour un ensemble B ⊂ N2 primitif
récursif, où π22 désigne la projection sur la deuxième coordonnée.
b) Montrer que si A = π22 (B) pour un ensemble B ⊂ N2 primitif récursif,
alors A = ∅ ou A est l’image d’une fonction primitive récursive.
c) Montrer que si A = ∅ ou A est l’image d’une fonction primitive récursive,
alors A est l’image d’une fonction µ-récursive.
d) Montrer que si A est l’image d’une fonction µ-récursive, alors A ∈ RE.

Leçons concernées : 912, 913, 914

L’ensemble RE est l’ensemble des langages acceptés par une machine de Turing. Ce
développement entre donc naturellement dans la leçon 913. La caractérisation que
l’on donne permet de faire le lien entre l’ensemble RE et les fonctions primitives
récursives et µ-récursives, ce qui donne une belle illustration de la leçon 912. Enfin,
dans la leçon 914, on discute des problèmes décidables R et indécidables, or parmi
les problèmes indécidables, on trouve les problèmes qui sont dans RE\R, il est donc
utile de savoir caractériser les problèmes qui sont dans RE.

Correction.
a) Par définition il existe une machine de Turing M qui accepte A. On suppose
que la machine possède un seul état final et qu’elle boucle dessus. On pose le
prédicat :
P (t, x) = « la machine M accepte x en t étapes ».

Le prédicat P est primitif récursif car

P (t, x) = 1F (config(init(x), t)),

avec les fonctions définies dans le développement sur l’équivalence entre fonctions
calculables par une machine de Turing et fonctions µ-récursives (voir Développe-
ment 109). La fonction init donne la configuration initiale de la machine, la fonction
config(~x, t) donne la configuration après t étapes en partant de la configuration
~x et l’indicatrice 1F (~x) renvoie Vrai si la configuration ~x est dans un état final
q ∈ F . Comme l’ensemble des états est fini, F est fini. Ainsi 1F est une somme
finie d’indicatrices 1q pour q ∈ F .

692
Modèles de calcul

On pose B = {(t, x) : P (t, x)}, on a alors

x ∈ A ⇐⇒ ∃t, P (t, x)
⇐⇒ ∃t, (t, x) ∈ B
⇐⇒ x ∈ π22 (B).

Ainsi on a bien A = π22 (B).

b) On considère la bijection primitive récursive ϕ : N → N2 définie par :

N → N2
ϕ:
k 7→ (tk , xk )

où tk = diag(k) − ecart(k) et xk = ecart(k) avec


i(i + 1)
 
diag(k) = µi (i 6 k + 1) >k −1
2
diag(k)(diag(k) + 1)
ecart(k) = k − .
2
La fonction µi (i 6 k + 1)(p(i)) représente la minimisation bornée et renvoie le
plus petit i ∈ J0, k + 1K tel que p(i) est vrai où p est un prédicat.

14

9 13

5 8 12

2 4 7 11

0 1 3 6 10
di

di

di

di

di
ag

ag

ag

ag

ag
=

=
0

La fonction ϕ est bijective, de plus ϕ et sa réciproque sont primitives récursives.


Soit A = π22 (B) avec 1B une fonction primitive récursive. Si A est non vide,
prenons n ∈ A et définissons f : N → N par :

f (k) = π22 (ϕ(k)) × 1B (ϕ(k)) + n × (1 − 1B (ϕ(k))).

On a donc
π22 (ϕ(k)) si ϕ(k) ∈ B,
f (k) =
n sinon.

693
110. Caractérisation de RE

Ainsi Im(f ) = {n} ∪ π22 (B) = A. Comme f est primitive récursive, on a le résultat
souhaité.

c) Si A = ∅, on a A = Im(f ) où f : x 7→ µi (zero(i)) est bien une fonction


µ-récursive avec µi la minimisation non bornée. En effet, il n’existe pas de premier
indice i tel que zero(i) = 1.
Si A = Im(f ) avec f une fonction primitive récursive alors f est aussi µ-récursive
car toute fonction primitive récursive est µ-récursive. Ainsi A est l’image d’une
fonction µ-récursive.

d) On a A = Im(f ) avec f une fonction µ-récursive. Or si f est µ-récursive alors f


est calculable par une machine de Turing.
On peut donner l’algorithme suivant :

Algorithme 24 : .
Entrée : un élément x.
1 k ←0
2 tant que f (k) 6= x faire
3 k ←k+1
4 renvoyer Accepter

Cette machine de Turing peut être implémentée (car f est calculable par une
machine de Turing) et accepte exactement les éléments de A car A = Im(f ). Donc
A ∈ RE.

Commentaires.
© Ce développement montre donc l’équivalence entre les quatre propositions
suivantes :
• A ∈ RE ;
• A = π22 (B) pour un ensemble B ⊂ N2 primitif récursif ;
• A = ∅ ou A est l’image d’une fonction primitive récursive ;
• A est l’image d’une fonction µ-récursive.
© Pour bien voir la bijection primitive récursive ϕ, il suffit de compter les éléments
de N2 par diagonales croissantes.
© L’équivalence entre « A = ∅ ou A est l’image d’une fonction primitive récursive »
et « A est l’image d’une fonction µ-récursive » peut paraître surprenante, mais il
faut bien comprendre que ce sont les images des fonctions qui sont égales et non
les fonctions en elles-mêmes.
© On a utilisé les deux sens de l’équivalence entre machine de Turing et fonction
µ-récursive. Un des deux sens est démontré dans le Développement 109 et l’autre
sens y est expliqué en commentaire.

694
Modèles de calcul

Questions.
1. Pourquoi doit-on traiter le cas A = ∅ à part ?
2. Montrer que si f est µ-récursive, alors f est Turing-calculable.
3. Montrer que la fonction ϕ est bijective ainsi que le caractère primitif récursif
de ϕ et de sa réciproque.
4. Montrer que (x, y) 7→ 2x (2y + 1) est aussi une bijection primitive récursive à
réciproque primitive récursive.
5. Donner un problème indécidable qui n’est pas dans RE.
6. En utilisant les notations du Développement 109, montrer l’implication

A = Im(f ) =⇒ A = π22 (B)

où f est une fonction µ-récursive et B est un ensemble primitif récursif.


7. Montrer directement l’implication

A = π22 (B) =⇒ A ∈ RE

où B est un ensemble primitif récursif.

695
111. µ-récursive implique λ-définissable

Développement 111 (µ-récursive implique λ-définissable FF)

On va montrer le résultat suivant :

Toute fonction µ-récursive est λ-définissable.

On représentera les entiers par

J0K := λx.x et Jn + 1K := hF, JnKi,

avec
F := λxy.y et hM, N i := λx.xM N.
On dit qu’une fonction χ : Np → N est λ-définissable si et seulement s’il existe
un terme X de λ-calcul tel que

∀n1 , · · · , np ∈ N, XJn1 KJn2 K . . . Jnp K ∼β Jχ(n1 , . . . , np )K.

On dira que X représente χ. L’ensemble des fonctions qui sont λ-définissables


est noté Λ.
a) Montrer que les fonctions de base (fonction nulle, successeur, projection)
sont λ-définissables.
b) Montrer que Λ est un ensemble clos par composition.
c) Montrer que Λ est un ensemble clos par récursion primitive.
d) Montrer que Λ est un ensemble clos par minimisation non bornée.

Leçons concernées : 912, 929

Ce développement donne une implication dans l’équivalence entre les modèles de


calculs : fonctions µ-récursives et λ-calcul. Il illustre donc parfaitement les leçons
912 et 929 qui étudient respectivement les fonctions mu-récursives et le λ-calcul.

Correction.
a) Le terme λx.J0K représente la fonction zero.
Le terme λx.hF, xi représente la fonction succ. En effet, comme Jn + 1K = hF, JnKi,
on a
λx.hF, xiJnK →β hF, JnKi = Jn + 1K.
De plus, on a
λx1 x2 · · · xn .xi t1 · · · tn →β λx2 x3 · · · xn .xi t2 · · · tn
→β λxi · · · xn .xi ti · · · tn
→β λxi+1 · · · xn .ti ti+1 · · · tn
→β λxn .ti tn →β ti ,
ce qui assure que le terme λx1 x2 · · · xn .xi représente la projection πin .

696
Modèles de calcul

b) Soit χ une fonction à p arguments représentée par un terme X, et p fonctions


notées ψ1 , . . . , ψp à k arguments représentées par G1 , . . . , Gp . On a alors, pour
tout ~n ∈ Nk ,

Jχ(ψ1 (~n), . . . , ψp (~n))K ∼β XJψ1 (~n)K · · · Jψp (~n)K


∼β X(G1 J~nK) · · · (Gp J~nK).

Donc
λ~x.X(G1 ~x) · · · (Gp ~x)
représente la composition de f avec les fonctions ψ1 , . . . , ψp .
c) Soient χ une fonction λ-définissable à p arguments représentée par X et ψ
une fonction λ-définissable à p + 2 arguments représentée par G. On va montrer
que la fonction ϕ définie, pour tout ~n ∈ Np et k ∈ N, par le schéma de récursion
primitive suivant

ϕ(~n, 0) = χ(~n),
ϕ(~n, k) = ψ(~n, k, ϕ(~n, k − 1)),

est λ-définissable.
On voudrait trouver un terme M tel que

M ~x k ∼β if (is_zero k) then X ~x else G ~x k (M ~x (pred k)),

avec

if then else := λxtf.xtf,


is_zero := λx.(xT ) où T := λxy.x,
pred := λx.(xF ) où F := λxy.y.

On va donc avoir besoin d’un combinateur de point fixe θ tel que, pour tout
λ-terme K, on a θ K ∼β K(θ K).
Soit θ un combinateur de point fixe. On pose

H := λh~xk. if (is_zero k) then X ~x else G ~x k (h ~x (pred k)).

Montrons que θ H représente ϕ en définissant pour tout ~n ∈ Np et k ∈ N la


propriété HRk :
Jϕ(~n, k)K ∼β θ H J~nK JkK.

Montrons l’hypothèse de récurrence au rang k = 0.

θ H J~nKJ0K ∼β H (θ H) J~nK J0K


∼β X J~nK
∼β Jχ(~n)K
∼β Jϕ(~n, 0)K.

697
111. µ-récursive implique λ-définissable

Soit k ∈ N∗ . Supposons HRk−1 et montrons HRk .

θ H J~nKJkK ∼β H (θ H) J~nK JkK


∼β G J~nK JkK (θ H J~nK (pred JkK))
∼β G J~nK JkK (θ H J~nK Jk − 1K)
∼β G J~nK JkK Jϕ(~n, k − 1)K par HRk−1
∼β Jψ(~n, k, ϕ(~n, k − 1))K
∼β Jϕ(~n, k)K.

Ainsi, le principe de récurrence assure que θ H représente ϕ.


d) Soit χ une fonction λ-définissable à p arguments représentée par X. On veut
montrer que le schéma de minimisation non bornée ϕ, défini par, pour ~n ∈ Np ,

ϕ(~n) ∼β µk (χ(~n, k) = 0)

est λ-définissable.
Il suffit de trouver un terme qui fait un test sur le prédicat χ(~n, k) = 0 et qui
renvoie k si le prédicat est évalué à vrai et sinon teste sur k + 1, etc.
À ~x fixé, on pose P le prédicat λk.(is_zero (X ~x k)) qui représente χ(~n, k) = 0.
Soit θ un combinateur de point fixe. On pose

H := λhk. if (P k) then k else h (succ k)).

Montrons que λ~x.(θ H J0K) représente ϕ où H dépend de ~x. À ~n fixé, supposons


que le premier entier k tel que χ(~n, k) = 0 est l’entier m. On a alors

θ H J0K ∼β H (θ H) J0K
∼β if (P J0K) then J0K else θ H (succ J0K)
∼β if (P J0K) then J0K else θ H J1K
∼β θ H J1K
∼β H (θ H) J1K
..
.
∼β if (P JmK) then JmK else θ H Jm + 1K
∼β JmK.

Ainsi le terme λ~x. (θ H J0K) représente la fonction ϕ.

Commentaires.
© Ce théorème est une implication dans l’équivalence des modèles de calcul entre
machines de Turing, fonctions µ-récursives et λ-calcul. En effet, combiné avec
le développement Turing-calculable =⇒ µ-récursive (Développement 109), il
suffit de prouver que toute fonction λ-définissable est calculable par une machine
de Turing pour prouver l’équivalence complète. Pour cela, il faut simuler la
β-réduction par une machine de Turing.

698
Modèles de calcul

© Il faut bien comprendre le sens des termes. Par exemple, pour la minimisation
non bornée, θ H J0K va donner J0K si P J0K et θ H J1K sinon et ainsi de suite en
appliquant θ H J1K. Le fait de comprendre le sens des formules permet de ne pas
s’embrouiller et de convaincre le jury que vous maîtrisez ce que vous faites.
© Il faut voir les λ-termes T et F comme les booléens true et false. En effet, pour
la conditionnelle if then else : λbtf.btf , le booléen b qui sera soit T soit F renverra
soit t soit f puisque T renvoie le premier argument et F le deuxième argument.
© Le combinateur de point fixe permet de simuler une boucle while, car il permet
de réitérer une fonction sans connaitre le nombre d’itérations. On a utilisé un
combinateur de point fixe pour simuler la récursion primitive mais l’expressivité du
combinateur de point fixe est plus grande puisqu’elle peut simuler la minimisation
non bornée. On peut prendre comme combinateur de point fixe celui de Curry Y
ou celui de Turing Θ avec

Y := λf.(λx.f (xx))(λx.f (xx)) et Θ := AA où A := λxf.f (xxf )

par exemple. Un des avantages du point fixe de Turing réside dans le fait qu’on a
une β-réduction directe, alors que pour celui de Curry, il faut réduire dans des
sens différents (c’est une β-équivalence). L’avantage de celui de Curry est qu’il est
plus naturel à définir. En effet,

λf.(λx.f (xx))(λx.f (xx))K →β (λx.K(xx))(λx.K(xx))


→β K((λx.K(xx))(λx.K(xx)))
←β K(λf.(λx.f (xx))(λx.f (xx))K).

© On peut comprendre la représentation de l’entier n en interprétant JnK comme


une liste de taille n qui contient que des F . Ainsi, la fonction succ est définie en
empilant l’élément F sur l’entier donné en argument.

Questions.
1. Montrer que à ~x fixé, λk.(is_zero (X J~xK JkK)) représente χ(~x, k) = 0.
2. Donner un λ-terme qui additionne deux entiers.
3. Donner une autre représentation des entiers.
4. Montrer que toute fonction λ-définissable est Turing-calculable.
5. Montrer que les combinateurs de Curry et de Turing sont bien des combinateurs
de point fixe.

699
112. Théorème de Scott-Curry

Développement 112 (Théorème de Scott-Curry FF)

On dit que deux ensembles A ⊂ N et B ⊂ N disjoints sont récursivement


séparables s’il existe une fonction µ-récursive ϕ telle que

x ∈ A =⇒ ϕ(x) = 0 et x ∈ B =⇒ ϕ(x) = 1.

Via un codage de Gödel, c’est-à-dire une fonction gd injective de l’ensemble


des λ-termes Λ dans N, on peut étendre cette définition à des ensembles
de λ-termes : deux tels ensembles A et B sont récursivement séparables si les
ensembles

A = {gd(X) : X ∈ A} et B = {gd(X) : X ∈ B}

sont récursivement séparables.


On veut montrer le théorème de Scott-Curry :
Aucune paire (A, B) d’ensembles non vides disjoints de λ-termes
clos par β-équivalence n’est récursivement séparable.

Rappelons que toute fonction µ-récursive peut être représentée par un λ-terme
(voir Développement 111).
Soit A et B deux ensembles non vides de λ-termes clos par β-équivalence.
Par l’absurde, on suppose qu’il existe ϕ une fonction µ-récursive (représentée
par un λ-terme M ) qui sépare les ensembles A et B. On pose G et N les
représentations des fonctions µ-récursives suivantes :

γ: N×N −→ N
(gd(X), gd(Y )) 7−→ gd(X Y ),

ν : N −→ N
n 7−→ gd(JnK).
Soit X ∈ A et Y ∈ B. On pose

H := λx.((is_zero M (G x (N x))) Y X) et [Z] := Jgd(Z)K.

a) Montrer que, pour tout Z, W ∈ Λ,

N [Z] ∼β [[Z]] et G [W ] [Z] ∼β [W Z].

b) En posant J := H [H], montrer que J ∼β ((is_zero Jϕ(gd(J))K) Y X).


c) En considérant la valeur de ϕ(gd(J)), montrer qu’il y a une contradiction.
En déduire le résultat souhaité.

Leçons concernées : 929

700
Modèles de calcul

Le théorème de Scott-Curry montre que l’on ne peut pas séparer facilement des
ensembles de λ-termes, ce qui justifie son placement dans la leçon 929 de λ-calcul.

Correction.
a) Pour tout Z, W ∈ Λ, on a

N [Z] ∼β N Jgd(Z)K
∼β Jν(gd(Z))K
∼β Jgd(Jgd(Z)K)K
∼β [[Z]]

et

G [W ] [Z] ∼β Jγ(gd(W ), gd(Z))K


∼β Jgd(W Z)K
∼β [W Z].

b) Soit X ∈ A et Y ∈ B. On rappelle que M est la représentation de ϕ, G la


représentation de γ et N la représentation de ν.

J ∼β ((is_zero M (G [H] (N [H]))) Y X)


∼β ((is_zero M (G [H] [[H]])) Y X)
∼β ((is_zero M [H [H]]) Y X)
∼β ((is_zero M [J]) Y X)
∼β ((is_zero M Jgd(J)K) Y X)
∼β ((is_zero Jϕ(gd(J))K) Y X).

c) On va faire une disjonction de cas sur la valeur de ϕ(gd(J)) :


• Si ϕ(gd(J)) = 0, alors on a J ∈
/ B par définition de ϕ et on a aussi

(is_zero Jϕ(gd(J))K) →β T.

De ce fait,
J →β T Y X →β Y ∈ B par hypothèse.
Or B est clos par β-équivalence donc J ∈ B, ce qui contredit J ∈
/ B.
• Si ϕ(gd(J)) > 0, alors on a J ∈
/ A par définition de ϕ et on a aussi

(is_zero Jϕ(gd(J))K) →β F.

De ce fait,
J →β F Y X →β X ∈ A par hypothèse.
Or A est clos par β-équivalence donc J ∈ A, ce qui contredit J ∈
/ A.
Ainsi on a une contradiction, donc la fonction ϕ n’existe pas et l’on ne peut pas
séparer récursivement les ensembles A et B.

701
112. Théorème de Scott-Curry

Commentaires.
© Il faut que ν et γ soient µ-récursives mais cela dépend du codage de gd.
Cependant, si on numérote les λ-termes par tailles croissantes de termes et par
nombre de variables utilisées croissant, on peut retrouver pour chaque n le terme
correspondant. Ainsi la concaténation de deux termes et la représentation des
entiers (de Barendregt ou de Church par exemple) sont bien calculables. Donc on
a bien des fonctions µ-récursives.
© On peut poser A l’ensemble des termes clos qui possèdent une forme normale
et B l’ensemble des termes clos qui ne possèdent pas de forme normale. Ces
ensembles sont bien disjoints, non vides et clos par β-équivalence, on peut donc
appliquer le théorème de Scott-Curry qui nous dit qu’il n’existe pas de fonction µ-
récursive qui sépare ces deux ensembles.
Ainsi le problème de terminaison (de la β-équivalence)
(
entrée : un terme clos X de λ-calcul ;
Terminaison
sortie : oui si X possède une forme normale, non sinon.

est indécidable.
© La preuve du théorème de Scott-Curry ressemble finalement beaucoup à la
preuve de l’indécidabilité du problème de l’arrêt pour les machines de Turing, on
crée une machine/un λ-terme qui est paradoxal(e) en s’appliquant à soi-même.
© On a utilisé de manière fondamentale que tout fonction µ-récursive est λ-
définissable.
© On a utilisé les fonctions is_zero, T et F qui sont explicitées dans l’introduction
sur le λ-calcul.
© On peut rapprocher l’utilisation de la notion de séparabilité récursive du théo-
rème de Rice pour les machines de Turing. En effet, on introduit cette notion
pour pouvoir séparer, par exemple, un ensemble qui vérifie une propriété et son
complémentaire.
© Lors de la présentation devant le jury, il peut être intéressant d’utiliser différentes
couleurs pour intercaler les calculs de N [H] et G [W ] [Z] dans la β-réduction
de J.
On peut en effet écrire

J ∼β ((is_zero M (G [H] (N [H]))) Y X)


∼β N Jgd(H)K
∼β Jν(gd(H))K
∼β Jgd(Jgd(H)K)K
∼β [[H]]
∼β ((is_zero M (G [H] [[H]])) Y X)

702
Modèles de calcul

∼β ((is_zero M (G [H] [[H]])) Y X)


∼β Jγ(gd(H), gd([H]))K
∼β Jgd(H [H])K
∼β [H [H]]
∼β ((is_zero M [H [H]]) Y X)
∼β ((is_zero M [J]) Y X)
∼β ((is_zero M Jgd(J)K) Y X)
∼β ((is_zero Jϕ(gd(J))K) Y X).

Questions.
1. Donner un codage de Gödel injectif gd : Λ → N.
2. Montrer que l’ensemble des termes clos qui possèdent une forme normale et
l’ensemble des termes clos qui ne possèdent pas de forme normale sont tous les
deux non vides.
3. Où utilise-t-on que A et B sont non vides ?
4. Pourquoi l’ensemble A des termes clos qui possèdent une forme normale et
l’ensemble B des termes clos qui ne possèdent pas de forme normale sont non
vides ?

703
Théorie des graphes

Au même titre que les mots ou les arbres 37 , les graphes sont des objets fondamen-
taux en mathématiques discrètes et en informatique. À première vue, ces structures
ont d’abord une visée algorithmique : elles permettent de modéliser certains pro-
blèmes « de la vie courante » (voir par exemple les Développements 116, 118
et 126). Cependant, le champ d’application de la théorie des graphes est loin de
se limiter à l’étude de questions algorithmiques. En effet, comme on le verra dans
cette introduction ainsi que dans les Développements 4, 14, 28, 114, 115 et les
questions associées, les graphes apparaissent naturellement dans diverses branches
des mathématiques (combinatoire, théorie des groupes, théorie des nombres, proba-
bilités, voire géométrie différentielle) et de l’informatique (logique, algorithmique,
optimisation).

1 Premières définitions
Définition 28 (Graphe, sommet, arête)
Un graphe (non orienté) G est un couple (S, A) où S est un ensemble de sommets
et A est un ensemble d’arêtes, c’est-à-dire d’ensembles de la forme {s, t} où
s, t sont deux sommets (non nécessairement distincts) de S.

Pour simplifier les notations, on notera st (ou ts) l’arête {s, t}.
Définition 29 (Boucle, graphe simple)
Lorsque s = t ∈ S, l’arête {s, t} = {s} est appelée une boucle. Un graphe est
dit simple s’il ne contient pas de boucle.
Définition 30 (Graphe fini)
Un graphe (S, A) est dit fini si S est fini.

Sauf mention contraire, les graphes considérés dans ce livre seront systématique-
ment supposés finis, simples et non orientés (voir Section 3.3).
Définition 31 (Adjacence, voisinage)
Soit G = (S, A) un graphe et s ∈ S.
• On dit qu’un sommet t est adjacent à s si st ∈ A.
• On appelle voisinage de s, noté NG (s) (ou N (s) lorsqu’il n’y a pas matière
à confusion), l’ensemble des sommets adjacents à s.
37. Les arbres sont bien évidemment des cas particuliers de graphes. Cependant, dans de
nombreuses applications en algorithmique ou en théorie des langages (par exemple), les arbres
ne sont pas considérés comme des graphes particuliers mais comme des structures de données
arborescentes permettant de représenter des relations de parenté.
Définition 32 (Incidence, degré)
Soit G = (S, A) est un graphe et s ∈ S.
• On dit que l’arête e ∈ A est incidente à s si e = st pour un certain t ∈ S.
• On appelle degré de s et on note dG (s) (ou d(s)) le nombre d’arêtes incidentes
à s. On peut remarquer que lorsque G est simple, d(s) = |N (s)|.
Définition 33 (Graphes isomorphes)
Deux graphes G1 = (S1 , A1 ) et G2 = (S2 , A2 ) sont isomorphes s’il existe une
bijection f : S1 → S2 telle que

∀s, t ∈ S1 , st ∈ A1 ⇐⇒ f (s)f (t) ∈ A2 ,

autrement dit si les sommets de G1 peuvent être renommés pour obtenir G2 .

Par abus de langage, on identifiera systématiquement toute paire de graphes


isomorphes.

2 Quelques exemples
Définition 34 (Chemin, cycle, clique)
Soit n ∈ N∗ .
• Le chemin Pn , ou graphe linéaire à n sommets, est le graphe
 
{s1 , . . . , sn }, {si si+1 : i ∈ J1, n − 1K} .

• Si n > 3, le cycle Cn , ou graphe cyclique à n sommets, est le graphe


 
{s1 , . . . , sn }, {si si+1 : i ∈ J1, n − 1K} ∪ {s1 sn } .

• La clique Kn , ou graphe complet à n sommets, est le graphe à n sommets


n
ayant le nombre maximum d’arêtes possible (à savoir 2 ) :
 
{s1 , . . . , sn }, {si sj : i 6= j} .

Ces trois types de graphes sont représentés en Figure 3.7.

3 Opérations sur les graphes


Soit G = (S, A) un graphe et st ∈ A.
Définition 35 (Suppression d’un sommet ou d’une arête)
On note G − s (resp. G − st) le graphe obtenu à partir de G en supprimant le
sommet s (resp. l’arête st), plus précisément
   
G − s = S \ {s}, A \ {st : t ∈ S} , resp. G − st = S, A \ {st} .

706
Théorie des graphes

s1
s1 s2
s1
s2

s3 s2

s4 s3 s4 s3
s4

Figure 3.7 – Les graphes P4 , C4 et K4 .

Définition 36 (Contraction d’une arête)


On note G · st le graphe simple obtenu à partir de G − st en fusionnant les
sommets s et t en un nouveau sommet noté s|t, c’est-à-dire que
 
G · st = S \ {s, t} ∪ {s|t}, {ab : ab ∈ A \ {st}} ,

où a = a si a ∈
/ {s, t} et s = t = s|t. Ce graphe est représenté en Figure 3.8.

a e d a e d

c c

b b

Graphe G Graphe G − bc

a e d

b|c

Graphe G · bc

Figure 3.8 – Construction des graphes G − bc et de G · bc à partir de G.

Définition 37 (Sous-graphe, sous-graphe induit)


• On dit que H = (S 0 , A0 ) est un sous-graphe induit de G = (S, A) si on
peut obtenir H à partir de G en supprimant des sommets ou, de manière
équivalente, si
S 0 ⊂ S et A0 = A ∩ {st : s, t ∈ S 0 }.
• En affaiblissant cette condition, on définit la notion de sous-graphe : avec les
mêmes notations, on dit que H est un sous-graphe de G si on peut obtenir H
en supprimant des sommets et/ou des arêtes de G, i.e.
S0 ⊂ S et A0 ⊂ A ∩ {st : s, t ∈ S 0 }.

707
Définition 38 (Clique, ensemble indépendant)
• Une clique d’un graphe G est un sous-graphe complet de G.
• Un ensemble indépendant est un sous-graphe induit de G sans arête.

Figure 3.9 – Un graphe à 6 sommets possédant une clique de taille 3 (en gras) et
un ensemble indépendant de taille 3 (en pointillés).

Déterminer la taille de la plus grande clique ou du plus grand ensemble indépendant


d’un graphe sont deux exemples célèbres de problèmes NP-complets : Clique et
IndependentSet.

4 Quelques familles de graphes


Graphes r-partis
Définition 39 (Graphe r-parti, graphe r-parti complet)
Soit G = (S, A) un graphe et r un entier.
• G est dit r-parti si on peut trouver une partition de S en S1 t · · · t Sr telle
que chaque Si induit un ensemble indépendant. Il est de plus dit complet si
toute paire de sommets n’appartenant pas au même Si est reliée par une
arête.
• G est dit multiparti complet s’il est r-parti complet pour un certain entier r.
Ces graphes sont représentés sur la Figure 3.10.

Figure 3.10 – Deux graphes 4-partis, non complet à gauche et complet à droite.
Les graphes r-partis interviennent naturellement en théorie extrémale des graphes,
comme l’illustre le Développement 114. On montre dans ce développement que
les graphes les plus denses (autrement dit maximisant le rapport du nombre
d’arêtes au nombre de sommets) ne contenant pas Kr+1 comme sous-graphe sont
nécessairement r-partis complets. On peut alors décrire explicitement ces graphes

708
Théorie des graphes

en déterminant les partitions maximisant le nombre d’arêtes lorsque le nombre de


sommets est fixé.
La notion de r-partition est aussi fortement liée au problème de coloration (voir
Développement 113). En effet, le nombre chromatique d’un graphe G n’est rien
de plus que le plus petit entier r tel que G est r-parti. L’étude de ce problème
classique est un domaine de recherche actif en théorie des graphes.

Connexité et arbres
Définition 40 (Accessibilité)
Soient G = (S, A) un graphe et s, t ∈ S. On dit que t est accessible depuis s
s’il existe des sommets s1 , . . . , sn ∈ S tels que s1 = s, sn = t et pour tout
entier i ∈ J1, nK, si si+1 ∈ A. On dit aussi qu’il existe un chemin de s à t dans G.
Définition 41 (Connexité, composante connexe)
• Un graphe G = (S, A) est dit connexe si pour tous s, t ∈ S, il existe un
chemin de s à t dans G.
• Une composante connexe de G est un sous-graphe connexe de G maximal
pour l’inclusion ou, de manière équivalente, une classe d’équivalence de
sommets pour la relation d’accessibilité.
Définition 42 (Forêt, arbre)
On dit qu’un graphe est une forêt s’il ne contient aucun cycle comme sous-
graphe, et que c’est un arbre s’il est de plus connexe (voir Figure 3.11).

Figure 3.11 – Une forêt contenant deux arbres.

Voici quelques propriétés de base sur les arbres. La première permet en particulier
d’obtenir des résultats par récurrence, puisqu’elle montre que tout arbre à n
sommets peut être construit en ajoutant une feuille à un arbre à n − 1 sommets.
Proposition 3
• Tout arbre non vide possède un sommet de degré au plus 1. Un tel
sommet est appelé feuille.
• Tout arbre ayant au moins deux sommets possède deux sommets de degré
au plus 1.
• Tout arbre à n sommets possède exactement n − 1 arêtes.
• Toute forêt à n sommets et à k composantes connexes possède exactement
n − k arêtes.
• Dans un arbre, toute paire de sommets est reliée par un unique chemin.

709
• G = (S, A) est un arbre si et seulement si |A| = |S| − 1 et G est connexe.
• G = (S, A) est un arbre si et seulement si |A| = |S| − 1 et G n’a pas de
cycle.

Une des utilisations classiques des arbres est fournie par le problème d’arbre
couvrant.
Définition 43 (Arbre couvrant)
Un arbre couvrant d’un graphe G est un sous-graphe de G induisant un arbre
et contenant tous les sommets de G. Un tel arbre est représenté en Figure 3.12.

Figure 3.12 – Un graphe (en gris) et un arbre couvrant (en noir).

Résoudre ce problème permet par exemple de déterminer quelles connexions (i.e.


quelles arêtes) peuvent être supprimées dans un réseau (i.e. un graphe) de sorte
que toutes les machines du réseau (i.e. les sommets du graphe) restent connectées.
Ce problème peut être résolu algorithmiquement à l’aide de procédures de parcours
de graphes, ou grâce aux algorithmes de Prim et Kruskal quand l’arbre couvrant
recherché doit satisfaire des contraintes supplémentaires.

Graphes eulériens
Définition 44 (Cycle et chemin eulériens)
Soit G = (S, A) un graphe.
• Un cycle eulérien dans G est une suite de sommets s1 , . . . , sn (non nécessai-
rement deux à deux distincts) passant une et une seule fois par chaque arête
de G. Plus précisément, on doit avoir

n = |A| et {sn s1 } ∪ {si si+1 : i ∈ J1, n − 1K} = A.

• Un chemin eulérien dans G est défini de manière similaire quand

n = |A| − 1 et {si si+1 : i ∈ J1, n − 1K} = A.

• On dit que G est eulérien lorsqu’il admet un cycle eulérien.


Ces notions sont illustrées sur la Figure 3.13.

710
Théorie des graphes

s3 s3

s2 s4 s2 s4

s1 s5 s1 s5

Figure 3.13 – Un graphe eulérien (à gauche) et admettant un chemin eulérien de


s1 à s5 (à droite).

Cette notion est nommée en hommage à Euler, en référence au problème des


ponts de Königsberg. Ce problème consiste à déterminer si un promeneur peut
parcourir la ville de Königsberg en passant une et une seule fois par chaque pont
et revenir à son point initial. On peut modéliser la situation par un graphe dont
les sommets sont les îles et les arêtes sont les ponts (voir Figure 3.14).

Figure 3.14 – Un schéma de la ville de Königsberg et le graphe associé.

Le problème consiste alors à déterminer si ce graphe admet un cycle eulérien,


autrement dit s’il est eulérien. On peut montrer (par disjonction de cas ou en
utilisant la caractérisation donnée dans le Développement 118) que le problème
des ponts de Königsberg n’a pas de solution, c’est-à-dire que le graphe n’est pas
eulérien.
Comme on le verra dans le Développement 118, la notion de graphe eulérien peut
être utilisée en bio-informatique dans le cadre du problème de séquençage ADN.
La notion duale est la notion de graphe hamiltonien, c’est-à-dire un graphe
contenant un cycle hamiltonien (voir Figure 3.15).
Définition 45 (Cycle et chemin hamiltoniens)
Soit G = (S, A) un graphe.
• Un chemin hamiltonien est une suite de sommets s1 , . . . , sn ∈ S formant un
chemin dans G passant une et une seule fois par chaque sommet.
• On parle de cycle hamiltonien lorsque cette suite forme un cycle, c’est-à-dire
lorsque sn s1 ∈ A.

711
s3
s2
s2 s4

s1

s3 s4 s1 s5

Figure 3.15 – Un graphe hamiltonien (à gauche) et non hamiltonien (à droite).

Le problème HamCirc consistant à tester si un graphe donné est hamiltonien


est un exemple bien connu de problème NP-complet (voir page 863). A contrario,
tester si un graphe est eulérien est un problème résoluble en temps polynomial,
via le critère décrit au Développement 118.

Graphes planaires
Définition 46 (Graphe planaire, plongement)
On dit que G = (S, A) est planaire si on peut le dessiner dans le plan sans que
des arêtes ne se croisent (voir Figure 3.16). Plus formellement, G est planaire
s’il existe un plongement de G dans R2 , c’est-à-dire une application injective
p : S → R2 telle que pour tout st ∈ A, l’intervalle ouvert ]p(s), p(t)[ ⊂ R2 n’in-
tersecte pas l’image de p, ni aucun intervalle ]p(s0 ), p(t0 )[ pour s0 t0 ∈ A \ {st}.

G G H
Figure 3.16 – Un graphe planaire G « mal » plongé, un plongement planaire
de G, un graphe non planaire H.

Définition 47 (Faces d’un graphe planaire)


Soit p un plongement d’un graphe planaire G. On appelle face de G toute
composante connexe de R2 privé de tous les segments [p(s), p(t)] pour st ∈ A.
La longueur `(f ) d’une face f est le nombre d’arêtes (comptées avec multipli-
cité 38 ) d’un cycle γ de longueur minimale qui la délimite, c’est-à-dire tel que f
est une composante connexe de R2 privé des segments [p(s), p(t)] correspondant
aux arêtes st de γ.
Définition 48 (Face externe)
Dans tout plongement d’un graphe planaire dans R2 , toutes les faces sont des
régions bornées du plan, sauf une, dont le complémentaire est un polygone
38. La prise en compte des multiplicités est nécessaire pour tenir compte des cas dégénérés.
Par exemple, le chemin P3 contient une unique face de longueur 4.

712
Théorie des graphes

contenant le reste du graphe. Cette face (représentée en Figure 3.17) est appelée
face extérieure ou face externe du plongement, les autres étant dites internes.

Figure 3.17 – Un graphe avec une face interne et une face externe pentagonales.

Remarque : via une projection stéréographique, on peut remplacer R2 par la


sphère S2 dans les définitions précédentes. La face extérieure est alors l’image de
la face sur la sphère contenant le point à partir duquel on a effectué la projection.
Une application classique de la formule d’Euler (démontrée dans le Développe-
ment 115) montre que tout graphe planaire à n > 3 sommets possède moins
de 3n − 6 arêtes. Les graphes atteignant cette borne ont toutes leurs faces de
taille 3 (y compris la face externe) dans chacun de leurs plongements. On parle
alors de triangulation.
La définition d’un plongement s’étend en fait à toute surface (pas seulement au
plan R2 et à la sphère S2 ) : les sommets du graphe sont alors associés à des points
de la surface, et les arêtes à des chemins sur la surface dont les intérieurs sont
deux à deux disjoints. Avec cette vision topologique, il est possible d’étudier une
surface en observant ses triangulations. Il est par exemple possible de calculer des
groupes d’homologie et de cohomologie d’une surface de cette manière.
Une autre application des triangulations en géométrie différentielle est fournie
par le lemme de Sperner, un résultat combinatoire sur les colorations de quasi-
triangulations. Ce lemme peut être employé pour montrer le théorème de point
fixe de Brouwer. Il permet de plus d’approcher effectivement un tel point fixe.

5 Graphes orientés
La notion de graphe orienté est une extension naturelle de la notion de graphe,
dans laquelle on souhaite associer à chaque arête une direction. Classiquement,
on modélise cette situation en définissant A comme un sous-ensemble de S 2 . Le
couple (s, t) est alors appelé arc et noté (à nouveau) st. La plupart des notions
définies précédemment se transposent mutatis mutandis aux graphes orientés. On
détaille ci-après uniquement les notions qui leur sont spécifiques.

713
Définition 49 (Voisinages d’un sommet)
Soit G = (S, A) est un graphe orienté et st ∈ A.
• Le sommet t est dit successeur de s et s est dit prédécesseur de t.
• On appelle voisinage entrant (resp. sortant) de s ∈ S l’ensemble N − (s) (resp.
N + (s)) des prédécesseurs (resp. successeurs) de s.
• L’arc st est dit arc sortant de s et arc entrant de t.
• On appelle degré entrant d− (s) (resp. sortant d+ (s)) le nombre d’arcs entrants
(resp. sortants) de s.
• On appelle source tout sommet sans prédécesseur et puits tout sommet sans
successeur.

La notion d’accessibilité n’étant plus symétrique dans le cas des graphes orientés,
ce n’est plus une relation d’équivalence en général. On généralise alors la notion
de connexité comme suit.
Définition 50 (Connexité forte)
• Un graphe orienté G = (S, A) est dit fortement connexe si pour tous s, t ∈ S,
le sommet s est accessible depuis t et t est accessible depuis s.
• On appelle composante fortement connexe d’un graphe orienté tout sous-
ensemble de sommets maximal pour l’inclusion et qui induit un graphe
orienté fortement connexe (voir Figures 3.18 et 3.19).

Les composantes fortement connexes d’un graphe orientés peuvent être déterminées
en temps linéaire grâce aux algorithmes de Tarjan ou de Kosaraju.
Définition 51 (Circuit, cycle orienté)
Soit G = (S, A) un graphe orienté. On appelle circuit toute suite s1 , . . . , sn ∈ S
tels que sn s1 et si si+1 soient des arcs de A pour tout i ∈ J1, n − 1K. Si de plus
les si sont deux à deux distincts, on parle de cycle orienté (voir Figure 3.18).

2 4

3 5

Figure 3.18 – Le circuit 123145 est composé de deux cycles orientés 123 et 145.
Ce graphe est fortement connexe : il n’a qu’une composante fortement connexe.

Définition 52 (Acyclicité)
Un graphe orienté est dit acyclique s’il ne contient aucun circuit (ou de manière
équivalente, aucun cycle orienté).

Dans un graphe orienté acyclique G, on peut effectuer un tri topologique, c’est-


à-dire ordonner les sommets de telle sorte que tous les arcs de G aillent d’un

714
Théorie des graphes

sommet vers un sommet qui lui est supérieur. Obtenir un tel tri permet de résoudre
des problèmes d’ordonnancement et est à la base de logiciels comme Make, qui
analyse les dépendances entre fichiers afin de les compiler dans un bon ordre.
Cette technique est aussi utilisée dans les gestionnaires de paquets pour installer
les paquets en satisfaisant leurs dépendances (voir Développement 117).
Définition 53 (Graphe quotient)
À partir de tout graphe orienté, on peut construire un graphe orienté acyclique
en contractant chaque composante fortement connexe en un seul sommet et en
reportant les arcs comme dans la Définition 36. Le graphe orienté obtenu est
appelé graphe quotient (voir Figure 3.19).

1
1

3 7
2 6

4 5 2|3|4 5|6|7

Figure 3.19 – Les composantes fortement connexes d’un graphe orienté et son
graphe quotient.

La terminologie « graphe quotient » se justifie par le fait que ce graphe est le


quotient du graphe original par la relation d’équivalence définie sur l’ensemble
des sommets par le fait d’appartenir à une même composante fortement connexe.

715
Théorie des graphes

Développement 113 (Polynôme chromatique F)

Pour tout k ∈ N∗ , on appelle coloration à k couleurs d’un graphe G = (S, A)


toute application φ : S → J1, kK. Si x ∈ S, on dit alors que φ(x) est la couleur
associée au sommet x. Une coloration de G est dite propre si pour tous x, y ∈ S
tels que xy ∈ A on a φ(x) 6= φ(y) (c’est-à-dire si deux sommets voisins ne sont
jamais coloriés de la même couleur). On note Ck (G) l’ensemble des colorations
propres à k couleurs de G et ck (G) := |Ck (G)|.

a) Montrer que pour tout graphe G contenant une arête xy, on a

ck (G) = ck (G − xy) − ck (G · xy), (1)

où G − xy et G · xy sont les graphes obtenus à partir de G selon les opérations


définies à la page 706.
b) Soit G = (S, A) un graphe. Montrer qu’il existe un unique PG ∈ Z[X],
nommé polynôme chromatique de G, tel que PG (k) = ck (G) pour tout k ∈ N∗ ,
puis établir les propriétés suivantes :
(i) PG est unitaire.
(ii) deg(PG ) = |S|.
(iii) Le terme de degré |S| − 1 de PG est égal à −|A|X |S|−1 .
(iv) Le terme constant de PG est nul.
(v) PG est à coefficients de signes alternés.
c) Déterminer le polynôme chromatique d’un graphe linéaire, puis celui d’un
graphe cyclique.

Leçons concernées : 190, 925

Ce développement présente les propriétés de base des polynômes chromatiques


et permet d’identifier le polynôme chromatique de n’importe quel graphe, ainsi
que l’illustre l’exemple traité en commentaire. Il consiste principalement en des
arguments de dénombrement simples, ce qui en fait un développement relativement
élémentaire adapté à la leçon 190. Il s’insère aussi naturellement dans la leçon 925,
à condition de consacrer une partie du plan aux aspects combinatoires des graphes
et au problème de coloration.

Correction.
a) Soit G = (S, A) un graphe tel que A contienne un élément xy, et soit k ∈ N∗ .
Les colorations propres à k couleurs de G − xy sont de deux types : celles qui
associent la même couleur à x et à y, et celles qui leur associent des images
différentes. L’ensemble des colorations du premier type est en bijection avec
l’ensemble des colorations propres à k couleurs de G · xy : en effet, une telle
bijection est réalisée par l’application transformant une coloration propre φ de
G − xy vérifiant la propriété φ(x) = φ(y) en la coloration propre ψ de G · xy

717
113. Polynôme chromatique

définie par (
ψ(a) = φ(a) si a ∈ S \ {x, y},
ψ(x|y) = φ(x).
L’ensemble des colorations propres φ de G − xy vérifiant φ(x) 6= φ(y), quant à lui,
est exactement l’ensemble des colorations propres de G. On a donc

ck (G − xy) = ck (G · xy) + ck (G),

d’où le résultat attendu.


b) L’unicité du polynôme PG ne pose pas de problème sous réserve de son
existence : en effet, si deux polynômes de R[X] coïncident en tout point de N∗ , ils
sont nécessairement égaux. Démontrons par récurrence sur m ∈ N la proposition
Pm : « Pour tout graphe G = (S, A) à m arêtes, il existe PG ∈ Z[X]
de degré |S|, unitaire, de terme constant nul, de terme de degré |S| − 1
égal à −mX |S|−1 tel que PG (k) = ck (G) pour tout k ∈ N∗ et de
coefficients de signes alternés. »
La proposition P0 est vraie : en effet, si G est un graphe sans arêtes, il est clair
que PG (k) = k |S| pour tout k ∈ N∗ puisque toutes les applications φ : S → J1, kK
sont des colorations propres de G, si bien que le polynôme PG = X |S| convient.
Fixons à présent m ∈ N et supposons P0 , . . . , Pm vraies. Soit G = (S, A) un
graphe à m + 1 arêtes. On choisit une arête xy ∈ A. D’après la question a), on a

ck (G) = ck (G − xy) − ck (G · xy) (2)

pour tout k ∈ N∗ . Or les graphes G − xy et G · xy contiennent tous deux


au plus m arêtes donc on peut leur appliquer l’hypothèse de récurrence pour
obtenir des polynômes PG−xy et PG·xy vérifiant les conditions correspondantes.
En introduisant le polynôme PG = PG−xy − PG·xy , on a alors bien PG (k) = ck (G)
pour tout entier k ∈ N∗ d’après l’égalité (2). Il reste à vérifier les propriétés
attendues.
• Par hypothèse, PG−xy est unitaire de degré |S| et PG·xy est de degré |S| − 1,
donc PG est unitaire de degré |S|.
• De plus, si k ∈ J0, |S|K, le coefficient du terme de degré k de PG−xy est du
signe de (−1)|S|−k et celui de PG·xy du signe de (−1)|S|−1−k , si bien que
le coefficient du terme de degré k de PG est du signe de (−1)|S|−k , ce qui
montre que PG est à coefficients de signes alternés.
• Par ailleurs, le terme de degré |S| − 1 du polynôme PG est bien égal
à −mX |S|−1 − X |S|−1 = −(m + 1)X |S|−1 par hypothèse sur PG−xy (dont le
terme de degré |S| − 1 est −mX |S|−1 ) et PG·xy (unitaire et de degré |S| − 1,
et donc de terme de degré |S| − 1 égal à X |S|−1 ).
• Enfin, le fait que le coefficient constant de PG soit nul résulte du fait que les
termes constants des polynômes PG−xy et PG·xy sont nuls.
La proposition Pm+1 est donc établie, ce qui clôt la preuve par le principe de
récurrence.

718
Théorie des graphes

c) Soient k ∈ N∗ et n ∈ N∗ . Cherchons à obtenir une coloration propre à k


couleurs du graphe linéaire à n sommets, qui peut être représenté comme suit :

1 2 3 4 n

Il existe k choix de couleurs pour le nœud 1. Pour chacun de ces choix, on dispose
ensuite de k − 1 choix de couleurs pour le nœud 2 (si celui-ci existe), puis à
nouveau de k − 1 choix pour le nœud 3 (si celui-ci existe), et ainsi de suite jusqu’au
nœud n. On a donc ck (Ln ) = k(k − 1)n−1 , d’où :

∀n ∈ N∗ , PLn = X(X − 1)n−1 . (3)

À présent, si n > 3, le graphe cyclique à Cn à n sommets est constitué par le


graphe Ln auquel on a ajouté l’arête 1n. Il est donc de la forme suivante :

1 2 3 4 n

On remarque que si n > 4, alors Cn − 1n = Ln et Cn · 1n est isomorphe à Cn−1 .


D’après la relation (1), on a donc, si k ∈ N∗ et n > 4,

ck (Cn ) = ck (Ln ) − ck (Cn−1 ),

et donc, d’après (3) :

ck (Cn ) = k(k − 1)n−1 − ck (Cn−1 ). (4)

On voit aisément que ck (C3 ) = k(k − 1)(k − 2) pour tout k ∈ N∗ , si bien que (4)
donne par une récurrence facile :
n−1
∀n > 3, ∀k ∈ N∗ ,
X
ck (Cn ) = (−1)n−1−i k(k − 1)i + k(k − 1)(k − 2)(−1)n−1
i=3
"n−1 #
X
n−1 i
= k(−1) (1 − k) + (1 − k)(2 − k)
i=3
n−1
X
= k(−1)n−1 (1 − k)i
i=1
(1 − k) + (1 − k)n
= k(−1)n−1
k
n n
= (k − 1) + (−1) (k − 1),

et donc :
∀n > 3, PCn = (X − 1)n + (−1)n (X − 1).

719
113. Polynôme chromatique

Commentaires.
© La question a) permet le calcul de ck (G) en utilisant deux graphes dont le
nombre d’arêtes est strictement plus petit que celui de G (si ce dernier nombre
n’est pas nul). Ainsi, combiner les résultats des questions a) et c) permet de
déterminer de proche en proche le polynôme chromatique de graphes finis simples
arbitrairement complexes. À titre d’exemple, déterminons le polynôme chromatique
du graphe G1 représenté sur la figure ci-après 39 :

f e d

a b c

f e d f e d e d

a b c a b c a|f b c

Graphe G1 Graphe G2 Graphe G3

e d e

a|f b c a|f b c|d

Graphe G4 Graphe G5

Figure 3.20 – Graphes G1 , G2 , G3 , G4 , G5 utilisés dans le calcul de PG1 .

Pour ce faire, on utilise la relation (1) pour se ramener au cas du cycle C4 . On


définit successivement (voir la figure 3.20) les graphes G2 = G1 − af , G3 = G1 · af ,
G4 = G3 − cd, et enfin G5 = G3 · cd. On utilise alors (1) pour trouver :

PG 1 = PG 2 − PG 3 (5)

et
PG 3 = PG 4 − PG 5 . (6)
Il est clair (voir Figure 3.20) que pour tout k ∈ N∗ , une coloration propre de G2
à k couleurs est obtenue en se donnant une coloration propre de G3 à k couleurs
39. Il est possible (et intéressant !) de présenter ce calcul à la fin de l’exposition du développe-
ment, au prix de quelques raccourcis lors de la présentation des questions précédentes.

720
Théorie des graphes

et en choisissant la couleur de f parmi les k − 1 couleurs non attribuées à e, si


bien que ck (G2 ) = (k − 1)ck (G3 ), d’où PG2 = (X − 1)PG3 . Pour la même raison,
on a l’égalité PG4 = (X − 1)PG5 . Les relations (5) et (6) deviennent alors

PG1 = (X − 2)PG3 et PG3 = (X − 2)PG5 ,

d’où
PG1 = (X − 2)2 PG5 .
On remarque enfin que G5 est le graphe cyclique C4 , si bien que

PG5 = (X − 1)4 + (X − 1)
= X(X − 1)(X 2 − 3X + 3),

d’où l’on déduit le résultat recherché :

PG1 = X(X − 1)(X − 2)2 (X 2 − 3X + 3).

© Le nombre chromatique χ(G) d’un graphe G est défini par

χ(G) := min{k ∈ N∗ : Ck (G) 6= ∅}.

Il est aisé de démontrer que si ∆ est le degré maximal d’un sommet de G, alors on
a χ(G) 6 ∆ + 1. En effet, une coloration propre de G à ∆ + 1 couleurs peut dans
ce cas être obtenue en coloriant successivement chaque sommet à l’aide d’une
couleur par laquelle aucun de ses voisins n’a déjà été colorié, ce qui est toujours
possible. Le théorème de Brooks (1941) affine ce résultat en affirmant que si G est
connexe, alors χ(G) 6 ∆, sauf si G est un graphe complet ou un graphe cyclique
avec un nombre impair de sommets, auquel cas ∆ + 1 couleurs sont nécessaires
(et donc χ(G) = ∆ + 1).
© La détermination du nombre chromatique d’un graphe est un problème NP-
complet bien connu. À ce jour, on ne sait pas s’il est possible de généraliser le
théorème de Brooks avec une borne de ∆ − 1, sauf pour une famille de graphes
dont la structure est bien comprise. Ceci motive l’étude du nombre chromatique
sur certaines sous-classes de graphes. Les résultats en ce sens sont légion. Le plus
connu d’entre eux est probablement le théorème des quatre couleurs (1976), qui
affirme que le nombre chromatique de tout graphe planaire est au plus 4. Le
théorème de Grötzsch (1959) stipule que cette borne peut être ramenée à 3 si le
graphe est sans triangle.
© La coloration est une thématique très répandue en théorie des graphes, où elle
permet par exemple de modéliser des problèmes d’allocation de ressources. Par
exemple, supposons que les sommets du graphe représentent des trains susceptibles
de fréquenter une gare donnée, et qu’une arête du graphe reliant deux sommets
modélise le fait que les deux trains correspondants ne peuvent partager le même
quai, par exemple parce que leurs périodes de présence en gare se chevauchent.
Alors une coloration propre du graphe est une application associant à chaque train
un quai de sorte que le trafic se déroule sans encombre, et le nombre chromatique

721
113. Polynôme chromatique

est le nombre minimal de quais que la gare doit posséder pour que ce soit possible.
Ceci se généralise naturellement à un ensemble de tâches à accomplir dont certaines
ne peuvent être effectuées simultanément ; le nombre chromatique est alors la
quantité minimale de ressources nécessaires pour pouvoir effectuer toutes les
tâches. Ce point de vue se retrouve en compilation (quand on cherche à minimiser
le nombre de registres utilisés dans un programme), en télécommunications (quand
on cherche à définir quelles fréquences assigner aux éléments d’un réseau sans que
deux éléments proches n’utilisent la même fréquence à cause des interférences),
en planification pour créer des emplois du temps (dans lesquels deux cours ne
peuvent occuper le même créneau horaire s’il existe des élèves inscrits aux deux
cours à la fois) ou des plans d’occupation de salles (dans lesquels deux cours ne
peuvent occuper la même salle si leurs horaires se chevauchent)...
Ces nombreuses applications ont donné lieu à de tout aussi nombreuses variantes
du problème initial de coloration de sommets. On peut par exemple citer le
problème de la coloration d’arêtes, où l’on attribue une couleur à chaque arête de
sorte que deux arêtes partageant une extrémité reçoivent des couleurs différentes.
Le nombre minimal de couleurs nécessaire à ce type de coloration est appelé
indice chromatique. En considérant les arêtes incidentes à un sommet de degré ∆,
on s’aperçoit du fait que ∆ couleurs sont toujours nécessaires. Le théorème de
Vizing (1964) assure qu’il existe toujours une coloration d’arêtes à ∆ + 1 couleurs.
Cependant, déterminer la valeur exacte est un problème NP-complet (et ce, même
lorsque ∆ = 3).

Questions.

1. Vérifier que la coloration ψ de G · xy définie à partir de la coloration propre φ


de G dans la correction de la question a) est bien une coloration propre.
2. Soit G un graphe à n ∈ N∗ sommets. Montrer que G admet au moins n!
colorations propres à n couleurs. Dans quel cas admet-il exactement n! telles
colorations propres ?
3. Combien existe-t-il de colorations à 2 couleurs de G1 (voir Figure 3.20) ? à 3
couleurs ? Réaliser l’une de ces colorations.
4. Déterminer le polynôme chromatique du graphe complet Kn à n sommets.
5. Calculer le polynôme chromatique des graphes suivants :

722
Théorie des graphes

6. Deux graphes admettant le même polynôme chromatique sont-ils nécessairement


isomorphes ?
7. Tout polynôme unitaire de degré n ∈ N∗ à coefficients de signes alternés, à
coefficient constant nul et à coefficients de degré n − 1 non nul est-il un polynôme
chromatique ?
Indication : on pensera à l’interprétation de P (k) lorsque P est un polynôme
chromatique.
8. Soit G = (S, A) un graphe admettant une coloration propre à 2 couleurs.
Montrer qu’il existe une application ε : S → {−1, 1} telle que
X
ε(x)d(x) = 0.
x∈S

9. Des garçons et des filles dansent dans une soirée de gala. À la fin de la soirée,
on demande à chacun et chacune le nombre de danses auxquelles ils ont participé.
Les réponses obtenues sont les suivantes : 3, 3, 3, 3, 3, 5, 6, 6, 6, 6. Montrer qu’au
moins une personne a fait une erreur.
10. Lors d’une école d’été, p ∈ N∗ conférences différentes sont proposées à des
mathématiciens qui sont invités à exprimer leur intérêt pour n’importe quel nombre
d’entre elles. Chaque conférence dure une journée, et il est considéré comme
primordial que chaque mathématicien puisse assister à toutes les conférences qui
l’intéressent. Comment les organisateurs doivent-ils s’y prendre pour déterminer
le nombre minimal de journées nécessaires pour satisfaire tous les participants ?
Indication : on pourra considérer un graphe G dont les sommets représentent les p
différentes conférences et dont on cherchera à définir le nombre chromatique,
c’est-à-dire le plus petit k ∈ N∗ tel que PG (k) 6= 0.
11. Soit G un graphe possédant m ∈ N∗ composantes connexes. Montrer que X m
divise PG .
Indication : on pourra considérer les polynômes chromatiques de ces différentes
composantes connexes vues comme des graphes isolés.
12. En utilisant le théorème de Brooks, montrer que le problème de 3-colorabilité
d’un graphe de degré au plus 3 est polynomial.

723
114. Théorème de Turán

Développement 114 (Théorème de Turán FF)

Soient r ∈ N∗ et G = (V, E) un graphe fini simple. On note n = |V | et


m = |E|. Le but de ce développement est de calculer la valeur maximum de m
lorsque G ne contient pas de clique à r + 1 sommets.
a) Théorème de Turán (version faible).
On considère le processus aléatoire suivant : on tire aléatoirement uniformé-
ment une permutation σ ∈ SV des sommets. On construit un sous-ensemble
aléatoire S ⊂ V en considérant les sommets dans l’ordre donné par σ, et en
les ajoutant à S si et seulement si aucun de leurs voisins n’est déjà dans S.
On obtient donc une variable aléatoire S à valeurs dans l’ensemble des parties
de V . Chaque valeur de S est un ensemble indépendant de G maximal pour
l’inclusion.
(i) Étant donné un sommet v de degré d dans G, calculer P(v ∈ S).
(ii) En déduire que
n2
E(|S|) 6 . (1)
2m + n
(iii) En considérant le complémentaire de G, montrer que
 2
1 n

m6 1− .
r 2

b) Théorème de Turán (version forte).


Soient n, r ∈ N∗ . Soit Tn,r le graphe r-parti complet à n sommets où la
partition associée comprend p ensembles de taille d nr e et r − p ensembles de
taille b nr c (où p est le reste de la division de n par r).

Le graphe T4,3 Le graphe T10,4

(i) Montrer que Tn,r est l’unique graphe qui maximise le nombre d’arêtes
parmi les graphes r-partis à n sommets.
(ii) Soit G un graphe à n sommets sans clique à r + 1 sommets, et dont le
nombre d’arêtes est maximal pour cette propriété. Montrer que G est
r-parti complet, et en déduire que G = Tn,r .
Leçons concernées : 190, 264, 925

724
Théorie des graphes

Le théorème de Turán est un résultat fondateur de la théorie extrémale des graphes.


Les questions abordées dans ce domaine consistent à déterminer quels graphes
maximisent un paramètre (ici, le nombre d’arêtes) sous certaines contraintes (par
exemple, ne pas contenir un graphe donné comme sous-graphe). Ici, le sous-graphe
interdit est une clique. Si on remplace cette clique par un autre graphe, par exemple
un chemin ou un cycle, on obtient d’autres questions dont certaines (et même
la plupart) sont encore ouvertes à ce jour. En tant que résultat de combinatoire
et de théorie des graphes, le théorème de Turán s’intègre facilement dans les
leçons 190 et 925. De nombreux résultats de théorie des graphes admettent une
preuve utilisant des probabilités. L’utilisation de la méthode probabiliste présentée
ici rend le théorème de Turán abordable dans les leçons traitant de probabilités
discrètes.

Correction.
a) (i) On note v1 , . . . , vd les voisins de v dans G. Par construction de S, la
probabilité de l’évènement « v ∈ S » est égale à la probabilité que v soit choisi
avant ses voisins par le processus aléatoire, i.e. σ(v) < σ(vi ) pour tout i ∈ J1, dK.
Pour tout i ∈ J1, d + 1K, soit Σi l’ensemble des permutations de SV qui placent v
en i-ème position parmi les vj . La probabilité recherchée est alors |Σ1|
|V |! = P(v ∈ S).
Soit i ∈ J1, d + 1K. Soit ϕ : Σi → Σ1 l’application qui associe à tout τ ∈ Σi la
composée τ 0 τ où τ 0 est la transposition qui échange τ (v) avec min{τ (v1 ), . . . , τ (vd )}.
L’application ϕ est une bijection, car l’application ψ : Σ1 → Σi qui associe à τ
la composée τ 00 τ où τ 00 est la transposition de SV échangeant τ (v) avec le i-ème
plus petit élément de {τ (v1 ), . . . , τ (vd )} vérifie ψ ◦ ϕ = IdΣi et ϕ ◦ ψ = IdΣ1 . On
a donc l’égalité |Σ1 | = |Σi |.
|V |!
De plus, Σ1 , . . . , Σd+1 forment une partition de SV , d’où |Σ1 | = d+1 . Finalement,
1
on a donc P(v ∈ S) = d+1 .
(ii) D’après la question précédente et par linéarité de l’espérance, on a
!
X X X X 1
E(|S|) = E 1v∈S = E(1v∈S ) = P(v ∈ S) = .
v∈V v∈V v∈V v∈V
d(v) + 1

1
La convexité de la fonction x 7→ 1+x sur R+ donne alors que

1 X 1 1
> 1 .
n v∈V d(v) + 1
P
n v∈V d(v) + 1

1 n
On obtient alors n E(|S|) > 2m+n , ce qui est le résultat souhaité.
(iii) Soit G le graphe complémentaire de G, c’est-à-dire le graphe simple ayant
le même ensemble de sommets que G et dont les arêtes sont exactement celles
n’apparaissant pas dans G. Un ensemble indépendant de G est donc une clique
dans G. Ainsi, si G ne possède pas de clique de taille r + 1, tout ensemble
indépendant de G est de taille au plus r. Soit S un ensemble aléatoire construit à

725
114. Théorème de Turán

partir de G comme l’était S à partir de G. Par construction, S est indépendant,


donc |S| 6 r. Remarquons aussi que G a n(n−1)
2 − m arêtes si G en a m, d’où

n2
r > E(|S|) > .
n + 2( n(n−1)
2 − m)

n2
On en déduit que m 6 2 (1 − 1r ).
b) (i) Soit G = (V, E) un graphe r-parti à n sommets ayant un nombre maximal
d’arêtes. Soit {V1 , . . . , Vr } une partition des sommets de G en r ensembles indé-
pendants dans G, triée par tailles croissantes. Pour tout i ∈ J1, rK, on note cette
taille ki = |Vi |. Comme le nombre d’arêtes de G est maximal, on peut supposer
que toutes les arêtes sont présentes dans G sauf entre deux sommets appartenant
au même Vi pour un certain i ∈ J1, rK. Autrement dit, le complémentaire de G est
composé de r cliques disjointes, de tailles k1 , . . . , kr , avec k1 > · · · > kr .
Chaque clique induite par Vi a ki (k2i −1) arêtes. Ainsi, le nombre d’arêtes de G est
r r r r
! !
X ki (ki − 1) 1 X X 1 X
= ki2 − ki = k2 − n .
i=1
2 2 i=1 i=1
2 i=1 i

Maximiser le nombre d’arêtes de G revient à minimiser celui de G et donc ri=1 ki2


P

sous la condition ri=1 ki = n. On remarque qu’il n’y a qu’un nombre finis de


P

r-uplets d’entiers positifs de somme n. Ainsi, il en existe au moins un qui minimise


la somme ri=1 ki2 . Prenons alors (k1 , . . . , kr ) un tel r-uplet.
P

Pour tout k, ` ∈ N, si ` > 1 on a


 2
` ` 2
 
2 2 2 2 2
(k + `) + k = 2k + 2k` + ` > 2k + 2k` + +
2 2
 2   2
` `

= k+ + k+ .
2 2

Cette inégalité assure que, quand ki et kj diffèrent d’au moins 2, on peut faire
décroître strictement la somme ki2 + kj2 en remplaçant ki , kj par deux entiers notés
ki0 , kj0 qui ont même somme. Ainsi, pour minimiser ri=1 ki2 , les entiers ki et kj
P

doivent différer d’au plus 1, pour tout i, j ∈ J1, rK. Comme k1 > · · · > kr par
hypothèse, on peut donc supposer que k1 = · · · = kj et kj+1 = · · · = kr = k1 − 1
pour un certain j ∈ J1, rK.
On a alors n = ri=1 ki = rkr + j. Comme 0 6 j < r, on retrouve l’écriture de la
P

division euclidienne de n par r, d’où kr = b nr c. On obtient donc

n
 
k1 = · · · = kj = ,
r
n
 
kj+1 = · · · = kr = .
r
Ainsi, G est isomorphe à Tn,r .

726
Théorie des graphes

(ii) Supposons que G ne soit pas k-parti complet pour un certain entier k, i.e.
que son complémentaire ne soit pas une union de k cliques. En d’autres termes,
supposons qu’il existe x, y, z ∈ V tels que xz ∈
/ E, yz ∈ / E et xy ∈ E.
Si d(z) < d(x), on remplace z par une copie de x, c’est-à-dire un sommet x0 qui
a les mêmes voisins que x. Le graphe obtenu H a alors plus d’arêtes que G. De
plus, supposons que H contienne une clique à r + 1 sommets. Alors cette clique
ne peut contenir qu’un seul sommet parmi x et x0 (car ils ne sont pas adjacents).
Comme x et x0 ont les mêmes voisins, si x0 appartient à la clique, alors on peut
le remplacer par x et obtenir une nouvelle clique de taille r + 1. Cette clique ne
contient que des sommets présents dans G, ce qui est absurde car G ne contient
pas de clique à r + 1 sommets.
On peut donc en déduire que d(z) > d(x) et, de manière similaire, d(z) > d(y).
On remplace alors x et y par deux copies z 0 et z 00 de z. Comme xy ∈ E, le graphe
H 0 obtenu a plus d’arêtes que G. Par le même argument que précédemment, H 0
ne contient pas de clique à r + 1 sommets. On aboutit donc à une contradiction.
Ainsi, G est k-parti complet pour un certain k.
Comme G ne contient pas de clique à r + 1 sommets, on a k 6 r. Ainsi, G
est r-parti (en effet tout graphe k-parti est aussi `-parti pour tout ` > k par
définition). D’après la question précédente, Tn,r est l’unique graphe r-parti sur n
sommets avec un nombre maximum d’arêtes, d’où G = Tn,r .

Commentaires.
© On connaît de nombreuses démonstrations du théorème de Turán. Celle présen-
tée ici en question b) est due à Zykov (1949). Pour la version faible, la preuve
originale de Turán (1941) procède par récurrence sur n, en considérant un graphe G
maximal en nombre d’arêtes ne contenant pas de cliques à r + 1 sommets. Par
maximalité, G doit contenir une clique K à r sommets. On peut alors obtenir une
borne supérieure sur |E(G)| en appliquant l’hypothèse de récurrence à V (G) \ K
et en remarquant que tout sommet de V (G) \ K a au plus k − 1 voisins dans K.
La version forte admet une autre preuve, due à Erdős (1970) qui procède par
récurrence sur r, et consiste à transformer un graphe G maximal en nombre
d’arêtes ne contenant pas de cliques à r + 1 sommets. À l’issue des transformations,
on peut montrer qu’on a augmenté le nombre d’arêtes sans créer de clique à r + 1
sommets (ce qui contredit la maximalité de G) sauf si G est multiparti complet,
ce qui permet de conclure grâce à la question b)(i).
© La méthode probabiliste est très utilisée en théorie des graphes. L’idée générale
est de considérer un processus aléatoire pour créer un objet, puis de montrer que la
probabilité que cet objet ait la propriété recherchée soit positive. Ceci assure qu’au
moins un des objets vérifie la propriété. On obtient ainsi des résultats d’existence,
mais de manière non constructive. On peut par exemple citer le résultat d’Erdős
(1959) : pour tous entiers k, g, il existe un graphe de nombre chromatique au
moins k et dont le plus petit cycle est de taille g.
© Soit F un graphe et n un entier. On note ex(F, n) le nombre maximum d’arêtes
d’un graphe à n sommets ne contenant pas F comme sous graphe. Le théorème

727
114. Théorème de Turán

de Turán établit que ex(Kr+1 , n) = |E(Tn,r )|, et que l’unique graphe atteignant
ce maximum est Tn,r .
Le théorème d’Erdős-Stone-Simonovits (1966) généralise ce résultat lorsque F est
un graphe quelconque :
Soit F un graphe non biparti. Alors
 2
1 n

ex(F, n) ∼ 1− .
n→+∞ χ(F ) − 1 2

Sous certaines conditions sur F , on peut aussi généraliser la version forte du


théorème de Turán, en montrant que Tn,χ(F )−1 est l’unique graphe atteignant le
maximum ex(F, n).
© Lorsque le graphe F est biparti, le théorème d’Erdős-Stone-Simonovits est encore
valide, sous la forme ex(F, n) = o(n2 ). Cependant, déterminer un équivalent de
ex(F, n) constitue une question ouverte pour la plupart des valeurs de F .
© La densité d’un graphe (V, E) est le rapport entre son nombre d’arêtes |E|
et le nombre d’arêtes 12 |V |(|V | − 1) d’un graphe complet ayant le même nombre
de sommets. Un graphe ayant une densité de 1 est donc un graphe complet. On
peut donc reformuler le théorème de Turán en une majoration de la densité des
graphes qui évitent une clique à r + 1 sommets. Une application majeure de la
notion de densité est fourni par le regularity lemma (Szemerédi, 1978), un outil de
théorie extrémale des graphes permettant de décomposer tout graphe assez grand
en un nombre borné de parties V1 , . . . , Vk de sorte que la plupart de ces parties
interagissent de manière contrôlée (ce qui s’exprime en termes de densité). De ce
résultats découlent de nombreux autres, parmi lesquels on peut citer le removal
lemma (Erdős, Frankl et Rödl, 1986) :
Soit F un graphe et ε > 0. Il existe δ > 0 et n0 ∈ N tels que tout graphe
G ayant au moins n0 sommets vérifie l’une des assertions suivantes :
• le graphe G contient au moins δ|V (G)||V (F )| copies de F ;
• il existe S ⊂ E(G) tel que |S| 6 ε|V (G)|2 et G \ S ne contient
aucune copie de F .
Ce théorème permet d’obtenir des résultats en théorie des nombres, comme le
théorème de Roth sur les progressions arithmétiques (voir questions).
© La notion de densité s’étend de manière naturelle à des sous-graphes : si G et H
sont deux graphes, la densité de H dans G est la proportion des sous-ensembles de
|V (H)| sommets de G qui induisent H. De manière similaire au théorème de Turán,
de nombreux problèmes en théorie extrémale des graphes consistent à déterminer
des bornes sur ces densités lorsqu’on s’intéresse à certaines classes de graphes.
Dans ce cadre, on dispose d’outils permettant de manipuler algébriquement ces
densités : les algèbres à drapeaux. Grâce à cet outil (bien éloigné du programme
de l’agrégation), on peut retrouver le cas r = 2 du théorème de Turán en quelques
lignes n’utilisant que le fait que le carré d’un réel est positif.

728
Théorie des graphes

Questions.
1. Montrer que pour tout n ∈ N, on a n = b n2 c + d n2 e.
n(n−1)
2. Justifier que G a bien 2 − m arêtes si G en a m.
P
3. Justifier l’égalité v∈V d(v) = 2m.
4. Retrouver l’inégalité de la question a)(ii) en utilisant l’inégalité des moyennes
harmonique et arithmétique.
5. Résoudre le problème de minimisation de la question b)(i) dans le cas où
k1 , . . . , kr sont réels.
6. Montrer qu’un graphe est multiparti complet si et seulement s’il ne contient
pas le graphe à trois sommets et une arête comme sous graphe induit.
7. Quelle est la complexité de décider si un graphe est t-parti ?
8. Tout graphe non t-parti admet-il une clique de taille t comme sous-graphe ?
9. Le cas r = 2 du théorème de Turán, à savoir le cas des graphes sans triangle,
est connu comme le théorème de Mantel. Donner une preuve par récurrence de ce
théorème.
Indication : dans un premier temps, on pourra vérifier que dans un graphe sans
triangle à n sommets, on a d(u) + d(v) 6 n pour toute arête uv. Ensuite, pour
prouver le résultat sur G, on pourra ensuite appliquer l’hypothèse de récurrence
à G privé de deux sommets adjacents.
4e n2
10. Montrer que tout graphe à n sommets et m arêtes contient au moins 3n (e− 4 )
triangles.
11. Montrer le théorème de Dirac : si G est un graphe à au moins r + 2 sommets
tel que |E(G)| = |E(Tn,r )| + 1, alors G contient une copie de Kr+2 privé d’une
arête.
12. Soit S ⊂ Rd un ensemble fini de vecteurs. Soient u, v deux vecteurs tirés
uniformément et indépendamment dans S. Montrer que pour tout réel positif x,
P(kuk > x)2
P(ku + vk > x) > .
2
13. Montrer que pour tout n ∈ N, tout ensemble de 3n points du √ disque unité
3
contient au moins 2 n(n − 1) paires de points à distance au plus 2.
14. Montrer que pour tout graphe F , la suite ( ex(F,n) ) est décroissante.
(n2 ) n∈N
15. Montrer que lorsque T est une étoile ou un chemin à k sommets,
n(k − 2)
ex(T, n) 6 .
2
Remarque : les étoiles et les chemins sont en quelque sorte les deux types d’arbres
les plus différents. Le résultat de cette question fournit ainsi la motivation de
la conjecture d’Erdős-Sós, qui affirme que l’inégalité précédente est vraie pour
n’importe quel arbre T à k sommets. De manière équivalente, elle affirme que
tout graphe à n sommets et au moins n(k−2) 2 arêtes contient une copie de tout
arbre à k sommets.

729
114. Théorème de Turán


16. Montrer que ex(C4 , n) 6 n 2 n .
Indication : on pourra compter de deux manières le nombre de copies de K1,2
dans un graphe à n sommets sans C4 .
17. Soit p un nombre premier, et G le graphe dont les sommets sont les éléments
de F2p \ {(0, 0)} où (x, y) et (a, b) forment une arête si ax + by = 1. Montrer que
2 −1)
G ne contient pas de cycle à 4 sommets et contient (p−1)(p
2 arêtes. En déduire
le théorème d’Erdős (1938) :

n n
ex(C4 , n) ∼ .
n→+∞ 2

18. Étant donné un entier k, on définit Rk comme le plus petit entier tel que
pour toute clique K de taille au moins Rk dont on a colorié les arêtes en deux
couleurs, K contient une clique monochromatique de taille k. Montrer que si
k(k−1)
2 nk < 2 2 , alors Rk > n.


Indication : on pourra considérer une coloration aléatoire des arêtes de K où chaque


arête a une chance sur deux d’obtenir chacune des couleurs (indépendamment
des autres). On pourra ensuite montrer que la probabilité que K ait une clique
n 1 k(k−1)
monochromatique de taille k est au plus 2 k (2)
2 où n = |V (K)|.
19. En appliquant le removal lemma, montrer le théorème de Roth (1953), sti-
pulant que tout ensemble d’entiers de densité non nulle contient une progression
arithmétique non triviale, ou plus formellement :

Pour tout ε > 0, il existe n0 ∈ N tel que pour tout n > n0 et A ⊂ J1, nK
tel que |A| > εn, on peut trouver x, y, z ∈ A tels que x < y < z et
y − x = z − y.

Indication : si A ⊂ J1, nK est assez dense, on pourra appliquer le removal lemma


dans le cas où F est un triangle et G est le graphe tel que

V (G) = {p1 , . . . , p10n , q1 . . . , q10n , r1 , . . . , r10n }, et


j−i
 
E(G) = {pi qj : j − i ∈ A} ∪ {qi rj : j − i ∈ A} ∪ pi rj : ∈A .
2

Remarque : ce résultat se généralise en remplaçant y − x = z − y par n’importe


quelle équation ax + by + cz = 0 où a, b, c sont des entiers de somme nulle. Dans
le cas où a + b + c 6= 0, on peut facilement montrer que le résultat est faux, par
exemple en fixant un nombre premier p ne divisant pas a + b + c et en posant
A = {n ∈ N : n ≡ 1 mod p}. On peut aussi le généraliser à des progressions
arithmétiques de longueur 4 (ce qui nécessite une généralisation du removal lemma
à des hypergraphes). En revanche, le résultat est faux pour des progressions
arithmétiques de longueur 5 ou plus.

730
Théorie des graphes

Développement 115 (Formule d’Euler par déchargement FF)

Soit G = (S, A) un graphe simple planaire. On fixe un plongement de G dans


le plan, et on note q(G) = |S| − |A| + |F | où F est l’ensemble des faces de G.
Le but de cet exercice est de montrer que q(G) = 2 et de fournir quelques
applications de ce résultat.
a) Formule d’Euler.
(i) Montrer qu’il suffit de prouver le résultat dans le cas où G est une
triangulation, c’est-à-dire quand toutes les faces de G sont des triangles.
On suppose maintenant que G est triangulé.
(ii) Montrer qu’il existe un plongement de G dans le plan où aucune arête
n’est horizontale. En particulier, pour tout sommet s (resp. arête a), il
existe une unique face à droite de s (resp. a) 40 .
(iii) On associe un poids à chaque sommet, arête et face de G en définissant
une fonction ω : S ∪ A ∪ F → R telle que
(
1 si x ∈ S ∪ F,
ω(x) =
−1 si x ∈ A.
On déplace ensuite le poids selon la règle suivante : chaque sommet
transfère un poids de 1 à la face à sa droite et chaque arête reçoit un
poids de 1 depuis la face à sa droite, comme illustré ci-après.
1
1 0
1 1
−1 0
−1 0
1
1 1 0
1
−1 1 0 0
Calculer le poids final de chaque face et en déduire que q(G) = 2.
b) Applications.
(i) En déduire que pour tous a, b ∈ R, on a :
X X
(a · d(s) − 2(a + b)) + (b · `(f ) − 2(a + b)) = −4(a + b),
s∈S f ∈F

où d(s) est le degré du sommet s et `(f ) la longueur de la face f .


(ii) Montrer qu’il n’y a que 5 polyèdres réguliers convexes.
(iii) Soit G un fullerène, i.e. un graphe planaire dont tous les sommets sont
de degré 3 et dont les faces ont pour longueur 5 ou 6. Montrer que G a
exactement 12 faces pentagonales.

Leçons concernées : 190, 925


40. Cette face peut être définie formellement comme l’unique face contenant un segment
horizontal suffisament petit dont l’extrémité gauche est s ou le milieu de a.

731
115. Formule d’Euler par déchargement

On s’intéresse ici à un grand classique de théorie des graphes : la formule d’Euler


pour les graphes planaires. Ce résultat et ses conséquences permettent d’illustrer
la leçon 925, en montrant que les graphes planaires possèdent des propriétés
structurelles fortes. La formule d’Euler, quant à elle, connaît un très grand nombre
de démonstrations et d’applications en combinatoire, ce qui justifie une inclusion
dans la leçon 190. On a choisi ici une méthode dite « par déchargement », très
utilisée en théorie structurelle des graphes. Le fonctionnement de cette méthode
sera développé dans les questions en fin d’exercice.

Correction.
a) (i) Supposons que q(T ) = 2 pour toute triangulation planaire T . Comme G
est simple, toutes ses faces ont taille au moins 3. On peut construire itérativement
une triangulation en ajoutant des arêtes à G selon la procédure suivante. Tant
que G possède une face non triangulaire, on ajoute une arête séparant cette face
en deux. La quantité q(G) reste inchangée car on ajoute une face et une arête.
Lorsque cette procédure se termine, le graphe H obtenu est une triangulation. On
a alors q(G) = q(H) = 2. On peut donc supposer que G est triangulé.
(ii) Pour θ ∈ [0, 2π[, on note rθ la rotation de R2 de centre (0, 0) et d’angle θ.
Considérons les images du plongement de G par rθ .
Pour chaque arête a de G, son image par rθ est horizontale pour seulement deux
valeurs de θ. Il existe ainsi au plus 2|A| valeurs de θ telles que l’image par rθ du
plongement de G contienne une arête horizontale. L’intervalle [0, 2π[ étant infini,
on peut choisir une valeur de θ pour laquelle cette situation n’arrive pas.
(iii) Soit f une face de G. Comme G est une triangulation, f est un triangle.
Comme il n’y a pas d’arête horizontale dans le plongement de G choisi, il existe
exactement un sommet x du plongement de f d’ordonnée maximum et un sommet y
d’ordonnée minimum. Soit z le troisième sommet de f . On distingue deux cas
selon que f est la face extérieure fext ou une face interne.
• Supposons que f est une face interne. Si (le plongement de) z est à gauche
(du plongement) de xy, alors f reçoit 1 par z et donne 1 à xz et yz. Sinon,
f donne seulement 1 à xy. Dans les deux cas, f perd un poids de 1 et son
poids final est 0.

x x

1
1
1 f f
1
z z
y y

Figure 3.21 – Déchargement : cas d’une face interne.

732
Théorie des graphes

• Supposons que f = fext . Si z est à gauche de xy, f reçoit 1 de x et y et donne


1 à xy. Sinon f reçoit 1 de la part de x, y et z et donne 1 à xz et yz. Dans
les deux cas, f reçoit un poids de 1 et son poids final est 2.

x 1 x
1
fext
1
1
1
1
z z fext
1
y y
1

Figure 3.22 – Déchargement : cas de la face externe.

La somme des poids était initialement


X X X
1+ (−1) + 1 = |S| − |A| + |F | = q(G).
s∈S a∈A f ∈F

La somme des poids finaux est


X X X
0+ 0+ 2δf,fext = 2.
s∈S a∈A f ∈F

Comme le déplacement des poids a préservé le poids total, on obtient finalement


le résultat recherché, à savoir q(G) = 2.
b) (i) Par linéarité de la somme, on remarque qu’il suffit de prouver que :
X X
a d(s) + b `(f ) = 2(a + b)(2 − |S| − |F |).
s∈S f ∈F

On utilise tout d’abord une permutation de sommes :


X XX X
d(s) = 1= 2 = 2|A| (1)
s∈S s∈S a∈A a∈A
s∈A

car chaque arête de A apparaît dans les sommes correspondant à exactement deux
sommets (à savoir ses extrémités). De manière similaire, on obtient que
X
`(f ) = 2|A|. (2)
f ∈F

Ainsi, on en déduit que


X X
a d(s) + b `(f ) = 2(a + b)|A| = 2(a + b)(|S| + |F | − 2)
s∈S f ∈F

par le résultat de la question précédente.

733
115. Formule d’Euler par déchargement

(ii) À partir d’un solide S, on peut construire un graphe connexe simple G qui
utilise les mêmes sommets et arêtes. En utilisant une projection stéréographique,
on peut obtenir un plongement de G dans R2 , qui est donc planaire. Par définition,
si S est un solide régulier, alors toutes ses faces sont des polygones réguliers de
même taille, et tous ses sommets sont incidents au même nombre d’arêtes. Cela
se traduit par le fait que tous les sommets de G ont même degré q > 1 et que
toutes les faces de G ont même degré p. De plus, on a p > 3 car les faces de S
sont au moins triangulaires. Si q = 1, alors G ne contient qu’une arête, et si q = 2,
comme G est simple alors G est un cycle. Or G est construit à partir d’un solide
donc il n’est ni réduit à une arête ni un cycle. Il reste donc le cas q > 3.
On utilise à nouveau les équations (1) et (2), qui fournit q|S| = 2|A| = p|F |. En
réinjectant ces égalités dans la formule d’Euler, on obtient
1 1 1 1
+ = + .
q p |A| 2

Comme p, q et |A| sont des entiers positifs, cette équation n’a qu’un nombre fini
de solutions :
• Si p = q = 3, alors |A| = 6, donc |F | = |S| = 4. Ceci correspond à un unique
graphe, la clique sur 4 sommets. Le solide associé est le tétraèdre.
• Si p = 4 et q = 3, on obtient |A| = 12, d’où |F | = 6 et |S| = 8, ce qui
correspond au cube.
• Si p = 5 et q = 3, on obtient |A| = 30, d’où |F | = 12 et |S| = 20, ce qui
correspond au dodécaèdre.
• Si p = 3 et q = 4, on obtient |A| = 12, d’où |F | = 8 et |S| = 6, ce qui
correspond à l’octaèdre.
• Si p = 3 et q = 5, on obtient |A| = 30, d’où |F | = 20 et |S| = 12, ce qui
correspond à l’icosaèdre.
Dans chacun des cas, on a un unique candidat pour G, et il existe bien un solide
régulier d’où G est issu. Il existe donc bien cinq types de solides réguliers convexes
(voir Figure 3.23).
(iii) Soit G un fullerène, et notons f5 (resp. f6 ) son nombre de faces pentagonales
(resp. hexagonales). En utilisant à nouveau les équations (1) et (2), on obtient

3|S| = 2|A| = 5f5 + 6f6 .

Par la formule d’Euler, on a enfin

12 = 6|S| − 6|A| + 6|F |


= 2 × (5f5 + 6f6 ) − 3 × (5f5 + 6f6 ) + 6 × (f5 + f6 )
= f5 .

Ainsi, G a bien 12 faces pentagonales, quelle que soit la taille de G.

734
Théorie des graphes

p=q=3

p = 4, q = 3

p = 3, q = 4

p = 5, q = 3

p = 3, q = 5

Figure 3.23 – Les graphes des solides de Platon.

735
115. Formule d’Euler par déchargement

Commentaires.
© La définition d’un plongement donnée en page 712 utilise des segments de
droite pour les arêtes. Une autre définition classique utilise des chemins non
nécessairement rectilignes, mais il s’avère que les deux définitions sont équivalentes :
c’est le théorème de Fary. On utilise de manière implicite ce fait en question a)(i)
quand on triangule la face extérieure.
© On peut étendre la définition de plongement à d’autres surfaces compactes
même non orientables. On peut montrer en utilisant des arguments similaires
mais plus évolués que la quantité |S| − |A| + |F | reste un invariant qui dépend du
genre de la surface considérée.
© La formule d’Euler peut être démontrée de nombreuses manières, par exemple
par récurrence sur les sommets, arêtes ou encore faces.
© La méthode de déchargement présentée ici a de nombreuses applications. Elle
est notamment utilisée pour montrer que tout graphe d’une certaine famille (par
exemple planaire) contient certaines configurations. Ces résultats sont alors utilisés
pour prouver inductivement des théorèmes de coloration ou de décomposition de
graphes (voir les questions ci-après pour un exemple). C’est par exemple la base
du célèbre théorème des quatre couleurs 41 .
© Le résultat de l’équation (1) est un grand classique de théorie des graphes et
est connu comme le « lemme des poignées de main ».
© La formule de la question b)(i) peut aussi s’obtenir par déchargement, en
donnant un poids initial de −2(a + b) aux sommets et aux faces, et de 2(a + b)
aux arêtes. On redistribue alors le poids de chaque arête en donnant a à chaque
sommet qu’elle contient, et b à chaque face incidente.
© Les fullerènes trouvent des applications en chimie du carbone et en biologie :
c’est notamment la structure des nanotubes de carbones et de certains virus.
Lorsque les faces pentagonales sont deux à deux disjointes, le résultat de la
question b)(iii) montre que le fullerène en question a au moins 60 sommets. Il
existe un tel fullerène (c’est le graphe aisément reconnaissable à la surface des
ballons de football).
© L’étude des graphes planaires a donné lieu à de nombreux résultats et conjec-
tures. Leur structure permet par exemple d’obtenir de meilleurs algorithmes pour
résoudre ou approximer les problèmes classiques de théorie des graphes. Un des
exemples les plus extrêmes est fourni par la détermination de la plus grande clique,
qui est un problème NP-complet en général, mais résoluble en temps polynomial
dans les graphes planaires.
© L’équation de la question b)(ii) reliant p, q et |A| est à rapprocher de l’équation
fondamentale du Développement 45, qui détermine aussi les (groupes d’isométries
des) polyèdres réguliers. En particulier, les cinq cas distingués ici correspondent
aux trois cas présentés dans ce développement (quitte à échanger p et q). Cet
échange peut se justifier grâce à la notion de graphe dual : le dual d’un graphe
planaire G est le graphe dont les sommets sont les faces de G, et deux sommets
41. Tout graphe planaire admet une coloration propre à quatre couleurs.

736
Théorie des graphes

sont adjacents si les faces correspondantes partagent une arête dans G. On se


rend facilement compte du fait que cette opération échange p et q, et on retrouve
le résultat établissant que le cube et l’octaèdre (resp. l’icosaèdre et le dodécaèdre)
sont duaux.

Questions.
1. Montrer que la procédure de triangulation décrite en question a)(i) se termine.
2. Montrer que si S est un polyèdre régulier, il existe une projection stéréogra-
phique produisant un plongement planaire du graphe associé.
3. Montrer que tout graphe connexe simple dont tous les sommets ont degré 2 est
un cycle.
4. Montrer que dans un graphe planaire, on a
X
`(f ) = 2|A|.
f ∈F

5. Justifier que l’équation


1 1 1 1
+ = +
q p |A| 2
n’admet qu’un nombre fini de solutions entières.
6. Dans la question b)(ii), où est utilisée la convexité des solides réguliers consi-
dérés ?
7. Montrer la formule de la question b)(i) avec un argument de déchargement.
8. Quelle est la complexité du problème consistant à décider si un graphe est
planaire ?
9. Montrer que si G = (S, A) est planaire, |A| 6 3|S| − 6.
10. Montrer qu’il existe un nombre fini de graphes planaires de degré maximum 3
et dont toutes les faces ont taille au plus 5.
11. Montrer que tout graphe planaire a un sommet de degré au plus 5. En déduire
que tout graphe planaire admet une coloration propre à 6 couleurs.
12. Améliorer le résultat précédent avec 5 couleurs. Donner un algorithme poly-
nomial pour trouver une telle coloration.
Indication : si un graphe planaire G contient un sommet s de degré 5, on pourra
montrer que le graphe obtenu à partir de G − s en identifiant deux sommets non
adjacents de NG (s) bien choisis est planaire.
13. Soit G un graphe planaire de degré minimum 3. Montrer que G contient un
sommet de degré 3 sur une face de taille au plus 5 ou bien un sommet de degré
au plus 5 sur un triangle.

737
116. Problème du voyageur de commerce

Développement 116 (Problème du voyageur de commerce F)

On considère le problème du voyageur de commerce :





 entrée : un graphe complet (S, A) pondéré, i.e. muni d’une

pondération 42 ω : A → R+ ;


PVC


 sortie : une tournée optimale, i.e. un cycle γ ∗ hamiltonien

minimisant ω(γ ∗ ).

Le problème PVC euclidien (PVCE) est la restriction de PVC aux instances


dont la pondération vérifie l’inégalité triangulaire.
a) Un algorithme d’approximation.
Soit (G, ω) une instance de PVCE, T un arbre couvrant minimal de G et γ ∗
une tournée optimale. Soit C le cycle formé par les sommets de T dans l’ordre
de première visite dans un parcours en profondeur de T . On définit aussi
le cycle M obtenu en prenant les sommets (éventuellement plusieurs fois)
à chaque fois qu’ils sont visités dans un parcours en profondeur de T . En
particulier, on peut remarquer que C est le sous-cycle de M obtenu en ne
gardant que les premières occurrences de chaque sommet de T .
Sur la figure suivante, l’arbre T est constitué des arêtes pleines, la marche M
vaut 1, 2, 3, 2, 4, 2, 5, 2, 1, 6, 7, 6, 1 et est représentée en pointillés, et le cycle C
est 1, 2, . . . , 7, 1.

2 6

3 4 5 7

(i) Montrer que ω(T ) 6 ω(γ ∗ ).


(ii) Montrer que ω(C) 6 ω(M ).
(iii) En déduire un algorithme polynomial de 2-approximation de PVCE,
c’est-à-dire un algorithme renvoyant un chemin hamiltonien dont le poids
n’excède pas le double du poids d’une tournée optimale.

42. Si H est un sous-graphe de G, on note ω(H) la somme des poids de ses arêtes. Si C est un
cycle, on note ω(C) la somme des poids de ses arêtes (comptées avec multiplicité).

738
Théorie des graphes

b) La difficulté du cas non-euclidien.


Dans le cas général, on va montrer qu’il est impossible d’obtenir une telle
approximation, en utilisant la NP-difficulté du problème du cycle hamiltonien.
Soit ρ > 1, G = (S, A) un graphe, et H le graphe complet dont S est l’ensemble
de sommets. On définit une pondération sur les arêtes e de H par
(
1 si e ∈ A,
ω(e) =
ρ|S| + 1 sinon.

(i) Montrer que si G a un cycle hamiltonien, H a une tournée optimale de


poids |S|. Sinon, toute tournée optimale est de poids au moins ρ|S| + 1.
(ii) En déduire que si P 6= NP, il n’existe pas de ρ-approximation de PVC
en temps polynomial.

Leçons concernées : 925, 928


Dans ce développement, on s’intéresse à un problème NP-complet classique, et
on montre des résultats d’approximation. On peut ainsi l’utiliser naturellement
dans la leçon 928. Ce problème traite de graphes, et fait usage d’un algorithme
classique (calcul d’un arbre couvrant minimal) sur les graphes pour calculer une
approximation. Ainsi, ce développement illustre bien la leçon 925.

Correction.
a) (i) Si e est une arête de γ ∗ , alors γ ∗ \ {e} est un arbre couvrant de G.
Comme T est un arbre couvrant minimal, on a

ω(T ) 6 ω(γ ∗ \ {e}) = ω(γ ∗ ) − ω(e) 6 ω(γ ∗ )

car ω(e) > 0.


(ii) Le cycle C est obtenu comme une sous-séquence de M en itérant le processus
suivant : pour chaque triplet u, v, w de sommets consécutifs dans M tels que v
apparaît précédemment dans M , on remplace les arêtes uv et vw par uw. Sur
l’exemple de l’énoncé, on obtient la figure suivante, où M est représenté en traits
pleins et le cycle en pointillés est le résultat des trois premiers remplacements :

2 6

3 4 5 7

739
116. Problème du voyageur de commerce

Les autres étapes remplacent les arêtes 51 et 16 par 56, et 76 et 61 par 71.
Chacun de ces remplacements fait diminuer le poids de M puisque l’inégalité
triangulaire assure que ω(uw) 6 ω(uv) + ω(vw). On a donc bien ω(C) 6 ω(M ).
(iii) Dans le cycle M , chaque arête de T est parcourue exactement deux fois.
Ainsi, ω(M ) = 2ω(T ), d’où, par la question précédente :

ω(C) 6 ω(M ) 6 2ω(T ) 6 2ω(γ ∗ ).

Ainsi, l’algorithme suivant fournit une 2-approximation de PVCE.

Algorithme 25 : Approx(G, ω).


Entrée : un graphe complet pondéré (G, ω) dont la pondération vérifie
l’inégalité triangulaire.
Sortie : un cycle hamiltonien dans G.
1 T ← un arbre couvrant minimal de G
2 L ← liste des sommets dans l’ordre d’un parcours en profondeur de T
3 renvoyer le cycle parcourant les sommets de L dans l’ordre

Le calcul d’un arbre couvrant minimal peut s’effectuer par l’algorithme de Prim ou
de Kruskal en temps polynomial. L’algorithme de parcours en profondeur utilise
lui aussi un temps polynomial. Ainsi, Approx(G, ω) est bien un algorithme de
2-approximation de PVCE en temps polynomial.
b) (i) Supposons que G a un cycle hamiltonien γ. Alors γ est aussi un cycle
hamiltonien dans H. Par définition de la pondération ω, chaque arête de γ a
poids 1 dans H, d’où ω(γ) = |S|. De plus, comme toute tournée optimale de H
utilise au moins |S| arêtes, et que chaque arête a un poids au moins 1, le poids
d’une tournée optimale est au moins |S|. Ainsi, γ est une tournée optimale de H.
Supposons maintenant que G n’a pas de cycle hamiltonien. Soit γ ∗ une tournée
optimale de H. Par hypothèse, γ ∗ contient une arête qui n’est pas dans A (autre-
ment γ ∗ fournit un cycle hamiltonien dans G). Ainsi, comme chacune des autres
arêtes de γ ∗ a un poids positif, on obtient ω(γ ∗ ) > ρ|S| + 1, ce qui est le résultat
attendu.
(ii) Supposons qu’il existe une ρ-approximation Aρ de PVC en temps polynomial.
On montre alors qu’il existe un algorithme polynomial pour résoudre le problème
du cycle hamiltonien.
Étant donné un graphe G, on construit le graphe complet pondéré H décrit à la
question précédente, et on applique l’algorithme Aρ sur H. On répond alors « oui »
si et seulement si le chemin hamiltonien fourni par Aρ est de poids au plus ρ|S|.

740
Théorie des graphes

Cycle Hamiltonien

?
G H γ ω(γ) 6 ρ|S| oui
traduction Aρ non

D’après la question précédente, si G a un cycle hamiltonien, alors H a une tournée


optimale de poids au plus |S|. Ainsi, Aρ renvoie un chemin hamiltonien de poids
au plus ρ|S| et on répond « oui ». Au contraire, si G n’a pas de cycle hamiltonien,
alors toute tournée optimale de H est de poids strictement supérieur à ρ|S|, et
l’algorithme renvoie « non ».
Ainsi, on obtient bien un algorithme résolvant le problème du cycle hamiltonien.
Comme le calcul de H et l’algorithme Aρ ont une complexité polynomiale, on
obtient un algorithme polynomial pour le problème du cycle hamiltonien, qui est
un problème NP-complet, d’où P = NP.
Par contraposition, on obtient (sous l’hypothèse P 6= NP) qu’aucun algorithme
polynomial d’approximation n’existe pour le problème PVC.

Commentaires.
© Le problème PVC a été introduit au XIXe siècle par Hamilton et Kirkman. Il a
ensuite été étudié d’un point de vue algorithmique dans les années 1930. À cette
époque, il était déjà difficile d’obtenir des solutions particulières pour des instances
(mêmes petites) de la vie réelle, au point que résoudre une instance particulière
faisait alors l’objet de publications. Les premiers algorithmes d’approximation
datent des années 1960. Enfin, la preuve de NP-complétude de ce problème par
Karp date de 1972.
© On a considéré ici la version « optimisation » du problème PVC, c’est-à-dire
qu’on veut trouver (le coût d’) une tournée optimale. Rappelons que la complexité
de ce type de problèmes est définie comme la complexité du problème de décision
associé (voir page 863) : étant donné un entier k, existe-t-il une tournée optimale
de coût au plus k ?
© Étant donné un problème d’optimisation NP-complet, il est tentant de chercher
des algorithmes d’approximation polynomiaux. En effet, d’une part ces algorithmes
permettent d’obtenir des solutions approchées à des instances de la vie courante
(par exemple, pour PVC qui est utile aux entreprises de livraison, ou pour des
problèmes de coloration utiles pour la création d’emplois du temps, etc.). D’autre
part, ils permettent aussi d’obtenir des premières bornes utilisables par des
approches exhaustives de type branch and bound.
Comme on l’a vu ici, il n’est pas toujours possible d’obtenir des algorithmes
d’approximation polynomiaux. Cela a conduit à l’introduction de certaines classes
de complexité (APX, PTAS, EPTAS, etc.), qui classifient les problèmes selon s’il

741
116. Problème du voyageur de commerce

existe ou non des algorithmes de f (n)-approximation pour certaines fonctions f


(où n est la taille de l’entrée).
© L’algorithme d’approximation présenté ici admet une variante qui permet
d’obtenir un taux d’approximation de 3/2, c’est l’algorithme de Christophides
(1976). Elle consiste à supprimer un couplage (un ensemble d’arêtes deux à deux
sans sommet commun) parmi les sommets de degré impair de T , puis de calculer
une marche eulérienne dans le graphe obtenu, et enfin d’en obtenir un cycle
en appliquant le même procédé que pour obtenir C à partir de M . Ce ratio
d’approximation est actuellement le meilleur connu.
© On connaît aussi des bornes inférieures sur les meilleurs taux d’approximation.
Pour PVCE, la borne actuelle est 123 122 : il n’y a pas d’algorithme polynomial
permettant d’obtenir une 123
122 -approximation. Dans le cas orienté euclidien, aucun
algorithme d’approximation à un facteur constant n’est connu : le meilleur taux
est 0.814 ln(n). Du point de vue inverse, il n’y a pas de d’algorithme polynomial
de 75
74 -approximation.

Questions.
1. Quelle est la complexité de l’algorithme d’approximation de la question a)(iii) ?
2. Montrer que le problème du chemin hamiltonien et PVC sont NP-complets.
3. Donner un algorithme de programmation dynamique résolvant PVC et de
complexité O(2n n2 ) où n est le nombre de sommets de l’instance.
4. On note PVCO la version orientée du problème PVC, c’est-à-dire où le graphe G
est orienté et contient tous les arcs possibles. Montrer que PVC et PVCO se
réduisent l’un à l’autre en temps polynomial.
Indication : pour la réduction de PVCO à PVC, on pourra remplacer chaque
sommet u de G par deux jumeaux u, ū reliés par une arête de faible poids. Pour
chaque arc uv de G, l’arête uv̄ recevra le poids de l’arc uv. Enfin toute arête uv
ou ūv̄ recevra un grand poids.
5. Montrer que l’algorithme glouton fournit une 2-approximation du problème de
couplage maximum.

742
Théorie des graphes

Développement 117 (Tri topologique F)

On s’intéresse au problème d’ordonnancement suivant : on cherche à détermi-


ner dans quel ordre effectuer des tâches, sachant que certaines doivent être
effectuées avant d’autres. On modélise cette situation par un ordre partiel ≺,
que l’on cherche à étendre en un ordre total.
Pour ce faire, on représente ces contraintes par un graphe orienté dont les
sommets sont les tâches, et les arcs sont les uv où u ≺ v. On cherche alors un
ordre sur les sommets tel que si uv est un arc alors u apparaît avant v dans
l’ordre. Le graphe construit est acyclique puisque ≺ est un ordre partiel.
Voici un exemple de graphe lié au problème du tri topologique.

S’inscrire à l’agrégation
Préparer les écrits

Écrits Être admissible

Oraux Préparer les oraux

Une façon de réaliser un tri topologique de G est de faire un parcours en


profondeur, et de ranger les sommets par ordre de fin de visite.
Afin de faciliter la preuve de la correction, on va assigner des couleurs aux
sommets : blanc si le sommet n’a pas encore été visité, noir si tous les
descendants du sommets ont été visités, gris sinon.
a) Donner une solution du tri topologique sur l’exemple ci-avant.
b) Modifier l’algorithme de parcours en profondeur pour colorer les sommets
en blanc, gris et noir au cours du parcours et renvoyer un tri topologique.
c) Montrer la terminaison de l’algorithme et déterminer sa complexité.
d) Montrer sa correction en utilisant les couleurs des sommets.

Leçons concernées : 903, 925, 927

Le tri topologique est un tri d’un ensemble muni d’un ordre partiel, il entre donc
naturellement dans la leçon 903 dédiée au problème du tri. L’utilisation d’un graphe
pour représenter les données de notre problème et d’un parcours en profondeur
pour trier notre ensemble de données permet le placement de ce développement
dans la leçon 925. Cet algorithme a la particularité de ne pas avoir recours à un
invariant de boucle pour montrer sa correction, ce qui en fait une belle illustration
de la leçon 927.

743
117. Tri topologique

Correction.
a) On peut donner comme ordre possible :

Préparer écrits ≺ S’inscrire ≺ Préparer oraux ≺ Écrits ≺ Être admissible ≺ Oraux.

b) On commence par donner l’algorithme principal, qui utilise la fonction auxi-


liaire Visite donnée immédiatement après. Pour alléger les notations, on supposera
que Visite a accès aux variables définies dans le corps de TriTopo (il suffirait
en pratique de définir Visite comme une sous-fonction à l’intérieur de la fonction
TriTopo).

Algorithme 26 : TriTopo(G).
Entrée : un graphe orienté acyclique G = (S, A).
Sortie : une liste L constituée des sommets de G telle que si uv ∈ A, alors
u apparaît avant v dans L.
1 L←[]
2 Couleur ← tableau indexé par S et initialisé à la valeur « blanc »
3 pour u ∈ S faire
4 si Couleur[u] = blanc alors
5 Visite(u)

6 renvoyer L

Algorithme 27 : Visite(u).
1 Couleur[u] ← gris
2 pour uv ∈ A faire
3 si Couleur[v] = blanc alors
4 Visite(v)

5 Couleur[u] ← noir
6 L ← u :: L

c) Le nombre de sommets blancs diminue strictement à chaque appel à Visite


et on appelle la fonction Visite que sur des sommets blancs, donc l’algorithme
termine.
De plus, on peut travailler avec une liste d’adjacence afin d’accéder rapidement à
la liste des voisins sortants d’un sommet. Pour chaque sommet, on effectue un
nombre constant p d’opérations aux lignes 1, 5 et 6 de l’algorithme Visite, et
pour chaque arc sortant, un nombre constant q d’opérations à la ligne 3 du même
algorithme. Chaque arc n’est considéré qu’une seule fois par la boucle de la ligne 2
de Visite. Ainsi le nombre total d’opérations est
!
X X
p+ q = p|S| + q|A|,
u∈S uv∈A

744
Théorie des graphes

donc la complexité de l’algorithme est en


Θ(|S| + |A|).
d) On commence par remarquer que :
(i) Pour tout v ∈ S, v est visité une unique fois, donc v est ajouté une unique
fois à L.
En effet, on appelle Visite que sur des sommets blancs et dès le début de
Visite, on colorie le sommet en gris.
(ii) Au début et à la fin de chaque appel à Visite, L contient exactement
l’ensemble des sommets noirs.
En effet, on colorie en noir les sommets qu’au moment où on les place dans
la liste.
(iii) Si au moment de l’appel à Visite(v), le sommet u est gris, alors il existe un
chemin de u à v dans G.
En effet, on peut le montrer par récurrence sur la profondeur de l’appel à
Visite(v) dans l’exécution de Visite(u).
Montrons maintenant la correction de l’algorithme. Soit L la liste renvoyée par
TriTopo(G) et soit uv ∈ A. Au moment de l’unique appel à Visite(u), il y a
trois possibilités :
• Si v est noir, alors v est déjà dans L. Donc u est placé avant v dans L.
• Si v est gris, par le point (iii), il existe un chemin de v à u dans G. Comme
uv ∈ A, G contient un cycle, ce qui est impossible par hypothèse.
• Si v est blanc, alors v sera visité lors de la boucle sur les voisins de u. L’appel
à Visite(v) sera donc terminé à la sortie de la boucle, donc v sera déjà
dans L au moment où u y sera ajouté. Donc u est avant v dans L.
Ainsi la liste L en sortie est telle que si uv ∈ A, alors u apparaît avant v dans L.
Donc l’algorithme est correct.

Commentaires.
© Les listes que l’on crée grandissent par la gauche. En effet, on ajoute un élément
en tête de liste par l’opération L ← u :: L.
© Il n’y a pas unicité de la solution a priori. Cet algorithme donne donc une
solution possible.
© L’algorithme prend en entrée un graphe acyclique. On pourrait faire un test
pour savoir si le graphe est bien acyclique. En effet, dans la boucle pour de
l’algorithme Visite, si le sommet v est gris, alors il existe un chemin de v à u et
comme on est en train de considérer l’arc uv, le graphe n’est pas acyclique.
© Il existe diverses applications du tri topologique. Par exemple, le logiciel Make
utilise ce tri pour la compilation automatique, afin de compiler dans un bon ordre
différents fichiers qui dépendent les uns des autres. Les gestionnaires de paquets
utilisent aussi ce tri pour l’installation de logiciels pour lesquels il faut installer
successivement des paquets dans un bon ordre.

745
117. Tri topologique

Questions.
1. Montrer le point (iii) de la question d).
2. Donner la solution que l’algorithme TriTopo renvoie sur l’exemple de l’énoncé
en partant de « S’inscrire à l’agrégation ».
X X
3. Montrer que 1 = |A|.
u∈S uv∈A
4. Montrer que tout graphe orienté sans cycle admet une source et un puits.
5. Que calcule l’algorithme suivant ?

Algorithme 28 : Mystère(G).
Entrée : un graphe G = (S, A) orienté.
1 pour uv ∈ A faire
2 d[v] ← d[v] + 1
3 tant que il existe u tel que d[u] = 0 faire
4 L ← u :: L
5 d[u] ← d[u] − 1
6 pour uv ∈ A faire
7 d[v] ← d[v] − 1

8 renvoyer L dans l’ordre inverse

6. Comment modifier l’algorithme Mystère pour détecter les cycles ?


7. Quelle est la complexité de l’algorithme Mystère ?

746
Théorie des graphes

Développement 118 (Séquençage ADN et graphe de De Bruijn F)

On s’intéresse ici à une version idéalisée du problème de séquençage d’un brin


d’ADN. On rappelle que l’ADN est une suite de nucléotides, chaque nucléotide
étant choisi parmi 4 protéines (adénine, thymine, guanine et cytosine). Ainsi
un brin d’ADN peut être représenté comme un mot sur l’alphabet à quatre
lettres {A, T, G, C}.
L’idée du séquençage est la suivante : par un processus chimique ou biologique,
on peut obtenir les facteurs, i.e. les sous-séquences contiguës d’un brin d’ADN.
Il faut alors reconstruire le brin en question à partir de ces résultats. On
suppose donc qu’on obtient le multi-ensemble des facteurs de taille k du brin
(aussi appelés k-mères) pour un certain entier k > 2. Par exemple, si le brin
est AAAT C et k = 2, le résultat obtenu est {AA, AA, AT, T C}.
a) Soit G un graphe orienté fortement connexe non nécessairement simple.
(i) Montrer que si G admet un circuit eulérien, alors tout sommet de G a
autant de prédécesseurs que de successeurs.
(ii) Montrer la réciproque.
(iii) En déduire une condition nécessaire et suffisante sur les degrés des
sommets de G pour que G admette un chemin eulérien.
(iv) Donner un algorithme permettant de tester ces conditions lorsque G est
représenté par la liste de ses arcs. Quelle est sa complexité ?
Pour représenter un ensemble E de k-mères, on utilise la structure de données
suivante. On commence par séparer chaque k-mères en deux (k − 1)-mères :
son préfixe et son suffixe. On représente alors E par le graphe orienté (non
nécessairement simple) GE dont les sommets sont les (k − 1)-mères (sans
multiplicité) et tel qu’il y a un arc uv entre deux (k − 1)-mères pour chaque
k-mère de E dont le préfixe est u et le suffixe est v.
b) Proposer une implémentation de cette structure de données. Quels sont
les coûts d’ajout et de suppression d’une k-mère avec cette implémentation ?
En déduire le coût de la création de la structure à partir d’un multi-ensemble
de k-mères.
c) Donner un algorithme permettant de tester si un multi-ensemble de k-mères
est valide, c’est-à-dire s’il existe un brin d’ADN dont le séquençage a produit
ce multi-ensemble. Quelle est sa complexité ?

Leçons concernées : 901, 907, 925


Ce développement présente une structure de données adaptée à l’étude d’un pro-
blème issu de la bio-informatique. Le problème de séquençage est ici traduit en un
problème concernant des facteurs d’un mot, et justifie donc une utilisation dans
la leçon 907. Selon si l’accent est mis sur la structure de donnée et son utilisation
ou sur la caractérisation classique des graphes eulériens, ce développement trouve
naturellement sa place dans les leçons 901 ou 925.

747
118. Séquençage ADN et graphe de De Bruijn

Correction.
a) (i) Supposons que G soit eulérien et soit γ un circuit eulérien de G, c’est-
à-dire un circuit passant une et une seule fois par chaque arc de G. Soit v un
sommet de G. À chaque arc entrant uv de v, on peut associer un arc sortant qui
est l’arc qui le suit dans γ. Comme γ contient exactement une fois chaque arc,
cette application est bijective. On obtient donc bien d+ (v) = d− (v), c’est-à-dire
que v a autant de prédécesseurs que de successeurs.
(ii) Supposons que G est fortement connexe et que d+ (v) = d− (v) pour tout
sommet v de G. Sans perte de généralité, on peut supposer que G contient au
moins un arc.
Soit γ un chemin de G passant au plus une fois par chaque arc, et de longueur
maximale ` > 0. Notons u le premier sommet de γ et H le graphe obtenu à partir
de G en supprimant tous les arcs de γ. On va montrer d’une part que γ est un
circuit, puis d’autre part qu’il est eulérien.
• Si γ n’est pas un circuit, il sort une fois de plus de u qu’il n’y entre, autrement
dit on a d− +
H (u) = dH (u) + 1 > 0. Ainsi, u admet un prédécesseur v dans H.
En particulier, {vu} ∪ γ forme un chemin de G de longueur ` + 1 passant au
plus une fois par chaque arc, ce qui contredit la maximalité de `.
• Supposons que γ n’est pas eulérien, c’est-à-dire que G contient un arc vw
non parcouru par γ. Alors, comme G est fortement connexe, il existe un
chemin γ 0 de w à u dans G (voir Figure 3.24). Soit w0 le premier sommet
de γ 0 parcouru par γ, et v 0 son prédécesseur dans γ 0 . En particulier, v 0 w0
n’apparaît pas dans γ. De plus, comme γ est un circuit, on peut permuter
circulairement ses arcs de sorte que γ commence et finisse en w0 . On obtient
alors une contradiction car {v 0 w0 } ∪ γ est un chemin de G de longueur ` + 1
passant au plus une fois par chaque arc.

w0 v0 w v

Figure 3.24 – Le circuit γ (en gris) et le chemin γ 0 (en pointillés).

Ainsi, γ est un circuit eulérien de G.


(iii) Supposons que G admet un chemin eulérien γ. Soit γ 0 = γ ∪ {vu} où vu est
un arc entre le dernier et le premier sommet de γ. Alors γ 0 est un circuit eulérien
de G ∪ {vu}. Ainsi, G vérifie les propriétés suivantes :
• d− (u) + 1 = d+ (u) ;
• d− (v) = d+ (v) + 1 ;
/ {u, v}, on a d+ (w) = d− (w) ;
• pour tout sommet w ∈
• G ∪ {vu} est fortement connexe.

748
Théorie des graphes

Réciproquement, si G possède deux sommets u, v vérifiant les conditions précé-


dentes, alors G ∪ {vu} possède un circuit eulérien γ par a)(ii). Le chemin γ \ {vu}
est alors un chemin eulérien de G.
Les conditions précédentes sont donc une caractérisation de l’existence d’un chemin
eulérien dans G.
(iv) Pour tester ces conditions, on commence par calculer tous les degrés entrants
et sortants des sommets de G. Pour ce faire on utilise l’algorithme Degrés, qui
calcule les degrés en parcourant la liste des arcs et en construisant une liste de
triplets (sommet, degré entrant, degré sortant) triée selon la première composante.

Algorithme 29 : Degrés(G).
Entrée : le graphe G représenté par une liste de couples L.
Sortie : la liste triée des sommets avec leurs degrés entrant et sortant.
1 D ← []
2 pour (a, b) ∈ L faire
3 si D contient un triplet (a, d+ , d− ) alors
4 d+ ← d+ + 1
5 sinon
6 Insérer (a, 1, 0) dans D
7 si D contient un triplet (b, d+ , d− ) alors
8 d− ← d− + 1
9 sinon
10 Insérer (b, 0, 1) dans D

11 renvoyer D

Pour déterminer si G a un chemin eulérien, on parcourt alors la liste D obtenue


à l’issue de l’algorithme précédent afin de détecter si tous les degrés entrants
et sortants coïncident sauf en deux sommets u et v. Si c’est le cas, on teste si
G ∪ {vu} est fortement connexe.
• Si G a m arcs et n sommets, la création de la liste se fait en temps O(m ln n).
En effet, pour chacun des m arcs, on doit rechercher un élément de la
forme (a, ∗, ∗) dans la liste D courante. Comme D est triée selon la première
composante, cette recherche se fait en temps O(ln |D|) = O(ln n). Si on trouve
un élément (a, ∗, ∗), on actualise en temps constant O(1) les deux dernières
composantes. Sinon, lorsque la recherche échoue, on sait quand même à quelle
position insérer (a, 0, 0) pour que la nouvelle liste reste triée. On peut alors
effectuer une insertion en temps O(1).
• De plus, la recherche de u et v et la vérification de l’égalité des degrés entrants
et sortants nécessite un temps O(n).
• Enfin, on peut tester la forte connexité en O(m + n) grâce à l’algorithme de
Kosaraju ou de Tarjan.
On peut ainsi déterminer si G admet un circuit eulérien par un algorithme de
complexité O(m ln n + n).

749
118. Séquençage ADN et graphe de De Bruijn

b) On peut représenter le graphe comme une liste L de paires de (k − 1)-mères,


chaque paire (w1 · · · wk−1 , w2 · · · wk ) correspondant à une k-mère w1 · · · wk de E,
ou (de manière équivalente) à un arc de GE .
• Ajouter une k-mère w1 · · · wk revient à ajouter (w1 · · · wk−1 , w2 · · · wk ) dans L,
par exemple en tête, ce qui se fait en O(1).
• Supprimer une k-mère w1 · · · wk nécessite de parcourir L en entier dans le
pire des cas pour localiser le couple (w1 · · · wk−1 , w2 · · · wk ), qui se fait en
complexité O(|L|), puis de le supprimer en temps constant O(1).
• Pour créer la structure L depuis un multi-ensemble de k-mères de taille n, on
applique n fois la procédure d’ajout, ce qui conduit à une complexité linéaire
O(n).
On obtient ainsi une implémentation où l’ajout prend un temps constant et les
opérations de suppression et de construction prennent un temps linéaire en le
nombre de k-mères.
c) Par construction de la structure de données représentant GE , les arcs d’un
chemin γ dans GE correspondent à une suite de k-mères compatibles, c’est-à-dire
que deux k-mères consécutives w1 · · · wk et w10 · · · wk0 coïncident sur une (k − 1)-
mère, i.e. vérifient w2 · · · wk = w10 · · · wk−1
0 . En fusionnant ces k-mères, on obtient
un brin d’ADN dont le séquençage fournit toutes les k-mères représentées par
le chemin γ. En particulier, si γ est un chemin eulérien, le séquençage du brin
d’ADN associé fournit exactement le multi-ensemble E, qui est donc valide.
Réciproquement, si E est valide, il existe un brin d’ADN associé. En lisant les
k-mères de ce brin dans l’ordre, on obtient un chemin eulérien dans GE .
La validité de E est donc équivalente à l’existence d’un chemin eulérien dans GE ,
et peut donc être testée en construisant GE puis en lui appliquant l’algorithme de
la question a)(iv). Si E est un multi-ensemble de taille n, la construction de GE
se fait en temps O(n) d’après la question précédente. Puisque GE a n arcs et au
plus 2n sommets, on peut tester en O(n ln n) si GE a un chemin eulérien.
Finalement, on peut tester si E est valide en temps O(|E| ln |E|).

Commentaires.
© Le problème consistant à déterminer si un graphe admet un circuit ou un
chemin eulérien est nommé d’après Euler, qui aurait introduit ce concept pour
résoudre le problème des ponts de Königsberg. La question était de savoir si on
pouvait traverser la ville en empruntant une et une seule fois chacun de ses ponts.
© Le problème du chemin hamiltonien est similaire : on demande cette fois de
passer une et une seule fois par chaque sommet. Contrairement au problème
précédent, tester si un graphe est hamiltonien est un problème NP-complet.
Cette situation n’est pas rare en théorie des graphes (voir page 863). On peut
par exemple citer le problème du plus court chemin (polynomial) et du plus
long chemin ne repassant pas deux fois par le même sommet (NP-complet), le
problème de coupe minimale (polynomial par le théorème flot-max/coupe-min)
et de coupe maximale (NP-complet), ou enfin le problème de 3-colorabilité des

750
Théorie des graphes

graphes cubiques (polynomial par théorème de Brooks, voir Développement 113)


et de 3-arête colorabilité des graphes cubiques (NP-complet).
© Le problème présenté dans cet exercice correspond à une situation idéalisée.
Dans la vraie vie, il n’est pas rare que des k-mères soient manquantes dans le
multi-ensemble mesuré, bien que présentes dans le brin initial. Il s’ensuit un
problème plus général et (malheureusement pour les biologistes) NP-complet :
quel est l’ensemble minimal de k-mères à ajouter pour obtenir un ensemble valide ?
© La biologie fournit de nombreux problèmes liés à l’analyse et à la comparaison de
séquences d’ADN. Par exemple le problème d’alignement de séquences consiste à
déterminer des recoupements entre deux séquences, et peut être résolu de manière
similaire au calcul de la plus longue sous-séquence commune, ou des variantes de
la distance d’édition. D’autres algorithmes de ce type sont à la base du logiciel
BLAST, qui permet de rechercher dans une base de données les séquences les plus
similaires à une requête.
© Si E est l’ensemble de tous les mots de taille k sur un alphabet Σ, le graphe GE
est appelé graphe de de Bruijn. Ces graphes se construisent inductivement en
itérant la construction du line graph : étant donné un graphe G = (S, A), le line
graph de G est le graphe dont les sommets sont les arcs de G et où aa0 est un arc
si la source de a0 et la destination de a coïncident. On peut alors utiliser cette
construction pour montrer que tous ces graphes sont eulériens et hamiltoniens. Le
« brin d’ADN » associé est alors une séquence minimale de lettres de Σ telle que
tout mot de taille k apparaît au moins une fois dans la séquence. Par exemple, si
Σ = {0, 1}, le mot 0001011100 contient toutes les séquences binaires de longueur 3,
et peut être obtenu à partir d’un chemin eulérien dans le graphe de De Bruijn
correspondant. On peut utiliser ce genre de séquences pour tester toutes les
combinaisons possibles de codes à k chiffres s’il n’est pas nécessaire de valider
chaque essai. Dans l’exemple précédent, au lieu de tester 000, puis 001,. . . soit 24
chiffres à entrer, il suffit d’entrer les 10 de la séquence précédente.

Questions.
1. Lorsque le multi-ensemble est valide, y a-t-il unicité du brin d’ADN associé ?
2. Caractériser les graphes eulériens non orientés.
3. Donner un algorithme permettant de reconstituer un brin d’ADN possible à
partir d’un multi-ensemble valide.
Indication : s’inspirer de la preuve de la caractérisation des graphes eulériens.
4. Est-il préférable d’utiliser une représentation par matrice d’adjacence ou listes
d’adjacences (éventuellement triées) dans la question b) ? Que devient l’algorithme
de la question c) dans ce cas ?
5. Comparer l’efficacité d’un cadenas mécanique (nécessitant de valider chaque
essai) et d’un digicode d’immeuble (ne nécessitant de pas de valider à chaque
essai), lorsque la combinaison est une suite de k = 4 symboles sur un alphabet
possédant n = 10 lettres. Généraliser lorsque k et n sont quelconques.

751
Langages réguliers et algébriques

La théorie des langages a pris son essor dans les années 50, grâce aux travaux
fondateurs de Chomsky et Kleene. La hiérarchie de Chomsky est une classification
des langages formels en plusieurs classes d’expressivité de plus en plus faible. Les
langages de type 0 correspondent aux langages récursivement énumérables. Les
langages de type 1 sont les langages contextuels, qui ne figurent pas au programme
de l’agrégation, à la différence des langages de type 2 (algébriques) et de type 3
(réguliers 43 ). On peut noter qu’il existe des classes de langages intermédiaires,
comme les langages récursifs (entre le type 0 et 1).
Bien que la hiérarchie de Chomsky soit motivée par des problèmes de linguistique,
les classes de langages qui y sont décrites tiennent une place importante en
informatique. En effet, même si les langages récursivement énumérables sont
aussi expressifs que les machines de Turing qui les reconnaissent, la plupart des
problèmes de décision y sont indécidables. Ainsi, en pratique, on préfère considérer
des classes moins expressives, mais pour lesquelles on peut effectivement résoudre
les problèmes classiques, comme le problème du mot (qui devient décidable
quand on se restreint aux langages algébriques ou réguliers). Dans cette voie, une
application majeure est fournie par les processus de compilation, qui utilisent des
langages réguliers lors de la phase d’analyse lexicale et résolvent le problème du
mot pour des langages algébriques lors de la phase d’analyse syntaxique.
D’un point de vue théorique, on peut observer que les classes de langages de la
hiérarchie de Chomsky sont robustes : elles possèdent souvent de nombreuses
propriétés de clôture (opérations booléennes, résiduels, morphismes, etc.) et
admettent plusieurs définitions équivalentes utilisant des formalismes variés. Par
exemple, les langages de type 0 sont ceux acceptés par des machines de Turing, et
les langages algébriques et réguliers sont eux aussi reconnus par certains types
d’automates.
La diversité des formalismes et de leurs utilisations fait que les conventions et
notations dans ce domaine varient d’un auteur à l’autre, sans qu’aucune ne se
dégage comme meilleure que les autres. Sans se substituer à un cours, cette
section préliminaire a pour but de présenter les notations considérées par la suite
lorsqu’on manipule des langages réguliers ou algébriques, ainsi que de fournir
quelques remarques culturelles.
Dans ce qui suit, sauf mention contraire, Σ désigne un alphabet fini, Σ∗ est
l’ensemble des mots sur Σ et ε est le mot vide.
43. On utilisera de façon interchangeable la terminologie « régulier » et « rationnel ».
1 Langages réguliers
L’étude des langages réguliers remonte à l’article fondateur de Kleene en 1951,
où le célèbre théorème éponyme y est démontré : les langages réguliers sont (de
manière équivalente) ceux représentés par une expression régulière ou reconnus
par un automate. Ces deux représentations des langages réguliers sont les seules
explicitement au programme de l’agrégation. Cependant, il est à noter qu’il en
existe d’autres faisant intervenir différents formalismes, notamment logiques ou
algébriques :
• les langages réguliers sont ceux reconnus par des monoïdes finis (voir ques-
tions du Développement 119) ;
• les langages réguliers sont les langages des mots satisfaisant une formule de
la logique monadique du second ordre.

Expressions régulières
Définition 54 (Expression régulière)
L’ensemble des expressions régulières est défini inductivement par les règles
suivantes.
• Mot vide : ε est une expression régulière représentant le langage {ε} ;
• Alphabet : pour tout a ∈ Σ, a est une expression régulière représentant le
langage {a} ;
• Union : si E, E 0 sont des expressions régulières représentant des langages L
et L0 , alors E + E 0 est une expression régulière représentant L ∪ L0 ;
• Concaténation : si E, E 0 sont des expressions régulières représentant des
langages L, L0 , alors E ·E 0 (ou EE 0 ) est une expression régulière représentant
le langage {uu0 : u ∈ L, u0 ∈ L0 } ;
• Étoile de Kleene (ou itération) : si E est une expression régulière représentant
un langage L, alors E ∗ est une expression régulière représentant le langage
{u1 · · · un : n > 0, ui ∈ L}.
Définition 55 (Langage régulier)
Un langage L est régulier s’il existe une expression régulière E qui le représente.
On note alors L = L(E).

Automates
Définition 56 (Automate)
Un automate A est un quintuplet (Q, Σ, I, F, δ) où :
• Q est un ensemble fini d’états,
• Σ est un alphabet,
• I ⊂ Q est l’ensemble des états initiaux,
• F ⊂ Q est l’ensemble des états finaux,
• δ ⊂ Q × Σ × Q est l’ensemble des transitions.

754
Langages réguliers et algébriques

Un automate (Q, Σ, I, F, δ) est représenté comme un graphe orienté dont les arcs
sont étiquetés par des lettres de Σ. Chaque état de Q correspond à un sommet,
chaque transition (q, a, q 0 ) de δ correspond à un arc de q à q 0 étiqueté par a. Enfin
les états initiaux et finaux sont indiqués respectivement par des arcs entrants sans
prédécesseur et sortants sans successeur (voir Figures 3.25 et 3.26).
Définition 57 (Calcul, langage reconnu)
Soit w ∈ Σ∗ et A = (Q, Σ, I, F, δ) un automate.
• Un calcul de A sur w est une suite d’états q0 , . . . , q|w| telle que q0 ∈ I et
pour tout i ∈ J1, |w|K, on a (qi−1 , wi , qi ) ∈ δ. Il est acceptant si q|w| ∈ F .
• Le mot w est accepté par A s’il existe un calcul acceptant de A sur w.
• Le langage reconnu par A est l’ensemble L(A) des mots acceptés par A.

a
(aa)∗ 0 1
a

Figure 3.25 – Une expression régulière et un automate reconnaissant le langage


des mots de longueur paire sur l’alphabet {a}.

Définition 58 (Déterminisme, complétude)


Soit A = (Q, Σ, I, F, δ) un automate.
• A est complet si pour tout q ∈ Q et a ∈ Σ, il existe au moins un état q 0 ∈ Q
tel que (q, a, q 0 ) ∈ δ.
• A est déterministe si pour tout q ∈ Q et a ∈ Σ, il existe au plus un état q 0 ∈ Q
tel que (q, a, q 0 ) ∈ δ.
Définition 59 (Fonction de transition)
Soit A = (Q, Σ, I, F, δ) un automate déterministe et complet.
• La fonction de transition de A est la fonction δ : Q × Σ → Q telle que δ(q, a)
est l’unique état q 0 tel que (q, a, q 0 ) ∈ δ.
• La fonction de transition étendue est la fonction δ ∗ : Q × Σ∗ → Q définie
inductivement par :
(
∗ q si v = ε,
δ (q, v) =
δ(δ ∗ (q, u), a) si v = ua.

Lorsque A n’est pas complet, ces définitions restent valides, mais δ et δ ∗ sont
alors des fonctions partielles.

Exemple : pour l’automate de la Figure 3.25, on a δ ∗ (q, an ) = q + n mod 2 pour


tout n ∈ N et q ∈ {0, 1}.

755
Proposition 4 (Déterminisation, complétion)
Soit A = (Q, Σ, I, F, δ) un automate. Il existe un automate déterministe
complet A0 reconnaissant le même langage que A. On peut par exemple
prendre l’automate des parties (voir Figure 3.26)
 
A0 = 2Q , Σ, {I}, {X ⊂ Q : X ∩ F 6= ∅}, δ 0

où n o
δ 0 (X, a) = q 0 : ∃q ∈ X, (q, a, q 0 ) ∈ δ .

a a, b a, b
a, b 0 b 0 01 1 2 12
b
a
b a a, b
a
1
02 012 a a, b ∅
a, b b
2

Figure 3.26 – Un automate et son automate des parties (dont les états
« inutiles » sont grisés). Cet exemple se généralise en un automate à n + 1 états
dont l’automate des parties a 2n états « utiles ».

Les automates déterministes (complets) présentent plusieurs avantages. Tout


d’abord, d’un point de vue théorique, ce sont des objets plus faciles à manipuler,
grâce à l’unicité du calcul associé à un mot donné. De plus, d’un point de vue
pratique, lorsqu’on considère des problèmes classiques (problème du mot, tester
si le langage reconnu est vide, tester si deux automates reconnaissent le même
langage, etc.), on peut obtenir des algorithmes beaucoup plus efficaces lorsqu’on
se restreint à des automates déterministes. Ceci est par exemple illustré par le
Développement 121.
En revanche, tout comme pour l’automate des parties, on peut montrer que
dans certains cas, le nombre d’états minimal dans un automate déterministe
reconnaissant le même langage qu’un automate à n états donné est exponentiel
en n. Ainsi, même si tout automate peut être déterminisé, on ne peut généralement
pas se servir de la procédure de déterminisation pour obtenir des algorithmes
efficaces même sur les automates non-déterministes.
Le fait que les automates déterministes reconnaissent à eux seuls tous les langages
réguliers est une propriété spécifique à la classe des langages réguliers. En effet, bien
que la notion d’automate se transpose à d’autres classes de langages (automates
à pile, automates de Büchi sur les mots infinis, automates d’arbres, etc.), cette
propriété tombe souvent en défaut, et les automates déterministes reconnaissent
alors une sous-classe stricte.

756
Langages réguliers et algébriques

Définition 60 (Équivalence de Nérode)


Soit A = (Q, Σ, I, F, δ) un automate déterministe complet. L’équivalence de
Nérode est une relation d’équivalence définie sur Q par

q ∼A q 0 ⇐⇒ {w ∈ Σ∗ : δ ∗ (q, w) ∈ F } = {w ∈ Σ∗ : δ ∗ (q 0 , w) ∈ F }.

Autrement dit, q et q 0 ne sont pas équivalents si et seulement si on peut les


distinguer par un mot w, c’est-à-dire si w est accepté depuis seulement un des
deux.

L’équivalence de Nérode est régulière à droite, c’est-à-dire que si q ∼A q 0 et


si a ∈ Σ, alors δ(q, a) ∼A δ(q 0 , a). En particulier, si π : Q → Q/ ∼A est la
projection canonique, l’application δ̄ : (π(q), a) 7→ π(δ(q, a)) est bien définie.
Définition 61 (Automate minimal)
Soit A = (Q, Σ, I, F, δ) un automate déterministe complet. On appelle automate
minimal de A l’automate A = (Q/∼A , Σ, π(I), π(F ), δ̄).
Parmi les automates déterministes complets reconnaissant L(A), l’automate A
est l’unique (à renommage des états près) automate ayant le plus petit nombre
d’états.

Étant donné un automate déterministe complet A, les classes d’équivalence de ∼A


peuvent être déterminées effectivement en temps polynomial via l’algorithme de
Moore ou de Hopcroft. On peut alors calculer en temps polynomial l’automate
minimal d’un automate déterministe complet donné.

Théorème de Kleene et lemme de l’étoile


Nous terminons cette section en citant deux résultats emblématiques sur les
langages réguliers. Le premier est le théorème de Kleene, annoncé en début de
section, qui assure que les deux notions de reconnaissance fournissent la même
classe de langages : les langages réguliers.
Proposition 5 (Théorème de Kleene)
Un langage est reconnu par un automate si et seulement s’il est représenté par
une expression régulière.

De plus, on peut passer d’une représentation à une autre en temps polynomial.


Par exemple, pour calculer une expression régulière représentant le même langage
qu’un automate donné, on peut par exemple appliquer le lemme d’Arden ou
utiliser l’algorithme de McNaughton et Yamada (une variante de l’algorithme de
Floyd-Warshall). Pour l’opération réciproque, on peut procéder par induction sur
l’expression régulière, ce qui conduit à l’algorithme de Thompson.
Les résultats de la section précédente assurent qu’on peut en plus supposer que
l’automate obtenu est déterministe, complet et même minimal. Il y a de plus
unicité d’un tel automate. L’automate minimal est donc un objet canonique
représentant un langage régulier donné.
Le deuxième résultat est le lemme de l’étoile, qui utilise la structure des automates

757
afin de déduire des conditions nécessaires pour qu’un langage soit régulier. Utiliser
sa contraposée constitue ainsi une approche couramment employée pour montrer
qu’un langage n’est pas régulier. Ce type d’argument « de pompage » est très
répandu en théorie des langages. Un exemple d’utilisation est fourni dans le
Développement 121.
Proposition 6 (Lemme de l’étoile)
Soit L un langage régulier. Alors il existe un entier N > 0 tel que tout mot u
de L vérifiant |u| > N se décompose sous la forme u = xyz avec y 6= ε et pour
tout n ∈ N, xy n z ∈ L.

L’énoncé ci-avant constitue la forme la plus simple du lemme de l’étoile. De


nombreux raffinements existent, permettant d’avoir davantage de contrôle sur la
factorisation xyz.
En revanche, ce lemme ne fournit qu’une condition nécessaire pour qu’un langage
soit régulier. Cette condition n’est pas suffisante, on peut construire des contre-
exemples. Cependant, on peut enrichir l’énoncé et obtenir des conditions nécessaires
et suffisantes en s’inspirant de critères similaires.

2 Langages algébriques
Dans cette partie, on s’intéresse aux langages algébriques, c’est-à-dire reconnus
par une grammaire. Il s’agit d’une classe de langages plus expressive que les
langages réguliers, mais pour laquelle certains problèmes (comme le problème du
mot étudié dans les Développements 122, 123) restent décidables, ce qui n’est
plus nécessairement le cas pour des modèles plus expressifs, comme les langages
acceptés par des machines de Turing.
Tout comme les langages réguliers, les langages algébriques sont reconnus par
différents formalismes équivalents. Le seul figurant explicitement au programme
de l’agrégation est celui des grammaires algébriques, qui sont en quelque sorte aux
langages algébriques ce que les expressions régulières sont aux langages réguliers.
L’analogue de la notion d’automate, qui permet de reconnaitre les langages
algébriques, est celle d’automate à pile.
Définition 62 (Grammaire)
Une grammaire algébrique (ou hors-contexte) est un quadruplet (N , T , S, R) où
• N est un ensemble de non-terminaux ;
• T est un ensemble de terminaux ;
• S ∈ N est l’axiome ;
• R est un ensemble de règles de productions de la forme N → w où N ∈ N
et w ∈ (N ∪ T )∗ .

Remarque : on utilisera en général des lettres minuscules pour noter les terminaux,
et majuscules pour les non-terminaux. De plus, si N → u et N → v sont des
règles de R, on notera généralement N → u | v ∈ R.
Exemple : les quadruplets G1 et G2 suivants sont des grammaires :

758
Langages réguliers et algébriques

• ({S}, {a, b}, S, {S → aSb | ε}) ;


• ({E, T, F }, {(, ), +, ×, v}, E, {E → E + T | T, T → T × F | F, F → (E) | v}).
Définition 63 (Dérivation)
Soit (N , T , S, R) une grammaire et u, v deux mots de (N ∪ T )∗ . On dit que :
• u se dérive en v en un pas si on peut décomposer u = xN y et v = xwy
où N → w ∈ R, et x, y ∈ (N ∪ T )∗ . On note alors u → v.
• u se dérive en v en k pas s’il existe une suite de dérivations u0 → · · · → uk
avec u0 = u et uk = v. On note alors u →k v.
• u se dérive en v si u se dérive en v en un certain nombre de pas. On note
alors u →∗ v.
Définition 64 (Langage reconnu)
Soit G = (N , T , S, R) une grammaire. Le langage reconnu par G, noté L(G),
est l’ensemble des mots de T ∗ dérivables à partir de l’axiome S, autrement dit

L(G) = {u ∈ T ∗ : S →∗ u}.

Un langage est algébrique s’il existe une grammaire qui le reconnaît.

Exemple : intéressons-nous aux grammaires de l’exemple précédent.


• Soit n ∈ N. Dans G1 , les seules dérivations possibles en n pas sont

S → an Sbn et S →n an−1 bn−1 .

On en déduit que L(G1 ) = {an bn : n ∈ N}. Il est à noter que ce langage est
un exemple classique de langage algébrique non régulier.
• Les mots de L(G2 ) sont appelés expressions arithmétiques. Il s’agit des
sommes de termes, où chaque terme est un produit de facteurs, et où chaque
facteur est soit v, soit une expression arithmétique entre parenthèses. Il
s’agit d’un langage très souvent utilisé pour illustrer les techniques d’analyse
syntaxique.

Il existe plusieurs formes normales permettant de présenter une grammaire donnée


à l’aide d’une syntaxe plus rigide, sans changer en profondeur le langage qu’elle
reconnaît. On peut par exemple citer les formes normales de Greibach, ou la forme
normale de Chomsky étudiée dans le Développement 122.
L’utilisation la plus fréquente des grammaires algébriques en pratique provient du
domaine de la compilation, et plus précisément de l’analyse syntaxique, qui a pour
but de créer une représentation d’un programme (ou d’un texte) sous une forme
plus manipulable que le texte brut. Un cas particulier de ce problème est étudié
dans le Développement 123 lorsqu’on s’intéresse à des grammaires dites LL(1).
Prenons l’exemple du code d’un programme C qu’on souhaite compiler en langage
machine. D’un point de vue théorique, détecter les erreurs de syntaxe revient
à résoudre le problème du mot : on teste si le code appartient bien au langage
reconnu par la grammaire décrivant la syntaxe du langage C. Dans le cas où il
n’y a pas d’erreur de syntaxe, on cherche alors à représenter le code sous une

759
forme plus facilement manipulable, afin de l’analyser, l’optimiser et finalement le
traduire. Cette représentation est appelée arbre de syntaxe abstraite, qui constitue
la version pratique de l’objet théorique suivant.
Définition 65 (Arbre de dérivation)
Un arbre de dérivation d’une grammaire G est un arbre étiqueté T tel que :
• la racine est étiquetée par l’axiome ;
• les feuilles sont étiquetées par des terminaux ;
• les nœuds internes sont étiquetés par des non-terminaux ;
• pour tout nœud interne étiqueté par N , si w est la concaténation des
étiquettes de ses fils (lus de gauche à droite) alors N → w est une règle
de G.
En lisant les étiquettes des feuilles de T dans l’ordre d’un parcours en profondeur,
on obtient un mot w ∈ L(G). On dit que T est un arbre de dérivation de w.

S E

a S b E + T

a S b T T × F

a S b F F v

ε v v

Figure 3.27 – Un arbre de dérivation de aaabbb ∈ L(G1 ) et de v + v × v ∈ L(G2 ).

Remarque : pour illustrer à nouveau l’utilisation des arbres de dérivation en


pratique, considérons le problème d’évaluation d’une expression arithmétique,
c’est-à-dire un mot w reconnu par la grammaire G2 où les occurrences de la
lettre v sont remplacées par des entiers. Si on connaît un arbre de dérivation
de w, il suffit de procéder inductivement sur l’arbre, ce qui fournit un algorithme
récursif simple pour évaluer w.

Définition 66 (Ambiguité)
Une grammaire G est ambiguë s’il existe un mot de L(G) possédant au moins
deux arbres de dérivation distincts.
Un langage algébrique est inhéremment ambigu si toutes les grammaires qui le
reconnaissent sont ambiguës.

Exemple : les grammaires G1 et G2 ne sont pas ambiguës : on peut facilement


montrer que tous les mots qu’elles reconnaissent ont un unique arbre de dérivation
(voir Figure 3.27). En revanche, la grammaire G3 = ({S}, {a, +}, S, {S → S + S |
a}) est ambiguë (voir Figure 3.28).

760
Langages réguliers et algébriques

S S

S + S S + S

a S + S S + S a

a a a a

Figure 3.28 – Deux arbres de dérivations distincts de a + a + a ∈ L(G3 ).

Les arbres de dérivations permettent de montrer un analogue du lemme de


l’étoile pour les langages algébriques. Il s’agit du lemme d’Ogden (ou lemme de
factorisation uvwxy), qui donne une condition nécessaire (mais non suffisante)
pour qu’un langage soit algébrique et permet donc de montrer que certains langages
ne sont pas algébriques. En substance, il établit que tout mot assez long d’un
langage algébrique L peut se décomposer sous la forme uvwxy, de sorte que
uv n wxn y ∈ L pour tout entier n.

761
Langages réguliers et algébriques

Développement 119 (Recherche de motif FF)

Le problème de recherche d’un motif M dans un texte T consiste à déterminer


si M apparaît comme facteur (sous-mot) de T . On pose T = t1 · · · tn et
M = m1 · · · mk , et on note, pour tout i ∈ J1, kK, Mi = m1 · · · mi le préfixe de
M de longueur i. Par convention on note M0 = ε.
Si u, v ∈ Σ∗ , on note u @ v si u est un suffixe de v. On note de plus σ(u) la
taille du plus grand préfixe de M qui est également suffixe de u, c’est-à-dire

σ(u) = max{i : Mi @ u}.

a) Soient u, v ∈ Σ∗ et a ∈ Σ.
(i) Montrer que si u @ v, alors σ(u) 6 σ(v).
(ii) Montrer que σ(ua) 6 σ(u) + 1.
(iii) En déduire que σ(ua) = σ(Mσ(u) a).
b) Soit A = (Q, Σ, I, F, δ) l’automate déterministe complet défini par les
ensembles Q = J0, kK, I = {0}, F = {k} et, pour tout q ∈ Q et a ∈ Σ, la
fonction de transition est donnée par δ(q, a) = σ(Mq a).
(i) Montrer que pour tout mot u ∈ Σ∗ , on a δ ∗ (0, u) = σ(u). En déduire que
L(A) = Σ∗ M .
(ii) Montrer que si i, j ∈ Q vérifient i > j, alors le mot mi+1 · · · mk est
accepté dans A à partir de i, mais pas à partir de j. En déduire que A
est minimal.
c) En déduire un algorithme qui, après un pré-traitement en temps polynomial
en k, permet de déterminer si M est un facteur de T en temps O(n).

Leçons concernées : 907, 909, 921

Ce développement propose un algorithme de recherche de motif dans un texte,


un problème classique en algorithmique du texte, le sujet de la leçon 907. Cet
algorithme de recherche repose sur la construction d’une structure de données
auxiliaire, à savoir un automate, ce qui en fait une bonne illustration de la leçon 921.
Enfin, la preuve permet de manipuler un automate, dont on calcule le langage
accepté et on montre la minimalité. L’utilisation de ces notions fondamentales
permet d’illustrer la leçon 909 sur les automates finis.

Correction.
a) (i) Si u @ v, tout suffixe de u est un suffixe de v. En particulier, on a

Mσ(u) @ u @ v,

d’où σ(u) 6 σ(v).


(ii) Si σ(ua) = 0, alors l’inégalité est vérifiée par positivité de σ. Sinon, on
a nécessairement σ(ua) − 1 > 0 donc on peut écrire Mσ(ua) = Mσ(ua)−1 mσ(ua) .

763
119. Recherche de motif

Comme Mσ(ua) @ ua, on a mσ(ua) = a et Mσ(ua)−1 @ u. Ainsi,


σ(ua) − 1 6 σ(u),
ce qui conclut.
(iii) Pour montrer l’égalité recherchée, on montre les deux inégalités. Notons tout
d’abord que par définition Mσ(u) @ u, d’où Mσ(u) a @ ua. D’après la question a)(i),
on a donc σ(Mσ(u) a) 6 σ(ua).
Pour obtenir l’inégalité réciproque, on observe que Mσ(u) a et Mσ(ua) sont deux
suffixes d’un même mot, à savoir ua. Ainsi, le plus court de ces deux mots est
suffixe de l’autre. En utilisant la question a)(ii), on obtient

Mσ(ua) = σ(ua) 6 σ(u) + 1 = Mσ(u) a .


Ainsi, Mσ(ua) @ Mσ(u) a, d’où
   
σ(ua) = σ Mσ(ua) 6 σ Mσ(u) a

d’après la question a)(i). Finalement, on a bien σ(ua) = σ(Mσ(u) a).


b) (i) On procède par récurrence sur la longueur ` de u.
• Si ` = 0, alors u = ε et δ ∗ (0, ε) = 0 = σ(ε).
• Supposons que ` > 0 et que tout mot v ∈ Σ`−1 vérifie δ ∗ (0, v) = σ(v).
Considérons u ∈ Σ` , qu’on décompose sous la forme u = va avec v ∈ Σ`−1
et a ∈ Σ. En appliquant l’hypothèse de récurrence à v (qui est un mot de
longueur ` − 1), on obtient
 
δ ∗ (0, u) = δ(δ ∗ (0, v), a) = δ(σ(v), a) = σ Mσ(v) a = σ(va) = σ(u)

d’après la question a)(iii) et par définition de δ.


Par récurrence, on obtient donc que δ ∗ (0, u) = σ(u) pour tout mot u ∈ Σ∗ .
Notons enfin que, par définition de σ, on a σ(u) = k si et seulement si Mk @ u,
c’est-à-dire si M est suffixe de u. Si u ∈ Σ∗ , on a alors les équivalences suivantes :
u ∈ L(A) ⇐⇒ δ ∗ (0, u) = k ⇐⇒ σ(u) = k ⇐⇒ M @ u ⇐⇒ u ∈ Σ∗ M,
ce qui conclut.
(ii) Notons Ni = mi+1 · · · mk le suffixe de M de taille k − i. Par construction,
on a δ ∗ (0, Mi ) = i, d’où
δ ∗ (i, Ni ) = δ ∗ (0, Mi Ni ) = δ ∗ (0, M ) = k.
Ainsi, Ni est accepté à partir de i dans A.
Si j < i, alors |Mj Ni | = j + k − i < k = |M | donc M ne peut être un suffixe de
Mj Ni . Ainsi,
δ ∗ (j, Ni ) = δ ∗ (0, Mj Ni ) = σ(Mj Ni ) < k,
ce qui montre que Ni n’est pas accepté à partir de j dans A.
On en déduit de même que si i > j, les états i et j de A ne sont pas équivalents
pour l’équivalence de Nérode. Comme A est déterministe et complet, ceci assure
que A est minimal.

764
Langages réguliers et algébriques

c) La construction de l’automate A et plus particulièrement de sa fonction de


transition δ n’utilise que le motif M et non le texte T . On peut représenter cette
fonction par un tableau bidimensionnel de taille (k + 1) × |Σ|. On peut remplir
cette table en calculant les différentes valeurs de σ, ce qui peut être fait en temps
polynomial en |M | = k.
Une fois ce pré-traitement effectué, il suffit de lire le mot T dans l’automate lettre
par lettre. Si on atteint l’état k, on a trouvé une occurrence du motif M . Si on
atteint la fin du mot T sans jamais atteindre l’état k, le motif M n’apparaît pas
dans T . Pour chaque lettre de T , cet algorithme parcourt une transition dans A,
autrement dit, il accède au contenu d’une case du tableau contenant δ. Ainsi, le
coût total de l’algorithme (hors pré-traitement) est linéaire en |T | = n.

Commentaires.
© L’algorithme naïf de recherche de motif consiste à parcourir les positions i
dans T et tester si pour tout j ∈ J1, kK, on a mj = ti+j . Cet algorithme est alors
de complexité temporelle O(kn) dans le pire des cas.
Pour améliorer cet algorithme, on utilise l’observation suivante : à chaque fois que
la condition mj = ti+j n’est pas satisfaite (c’est-à-dire qu’on échoue à trouver M
à la position i dans T ), on peut parfois utiliser la valeur de j pour recommencer
la recherche à une position i + sj au lieu de i + 1. Cette idée est celle utilisée
dans l’algorithme de Knuth-Morris-Pratt fonctionnant en temps O(n + k). L’idée
consiste à effectuer un pré-traitement calculant les sj pour tout j ∈ J1, kK.
L’algorithme présenté ici utilise aussi cette approche, mais de manière moins
évidente. Lors de son exécution, lorsqu’on lit la lettre ti à partir de l’état q dans
l’automate A, on teste si Mq ti est un suffixe que t1 · · · ti , ce qui revient en fait à
tester si Mq ti est un facteur de T commençant à la position i − q. Si ti = mq+1 ,
on a σ(Mq ti ) = q + 1 et la recherche de M dans T à la position i − q se poursuit.
Sinon, on sait que M n’est pas un facteur de T commençant à la position i − q.
On connaît en revanche σ(Mq ti ), à savoir la taille du plus grand préfixe de M
dans Mq ti . On sait alors qu’on peut chercher M à la position i − σ(Mq ti ) au lieu
de i − q + 1. Ainsi, les sj de l’algorithme de Knuth-Morris-Pratt peuvent en fait
être déduits des transitions de l’automate A.
© Lorsqu’on considère la complexité d’algorithmes de recherche de motifs, il est
plus pratique de considérer le problème où on cherche toutes les occurrences du
motif dans le texte. En effet, ceci permet de considérer la complexité dans le
meilleur et le pire cas sans se préoccuper de la répartition des occurrences du motif
dans le texte. L’algorithme présenté ici est alors toujours en O(n + P (k)) où P
est un polynôme ne dépendant pas de n. L’algorithme de Knuth-Morris-Pratt
utilise une complexité en O(n + k) dans tous les cas. De plus, ce dernier est
moins gourmand en mémoire car on doit seulement retenir les sj au lieu de tout
l’automate A.
Parmi les nombreux algorithmes connus pour résoudre le problème de recherche
de motifs, un autre exemple est fourni par l’algorithme de Boyer-Moore. Sa
complexité est de l’ordre de O( nk ) dans le meilleur cas et de O(n + k) dans le pire.

765
119. Recherche de motif

© Les expressions régulières et les automates sont deux formalismes reconnaissant


les mêmes objets (à savoir les langages rationnels). L’un est descriptif, l’autre
algorithmique, au sens où un automate fournit une procédure pour déterminer si
un mot donné appartient au langage qu’il représente.
Comme on le verra dans les questions, les langages réguliers sont aussi reconnus
par un formalisme algébrique : un langage L sur l’alphabet Σ est rationnel si et
seulement s’il existe un monoïde M fini, une partie F ⊂ M et un morphisme de
monoïdes ϕ : Σ∗ → M tels que L = ϕ−1 (F ). Intuitivement, ceci signifie qu’on peut
étiqueter les mots de Σ∗ avec un nombre fini d’étiquettes de sorte que d’une part,
l’étiquetage soit compatible avec la concaténation, et d’autre part, l’appartenance
d’un mot à L ne dépend que de son étiquette.
Dans ce cadre, on peut alors montrer qu’il existe un objet canonique reconnaissant
un langage donné, à savoir le monoïde syntaxique, dont la construction est présentée
ci-après. Ce cadre n’est pas si éloigné du programme de l’agrégation qu’il n’en a
l’air : de nombreux résultats classiques peuvent être vus comme des propriétés
naturelles de ce mode de reconnaissance.
© La notion d’automate minimal est centrale lorsqu’on étudie des langages ration-
nels. En effet, il s’agit d’une structure canonique reconnaissant un langage donné.
Pour d’autres représentations des langages rationnels (expressions régulières, au-
tomates déterministes ou non déterministes...), l’unicité d’une telle structure
n’est pas toujours assurée. De plus, la taille des représentations n’implique pas
leur minimalité. Par exemple, dans le cas des expressions régulières ou bien des
automates non déterministes, plusieurs automates (non déterministes) ayant un
nombre minimal d’états peuvent reconnaître un langage donné.

Questions.
1. Justifier que l’automate A est déterministe et complet.
2. Construire l’automate A sur l’alphabet {a, b} quand M = aba et M = ak .
3. Donner l’algorithme construisant la table des transitions de A. Quelle est sa
complexité ?
4. Modifier l’algorithme pour rechercher toutes les occurrences de M dans T .
5. Comment modifier l’algorithme pour chercher le même motif dans plusieurs
textes, plusieurs motifs dans le même texte ?
6. Proposer des structures de données pour représenter des automates détermi-
nistes (resp. non nécessairement déterministes).
7. Soit L un langage sur l’alphabet Σ et u ∈ Σ∗ . Le résiduel (à gauche) u−1 L est
défini par {v ∈ Σ∗ | uv ∈ L}. Montrer qu’un langage est rationnel si et seulement
si l’ensemble {u−1 L | u ∈ Σ∗ } est fini.
8. Montrer que l’ensemble des résiduels d’un langage rationnel est en bijection
avec l’ensemble des états de son automate minimal.
9. En déduire l’unicité (à renommage des états près) d’un automate déterministe
complet minimal en nombre d’états reconnaissant un langage donné. Est-ce
toujours vrai si on ne requiert plus que cet automate soit déterministe ?

766
Langages réguliers et algébriques

10. Soit L un langage sur l’alphabet Σ. Pour u, v ∈ Σ∗ , on définit u ∼L v si pour


tout x, y ∈ Σ∗ , xuy ∈ L ⇔ xvy ∈ L.
Montrer que ∼L est une congruence (dite congruence syntaxique), i.e. si u ∼L u0
et v ∼L v 0 , alors uv ∼L u0 v 0 .
11. Montrer que si L est rationnel, alors ∼L a un nombre fini de classes. En déduire
que Σ∗ / ∼L est un monoïde fini (dit monoïde syntaxique) et que la projection
canonique π : Σ∗ → Σ∗ / ∼L vérifie L = π −1 (π(L)).
12. En déduire qu’un langage est rationnel si et seulement s’il est reconnu par un
monoïde fini.

767
120. Problème de séparation par automate

Développement 120 (Problème de séparation par automate F)

On s’intéresse au problème de séparation par automate (PSA) :





 entrée : deux langages finis S, T sur l’alphabet Σ et un entier k ;

sortie : oui s’il existe un automate déterministe à au plus k états

PSA


 séparant S de T , c’est-à-dire acceptant tous les mots

de S et aucun mot de T , non sinon.

a) Montrer que PSA appartient à la classe NP.


b) On va montrer que PSA est NP-dur en y réduisant le problème CnfSat.
On fixe donc ϕ une formule propositionnelle sous forme normale conjonctive.
On note C0 , . . . , Cn−1 les clauses de ϕ et x0 , . . . , xv−1 ses variables. On définit
aussi `0 , . . . , `2v−1 les littéraux de ϕ (avec `i = xi si i < v et `i = xi−v sinon).

CnfSat

ϕ tr(ϕ) oui
traduction PSA non

Soient a une lettre et k = n + 2v.


(i) On pose
S1 = {ε, ak } et T1 = {ai : i ∈ J1, k − 1K}.
Soit A un automate déterministe à au plus k états séparant S1 de T1 .
Montrer que les transitions de A étiquetées par a forment un cycle de
longueur k.
On étiquette dans l’ordre les états de ce cycle par C0 , . . . , Cn−1 , `0 , . . . , `2v−1 .
De plus, C0 est l’unique état initial et l’unique état final de A.
(ii) Soit b une lettre et
T2 = {ai baj : i ∈ J0, n − 1K , j ∈ J0, k − 1K} \ {ai ba2v−j : `j ∈ Ci }.
Montrer que si A sépare S1 de T1 ∪ T2 , alors toute transition issue d’un
état Ci et étiquetée par b arrive dans un état `j où `j apparaît dans Ci .
(iii) Soit
n o
T3 = an+j bah : j ∈ J0, 2v − 1K , h ∈ J1, k − 1K \ {v} .

Montrer que si A sépare S1 de T1 ∪ T2 ∪ T3 , alors toute transition issue


d’un état `j et étiquetée par b arrive dans l’état x0 ou C0 .

768
Langages réguliers et algébriques

(iv) Soit n o
T4 = an+i ban+v+i b : i ∈ J0, v − 1K .

Montrer que si A sépare S1 de T1 ∪ T2 ∪ T3 ∪ T4 , alors pour tout entier


b
i ∈ J0, v − 1K, l’automate A ne contient pas les transitions xi → − C0
b
et xi →
− C0 simultanément.
(v) Soit n o
S2 = ai bb : i ∈ J0, n − 1K .

Montrer que si A sépare S1 ∪ S2 de T1 ∪ T2 ∪ T3 ∪ T4 , alors pour tout


b
i ∈ J0, n − 1K, il existe un littéral `j de Ci tel que `j →
− C0 est une
transition de A.
(vi) Montrer que ϕ 7→ tr(ϕ) := (S1 ∪S2 , T1 ∪T2 ∪T3 ∪T4 , k) est une réduction
polynomiale de CnfSat à PSA. Conclure.

Leçons concernées : 909, 915, 928

Ce développement considère un exemple de problème NP-complet en rapport avec les


automates. Il trouve donc naturellement sa place dans les leçons 909 et 928. Bien
qu’il y ait probablement meilleur choix, il peut aussi s’insérer dans la leçon 915 si
on y parle de NP-complétude.

Correction.
a) Si A est un automate déterministe à k états et w est un mot de taille n, on
peut déterminer en temps polynomial en k et n si w est accepté ou non par A.
Ainsi, on peut tester en temps polynomial en |S| et |T | si A sépare S de T .
Autrement dit, on peut fournir un certificat polynomial (l’automate A) pour les
instances positives (S, T, k) de PSA. Ce problème est donc dans NP.
b) (i) Comme ak ∈ S1 , l’automate A accepte le mot ak . Il existe donc un chemin
a a
q0 −
→ ··· −
→ qk dans A, avec q0 initial et qk final.
Comme A a au plus k états, il existe deux entiers i 6= j tels que qi = qj . On
obtient alors que A reconnaît ak−(j−i) , d’où k − (j − i) = 0, sinon A reconnaitrait
un mot de T1 . On obtient donc i = 0 et j = k, d’où q0 = qk et q1 , . . . , qk sont
deux à deux distincts. Ainsi les transitions étiquetées par a induisent un cycle de
longueur k = n + 2v dans A.
On remarque aussi que pour i ∈ J1, k − 1K, l’état qi ne peut être initial ou final,
autrement A reconnaît ak−i ou ai , qui sont des mots de T1 . Ainsi, q0 est le
seul état initial et le seul état final de A. On peut alors renommer les états en
C0 , . . . , Cn−1 , x0 , . . . , xv−1 , x0 , . . . , xv−1 de sorte que l’automate A soit de la forme
suivante :

769
120. Problème de séparation par automate

a a a a
C0 C1 ··· Cn−2 Cn−1

a a
a a a xv−1 a · · · a
xv−1 ··· x0 x0

b
(ii) • Par l’absurde, supposons que A contient une transition Ci →
− Cj . Alors
le mot ai bak−j est accepté par A via
ai b ak−j
C0 −→ Ci →
− Cj −−−→ C0 .

Or, comme k − j > 2v − j, le mot ai bak−j est un mot de T2 , ce qui est


b
impossible. Il n’y a donc pas de transition Ci →
− Cj .
b
• Par l’absurde, supposons maintenant que A contient une transition Ci → − `j
i
où `j n’est pas un littéral de Ci . Alors a ba2v−j est à nouveau un mot de T2
accepté par A via
ai b a2v−j
C0 −→ Ci →
− `j −−−→ C0 ,
ce qui est impossible.
Ainsi, toute transition partant de Ci et étiquetée par b arrive dans un état `j
où `j est un littéral de Ci .
(iii) On raisonne de nouveau par l’absurde. Supposons que A contient une
b
transition `j →
− q où q ∈
/ {C0 , x0 }. Distinguons deux cas :
• Si q = Ci avec i ∈ J1, nK, alors
an+j b ak−i
C0 −−−→ `j →
− q −−−→ C0

est un chemin acceptant le mot an+j bak−i ∈ T3 dans A, ce qui est impossible
puisque k − i > 2v.
• Si q = `i avec i 6= v, alors, puisque q 6= x0 ,
an+j b a2v−i
C0 −−−→ `j →
− q −−−→ C0

est un chemin acceptant le mot an+j ba2v−i ∈ T3 dans A, ce qui est aussi
impossible.
Ainsi, toute transition issue de `j et étiquetée par b arrive dans l’état C0 ou x0 .
(iv) Comme pour les questions précédentes, on procède par l’absurde. Sup-
b b
posons que A contient les transitions xi →
− C0 et xi →
− C0 pour un certain
entier i ∈ J0, v − 1K. Alors
an+i b an+v+i b
C0 −−−→ xi →
− C0 −−−−→ xi →
− C0

est un chemin acceptant le mot an+i ban+v+i b ∈ T4 dans A, ce qui est impossible.
b b
Ainsi, A contient au plus une transition parmi xi →
− C0 et xi →
− C0 .

770
Langages réguliers et algébriques

(v) Soit i ∈ J0, n − 1K. Comme ai bb ∈ S2 , le mot ai bb est accepté par A. On a


donc un chemin acceptant
ai b b
C0 −→ Ci →
− q→
− C0

dans A.
D’après b)(ii), q = `j où `j est un littéral de Ci . L’automate A contient donc
b
bien une transition `j →
− C0 avec `j un littéral de Ci .
(vi) Il est facile de constater que les ensembles S := S1 ∪S2 , T := T1 ∪T2 ∪T3 ∪T4
et l’entier k sont calculables en temps polynomial par rapport à ϕ. Il reste à
montrer que la réduction est valide, c’est-à-dire que ϕ est satisfiable si et seulement
si S et T sont séparés par un automate déterministe à au plus k états.
Pour le sens indirect, s’il existe un automate déterministe A à au plus k états
séparant S de T , la question b)(i) permet d’étiqueter ses états par C0 , . . . , Cn−1
et `0 , . . . , `2v−1 .
On définit la valuation v par :

> b
si A contient `i →
− C0 ,
v(`i ) = b
⊥ si A contient `i →
− x0 .

D’après la question b)(iii), v est définie sur toutes les variables x0 , . . . , xv−1 .
Elle est de plus valide par b)(iv). Enfin, d’après b)(ii) et b)(v), la valuation v
satisfait ϕ.
Réciproquement, supposons que ϕ soit satisfaite par une valuation v. On définit
alors un automate A tel que :
• son alphabet est {a, b} ;
• ses états sont C0 , . . . , Cn−1 , `0 , . . . , `2v−1 ;
• C0 est l’unique état initial ;
• C0 est l’unique état final ;
• les transitions étiquetées par a forment un cycle C0 , . . . , Cn−1 , `0 , . . . , `2v−1 , C0 ;
b
• les transitions étiquetées par b sont les Ci →
− `j si `j apparaît dans Ci ,
b b
les `i →
− C0 si v(`i ) = > et les `i →
− x0 si v(`i ) = ⊥.
On peut alors vérifier que A sépare S de T .
Ainsi, l’application tr est bien une réduction en temps polynomial, ce qui assure
que PSA est NP-dur. La question a) assure qu’il est alors NP-complet.

Commentaires.
© Le problème étudié ici est la version de décision d’un problème d’optimisation :
quelle est la taille minimale d’un automate déterministe séparant deux langages
finis ? Informellement, il s’agit de quantifier à quel point les langages sont difficiles
à séparer : à quel point l’automate doit être « expressif » pour séparer les deux
langages ?

771
120. Problème de séparation par automate

© Le problème PSA se généralise naturellement au cas où S, T sont des langages


réguliers (et non juste finis) et si on ne requiert plus que A soit déterministe. La
réduction présentée ci-avant s’applique toujours : le problème reste NP-dur. En
revanche, il n’est probablement plus NP : même si on peut toujours deviner un
automate à au plus k états, tester si le langage L qu’il reconnaît vérifie S ⊂ L
et L ∩ T = ∅ ne peut plus se faire en temps polynomial. En effet, tester l’inclusion
de deux langages est un problème PSpace-complet (cf. Développement 121).
© En fait, le problème PSA est un cas particulier de problème de séparation.
Ces problèmes sont paramétrés par un ensemble C de langages. Pour chaque
ensemble C, le problème de C-séparation est le suivant :
(
entrée : deux langages réguliers L1 , L2 ;
C-Sep
sortie : oui s’il existe L ∈ C séparant L1 de L2 , non sinon.
En faisant varier la classe de langages, on obtient différents problèmes. Celui
considéré dans ce développement est obtenu quand C est la classe des langages
reconnus par un automate déterministe à au plus k états. Le problème étudié à
la question 2 ci-après correspond au cas où C est la classe des langages obtenus
comme unions, intersections et compléments de langages de la forme A∗ aA∗ où a
est une lettre et A un alphabet. Autrement dit, pour tout langage L de cette
classe, il existe un alphabet A tel que L est l’ensemble des mots dont l’alphabet
est A, c’est-à-dire qu’on peut tester si un mot w appartient à L en listant les
lettres de w.
© L’origine du problème de séparation est multiple. C’est tout d’abord un problème
naturel en apprentissage automatique. Imaginons qu’on veuille apprendre à une
machine à résoudre un problème dont on connaît un certain nombre d’instances
positives S et d’instances négatives T . On peut alors essayer de dégager un modèle
« simple » à partir de S et T , par exemple en construisant un séparateur de S
et T avec de bonnes propriétés (par exemple être reconnu par un automate simple,
c’est-à-dire déterministe et avec peu d’états). On peut alors affiner le modèle,
soit en considérant des jeux de données S, T plus grands, soit en assouplissant les
contraintes sur le séparateur.
Le problème de séparation apparaît aussi dans un autre contexte. En théorie
des modèles finis, une question classique consiste à déterminer quels langages
peuvent être définis à l’aide de certains formalismes. Par exemple, quels sont
les langages réguliers « sans étoile », c’est-à-dire pouvant être définis par une
expression régulière sans étoile (voir question 1 ci-après). Dans ce contexte, le but
est de résoudre le problème de C-appartenance : étant donné un langage régulier L,
est-ce que L appartient à la classe C ? (La classe C représente la classe des langages
définissables dans le formalisme donné.)
Le problème de C-séparation est plus difficile que C-appartenance. En effet, si L
est un langage régulier, L est une instance positive de C-appartenance si et
seulement si (L, L) est une instance positive de C-séparation. Ainsi, on obtient
une réduction d’un problème à l’autre. Intuitivement, cela signifie qu’on a be-
soin de plus d’informations sur C pour résoudre C-séparation que pour résoudre
C-appartenance. Ce surplus d’information permet d’utiliser C-séparation pour

772
Langages réguliers et algébriques

résoudre D-appartenance, pour d’autres classes D : quand D est une sur-classe


de C bien choisie, on peut réduire D-appartenance à C-séparation, ce qui justifie
l’étude du problème de séparation dans ce contexte.
© L’intérêt pour les langages sans étoile remonte à une question d’Eggan, posée
en 1963. Étant donné un langage régulier L, sa hauteur d’étoile est le nombre
minimum d’étoiles imbriquées dans une expression régulière reconnaissant L. Bien
que le cas de la hauteur d’étoile 0 soit facile à traiter, il a fallu plus de vingt ans
avant d’obtenir un algorithme permettant de calculer la hauteur d’étoile d’un
langage.
La question a aussi été posée dans un cadre plus général : en considérant des
expressions régulières étendues, c’est-à-dire qui peuvent utiliser le complément
en plus des opérations habituelles (union, concaténation et étoile de Kleene).
Dans ce contexte, la notion de hauteur d’étoile se généralise. Les langages sans
étoile forment une classe plus grande, mais bien comprise (par un théorème de
Schützenberger de 1965). En revanche, l’existence d’un langage régulier de hauteur
d’étoile (étendue) au moins 2 est une question toujours ouverte à ce jour.

Questions.
1. Montrer qu’un langage L est reconnu par une expression régulière n’utilisant
que l’union et la concaténation si et seulement si L est fini.
2. Soient u, v deux mots. On note u ∼ v si pour toute lettre a, elle apparaît autant
de fois dans u que dans v. Montrer que le problème suivant est NP-complet :
(
entrée : deux langages réguliers L1 et L2 ;
sortie : oui s’il existe u1 ∈ L1 et u2 ∈ L2 tels que u1 ∼ u2 , non sinon.

Indication : on pourra réduire le problème 3Sat. Si


m
^
ϕ= (`i,1 ∨ `i,2 ∨ `i,3 ),
i=1

est une formule propositionnelle utilisant les variables x1 , . . . , xn , on pourra


considérer les langages
n
Y m
Y
L1 = (xi + xi ) et L2 = L1 · (`i,1 + `i,2 + `i,3 ).
i=1 i=1

3. Montrer que pour tout automate à n états, il existe un automate déterministe


reconnaissant le même langage, ayant au plus 2n états. Cette borne est-elle
atteinte ?

773
121. Universalité d’un automate

Développement 121 (Universalité d’un automate FF)

On cherche à montrer que le problème suivant est PSpace-complet.


(
entrée : un automate A sur l’alphabet Σ ;
UnivAut
sortie : oui si L(A) = Σ∗ , non sinon.

a) Le problème UnivAut est dans PSpace.


(i) Soit A un automate à n états et w un mot non accepté par A de longueur
minimale. Montrer que |w| 6 2n .
(ii) En déduire que le problème est dans PSpace.
b) Le problème UnivAut est PSpace-dur.
Comme PSpace = co-PSpace, il suffit de montrer que tout problème dans
la classe PSpace se réduit à co-UnivAut en temps polynomial. Soit L un
problème dans PSpace et M une machine de Turing qui décide L en espace
polynomial. À partir d’un mot w, on cherche à construire en temps polynomial
un automate Aw tel que w ∈ L ⇐⇒ L(Aw ) 6= Σ∗ .

w Aw oui
traduction co-UnivAut non

Soit P ∈ R[X] tel que pour tout n ∈ N, la machine M s’arrête en au plus P (n)
étapes sur tout mot de longueur n. On représente une configuration de M par
un mot de taille P (n) + 1, constitué des lettres présentes sur les P (n) cases
utiles du ruban et où on insère l’état courant à gauche de la position de la
tête de lecture. Un calcul de M sur w est représenté par la suite des mots
associés aux configurations, séparés par un nouveau symbole $. Déterminer :
(i) Les mots représentant un calcul de M non acceptant.
(ii) Les mots représentant un calcul de M ne commençant pas sur w.
(iii) Les mots représentant un calcul invalide.
c) En déduire que le problème d’universalité UnivAut est PSpace-complet.

Leçons concernées : 909, 915


Ce développement présente une preuve de PSpace-complétude, qui permet d’illustrer
la leçon 915 avec un exemple un peu plus original qu’une preuve de NP-complétude.
Ici, l’appartenance à la classe PSpace est non triviale, et utilise des arguments
similaires à la preuve du lemme de l’étoile. Ce développement trouve donc aussi
sa place dans la leçon 909. Il peut aussi éventuellement être mentionné dans la
leçon 928, sans être proposé comme développement.

774
Langages réguliers et algébriques

Correction.
a) (i) Soit w un mot non accepté par A et de longueur minimale. Soit B
l’automate des parties de A. Rappelons que B est un automate déterministe et
complet, reconnaissant le même langage que A, et ayant 2n états puisque A en
a n.
Comme w n’est pas accepté par A, il n’est pas non plus accepté par B. Soit γ la
suite d’états obtenue en lisant w dans B. Comme B est déterministe et complet,
cette suite est unique et de taille |w|. Si |w| > 2n , le principe des tiroirs assure
que γ passe deux fois par le même état. Dans ce cas, soit w0 le mot obtenu à partir
de w en enlevant le facteur correspondant au mot lu entre les deux occurrences
de cet état dans γ. On a donc |w0 | < |w|.
Par construction de γ, la lecture de w0 dans B aboutit au même état que w. Ainsi,
le mot w0 est rejeté par B, ce qui contredit la minimalité de w. On a donc bien
l’inégalité |w| 6 2n .
(ii) Une approche naïve consiste à déterminiser A, puis à tester l’existence d’un
chemin d’un état initial à un état non-final. Cependant, ceci ne fournit pas un
algorithme en espace polynomial, car l’automate déterminisé peut avoir une taille
exponentielle. En revanche, on peut construire l’automate des parties à la volée,
et deviner une par une les transitions à prendre pour atteindre un état non-final
(en utilisant du non-déterminisme).
Considérons l’algorithme suivant :

Algorithme 30 : UnivAut en espace polynomial.


Entrée : un automate A à n états.
Sortie : vrai si L(A) = Σ∗ , faux sinon.
1 E ← états initiaux de A
2 pour i = 1 à 2n faire
3 si E ne contient pas d’état final alors
4 renvoyer faux
5 sinon
6 deviner une lettre a
7 E ← états de A accessibles depuis E en lisant a

8 renvoyer vrai

Cet algorithme fonctionne en espace polynomial. En effet, on doit stocker un


entier i sur n bits, et un ensemble d’états (ce qui ne nécessite que n bits aussi).
De plus, il renvoie vrai si et seulement si tous les mots de taille au plus 2n sont
acceptés par A, ce qui est équivalent à l’universalité de A d’après la question
précédente. Ainsi, cet algorithme atteste que le problème UnivAut appartient à
la classe NPSpace (on a utilisé ici du non-déterminisme). D’après le théorème de
Savitch, on a PSpace = NPSpace, ce qui conclut.
b) On note Σ l’union de l’alphabet Γ de M , de l’ensemble des états de M et
de {$}. Il s’agit de l’alphabet des mots codant les calculs de M .

775
121. Universalité d’un automate

(i) Un calcul de M n’est pas acceptant si la dernière configuration n’est pas


dans un état final. Ainsi, les mots codant un calcul de M non acceptant sont ceux
de
Σ∗ $(Σ \ (F ∪ {$}))∗ ,
où F est l’ensemble des états acceptants de M .
(ii) Un calcul de M commence sur w si et seulement si le mot codant la pre-
mière configuration est q0 w#P (n)−n où q0 est l’état initial. Ainsi, les mots w0
ne représentant pas un calcul commençant sur w sont ceux ne commençant pas
par q0 w#P (n)−n $, et vérifient donc l’une des conditions suivantes :
• |w0 | 6 P (n).
• w0 ne commence pas par q0 .
• La (i + 1)-ième lettre de w0 n’est pas wi , pour un certain i ∈ J1, nK.
• La (i + 1)-ième lettre de w0 n’est pas #, pour un certain i ∈ Jn + 1, P (n)K.
• La (P (n) + 2)-ième lettre de w0 n’est pas $.
Il suffit alors de prendre l’union des langages décrivant les mots w0 vérifiant
chacune de ces propriétés :
n
(Σ + ε)P (n) ∪ (Σ \ {q0 })Σ∗ ∪ Σi (Σ \ {wi })Σ∗
[

i=1
P (n)
Σi (Σ \ {#})Σ∗ ∪ ΣP (n)+1 (Σ \ {$})Σ∗ .
[

i=n+1

(iii) La validité d’un calcul peut être testée en observant des contraintes locales,
de manière similaire à la preuve du Théorème de Cook-Levin (voir Dévelop-
pement 124). Dans le cas présent, un calcul est valide si tous les facteurs de
taille P (n) + 4 sont cohérents. Plus précisément, chaque facteur

ABCDΣP (n)−1 B 0

de taille P (n) + 4 doit vérifier les assertions suivantes :


• Au plus une lettre parmi A, B, C est un état.
• Si A, B, C ne sont pas des états, i.e. A, B, C ∈ Γ ∪ {$} alors la tête de lecture
n’est pas dans le voisinage de la case contenant B, donc B 0 = B.
• Si A ∈ Q, alors (
0 q si δ(A, B) = (q, a, →),
B =
a si δ(A, B) = (q, a, ←).
• Si B ∈ Q, alors (
0 a si δ(B, C) = (q, a, →),
B =
A si δ(B, C) = (q, a, ←).
• Si C ∈ Q, alors (
0 B si δ(C, D) = (q, a, →),
B =
q si δ(C, D) = (q, a, ←).

776
Langages réguliers et algébriques

Autrement dit, les calculs invalides sont les éléments d’une union de langages de
la forme
Σ∗ ABCDΣP (n)−1 B 0 Σ∗ ,
où A, B, C, D, B 0 ne vérifient pas l’une des conditions précédentes.
c) Soit Aw un automate reconnaissant l’union des langages définis en question b).
On peut facilement vérifier que Aw peut être construit en temps polynomial à
partir des expressions régulières ci-avant. Il reste à montrer l’équivalence

w ∈ L ⇐⇒ L(Aw ) 6= Σ∗ .

Si w ∈ L, alors il existe un calcul acceptant de M sur w. Par construction, le


mot w0 associé à ce calcul n’appartient pas à L(Aw ) donc L(Aw ) 6= Σ∗ .
Réciproquement, si L(Aw ) 6= Σ∗ , il existe un mot w0 ∈ Σ∗ \L(Aw ). Décomposons w0
sous la forme u1 $ · · · $up où chaque ui ne contient pas $. Par b)(ii), on a u1 =
q0 w#P (n)−n . En utilisant b)(iii), une récurrence immédiate assure que pour tout
i ∈ J2, pK, le mot ui code bien une configuration de M obtenue à partir de ui−1
en effectuant un pas de calcul dans M . Ainsi, up code une configuration de M .
De plus, ce mot contient une lettre de F par b)(i), donc cette configuration est
acceptante. Ainsi, w est bien accepté par la machine M , donc w ∈ L.
La construction précédente est donc une réduction en temps polynomial de
n’importe quel problème L dans PSpace au problème de non-universalité d’un
automate. Le problème co-UnivAut est donc PSpace-dur et UnivAut est co-
PSpace-dur. Comme co-PSpace = PSpace par le théorème de Savitch, on obtient
que UnivAut est PSpace-dur, et finalement PSpace-complet d’après la question a).

Commentaires.
© On a préféré montrer ici que UnivAut est co-PSpace-dur. Ce détour est justifié
par le fait que la validité d’un calcul est équivalente à une conjonction de conditions
(la première configuration contient w, chaque configuration est obtenu à partir
de la précédente en effectuant un pas de calcul, et la dernière configuration
contient un état final), ce qui se traduit par une intersection des (complémentaires
des) langages décrits en question b). Or, obtenir un automate reconnaissant
l’intersection de deux langages nécessite de passer par l’automate produit, ce
qui pourrait poser problème pour obtenir une réduction en temps polynomial
si on considère trop d’intersections. Il est alors plus pratique de considérer des
complémentaires : les intersections deviennent des unions, et cette opération est
nettement plus facile à mettre en œuvre sur des automates.
On aurait pu se passer de cette étape intermédiaire, et montrer directement la
PSpace-complétude de UnivAut, mais ceci nécessite de construire explicitement
(et en temps polynomial) un automate reconnaissant l’intersection des complé-
mentaires des langages de la question b), ce qui serait beaucoup plus technique et
cacherait l’idée de la preuve.
© Les expressions régulières étendues sont obtenues en permettant l’utilisation
de l’opération de complément dans les expressions régulières. Ces expressions

777
121. Universalité d’un automate

étendues représentent aussi les langages réguliers, et permettent d’exprimer plus


facilement certains langages, comme celui de la question b)(ii) qui s’écrit simple-
ment q0 w#P (n)−n $Σ∗ . On ne peut malheureusement pas utiliser de complément
dans cette preuve, puisqu’on doit construire en temps polynomial un automate
reconnaissant le même langage que l’expression régulière construite. Dans le cas
des expressions régulières standard, ceci est possible par induction (via l’algo-
rithme de Thompson). Cependant, lorsqu’on considère des expressions étendues, la
présence du complément force à complémenter (donc à déterminiser) les automates
construits, ce qui est exponentiel dans le pire cas. Ceci explique la technicité
requise dans la question b)(ii) afin d’obtenir une réduction polynomiale.
© Étant donné un formalisme permettant de reconnaître des langages, l’universa-
lité est un problème naturel. On peut aussi citer d’autres tels problèmes : tester si
un langage est vide, tester l’inclusion ou la non-intersection de deux langages, etc.
© Pour tester de telles propriétés sur les langages réguliers, il est souvent plus
pratique d’utiliser une représentation par automates. En effet, beaucoup de telles
propriétés se ramènent à des questions d’accessibilité dans des graphes bien choisis.
En revanche, il est souvent plus ardu de tester ces propriétés en utilisant seulement
des expressions régulières, ou d’autres formalismes plus haut niveau (mais ne
relevant pas du programme de l’agrégation, comme des monoïdes) sans convertir
ces représentations en automates.
© Le résultat présenté ici illustre à nouveau une différence entre les automates
déterministes et non-déterministes (voir questions ci-dessous). En effet, le test
d’universalité est nettement plus rapide dans le cas des automates déterministes,
puisqu’il peut être fait en temps polynomial. Ainsi, en général, représenter un lan-
gage régulier par un automate non-déterministe conduit à une représentation plus
succincte mais sur laquelle les opérations basiques sont coûteuses. A contrario, une
représentation sous forme d’automate déterministe est plus coûteuse à maintenir,
mais permet de diminuer drastiquement la complexité de ces opérations.

Questions.
1. Expliquer comment représenter un ensemble E ⊂ J1, nK avec au plus n bits.
2. Montrer que le problème d’universalité d’un automate déterministe fini peut
être résolu en temps polynomial.
3. Montrer que le problème d’équivalence (deux automates donnés reconnaissent-
ils le même langage ?) est PSpace-complet. Et si les automates sont déterministes ?
4. Montrer que le problème suivant est PSpace-complet : existe-t-il un mot accepté
par n automates donnés ? et si les n automates sont déterministes ?
5. Justifier qu’on peut construire en temps polynomial un automate reconnaissant
le langage décrit par une expression régulière donnée. Donner un automate
reconnaissant les langages des questions b)(i) et (ii).
6. Montrer que NPSpace = PSpace = co-PSpace.
7. Montrer que pour tout automate donné, il existe un automate reconnaissant le
même langage et ayant un nombre minimal d’états. Cet automate est-il unique ?
Et dans le cas déterministe ?

778
Langages réguliers et algébriques

Développement 122 (Algorithme de Cocke-Younger-Kasami F)

L’algorithme de Cocke-Younger-Kasami (CYK) permet de résoudre le pro-


blème du mot pour les grammaires algébriques.
On dit qu’une grammaire algébrique G = (Σ, N , T , S, R) est sous forme
normale de Chomsky si elle ne contient que des règles de la forme A → a
(avec a ∈ T et A ∈ N ) ou A → A1 A2 (avec A1 , A2 ∈ N ).

entrée :

 un mot w = w1 w2 · · · wn , une grammaire algébrique G
Mot sous forme normale de Chomsky ;

sortie : oui si w ∈ L(G), non sinon.

Pour tous les indices i, j ∈ J1, nK tels que i 6 j, on note

Ei,j = {A ∈ N : A →∗ wi · · · wj } .

Ainsi on a w ∈ L(G) si et seulement si S ∈ E1,n . On veut donc calculer E1,n .


a) Montrer que pour tout i ∈ J1, nK, on a

Ei,i = {A ∈ N : A → wi ∈ R}.

b) Montrer que pour tout 1 6 i < j 6 n, on a


j−1
[ [
Ei,j = {A ∈ N : A → BC ∈ R}. (1)
k=i B∈Ei,k
C∈Ek+1,j

c) En déduire un algorithme qui résout le problème du mot. Donner sa


complexité temporelle et spatiale.

Leçons concernées : 907, 915, 923, 931

Le but de l’algorithme de Cocke-Younger-Kasami est de décider si un mot est


engendré par une grammaire algébrique, ce qui le fait entrer naturellement dans la
leçon 907 dédiée à l’algorithmique du texte. Le problème du mot pour une machine
de Turing ( i.e. de savoir si pour un mot w et une machine de Turing M donnés,
la machine M accepte ou non le mot w) est indécidable. On prouve ici que le
problème du mot pour les langages algébriques est décidable et même dans la
classe P, ce qui illustre la leçon 915. Le but de l’analyse syntaxique est de savoir
si un mot est engendré par une grammaire algébrique. Ce développement est donc
un bon exemple pour la leçon 923. Enfin, cet algorithme utilise la programmation
dynamique, d’où son placement naturel dans la leçon 931.

779
122. Algorithme de Cocke-Younger-Kasami

Correction.
a) La grammaire étant sous forme de Chomsky, les non-terminaux ne peuvent
pas se dériver en le mot vide. En particulier, en utilisant les règles A → BC,
on obtient des mots d’au moins deux lettres. Ainsi le seul moyen pour qu’un
non-terminal A ∈ N engendre la lettre wi est d’avoir une règle A → wi dans la
grammaire G. Ce qui montre immédiatement le résultat voulu.
b) Montrons l’inclusion indirecte. Soient B1 , B2 ∈ N et k ∈ Ji, j − 1K tels que

B1 →∗ wi · · · wk , B2 →∗ wk+1 · · · wj et A → B1 B2 ∈ R.

Alors on a une dérivation A →∗ wi · · · wj donc A ∈ Ei,j .

Réciproquement, supposons que l’on ait A ∈ Ei,j , i.e. A →∗ wi · · · wj , avec au


moins 2 lettres car i 6= j. On considère la première règle utilisée pour cette
dérivation. La grammaire étant sous forme normale de Chomsky, elle est de la
forme A → BC avec B, C ∈ N . On obtient une dérivation BC →∗ wi · · · wj .
D’après le lemme de factorisation, il existe alors un entier k et des dérivations
B →∗ wi · · · wk et C →∗ wk+1 · · · wj . Autrement dit, B ∈ Ei,k et C ∈ Ek+1,j . De
plus, k > i car la règle B → ε n’est pas présente dans R. De même, k < j car il
n’y a pas de règle C → ε. Donc A est dans l’ensemble de droite de (1).
c) On veut calculer les ensembles Ei,j (avec i < j). La formule de la question b)
fournit un algorithme de calcul des ensembles Ei,j à partir des Ei,k et Ek,j pour
tout i 6 k < j.
En représentant les Ei,j dans une matrice, le calcul de Ei,j repose sur les ensembles
qui sont entourés ci-après :

 
 E1,1 · · · E1,i · · · E1,j · · · E1,n 

.. .. .. .. 

 . . . .


 

 Ei,i → Ei,j · · · Ei,n 

..
 
 .. 

 . ↑ . 

Ej,j · · · Ej,n
 
 
 
 .. .. 

 ∅ . . 

 
 En,n 

On utilise la programmation dynamique en commençant par les coefficients


diagonaux et en remontant d’une diagonale à chaque étape. On va donc utiliser la
question a) pour l’initialisation (calcul des éléments diagonaux), puis la question b)
pour les pas de calcul.

780
Langages réguliers et algébriques

On utilise alors l’ordre de calcul suivant :


1 2 ... ... n
.. .. ..
. . .
.. .. .
. . ..
..
. 2
1

On en tire l’algorithme suivant qui résout le problème du mot :

Algorithme 31 : CYK(w, G).


Entrée : un mot w et une grammaire G.
Sortie : un booléen indiquant si w ∈ L(G).
1 initialiser Ei,j = ∅
2 pour i allant de 1 à n faire
3 pour A → a ∈ R faire
4 si a = wi alors
5 Ei,i ← Ei,i ∪ {A}

6 pour d allant de 2 à n faire


7 pour (i, j) sur la d-diagonale supérieure faire
8 pour k allant de i à j − 1 faire
9 pour A → B1 B2 ∈ R faire
10 si B1 ∈ Ei,k et B2 ∈ Ek+1,j alors
11 Ei,j ← Ei,j ∪ {A}

12 renvoyer S ∈ E1,n

Pour implémenter les ensembles Ei,j , on voudrait une structure de données qui
permette d’ajouter les non-terminaux et vérifier si des non-terminaux sont dans
un certain ensemble Ei,j en temps constant. Pour faire cela, on peut construire
une matrice qui contient en case (i, j) un tableau indexé par les non-terminaux et
valant « vrai » si le non-terminal est dans Ei,j et « faux » sinon.
La complexité temporelle de l’algorithme est donc en O(n3 |R|) et sa complexité
spatiale est en O(n2 |N |).

Commentaires.
© Dans notre problème de départ, on a une grammaire sous forme normale de
Chomsky. Pour éviter cette précondition, il faut savoir transformer n’importe
quelle grammaire en grammaire sous forme de Chomsky. Pour faire cela, une
méthode consiste à suivre ces transformations :
• on remplace tous les terminaux a en des nouveaux non-terminaux Aa . Puis
on ajoute les règles Aa → a ;

781
122. Algorithme de Cocke-Younger-Kasami

• on découpe toutes les règles A → B1 · · · Bn en des règles


A → B 1 C1 , C1 → B2 C2 , ..., Cn−1 → Bn−1 Bn
afin de ne plus avoir de règle avec plus de 2 non-terminaux à droite ;
• on élimine les règles A → B. Pour cela, on supprime cette règle, on duplique
toutes les règles qui contiennent A à droite et on change les A dans les copies
par des B. On ne peut pas seulement identifier A et B puisque A et B
peuvent dériver des langages différents, par exemple si R contient la règle
A → CD mais pas B → CD.
© Cette transformation d’une grammaire G quelconque vers une grammaire G0
sous forme normale de Chomsky vérifie seulement l’égalité L(G0 ) = L(G)\{ε}. Il
faut donc vérifier au préalable si ε appartient au langage engendré par G. Cela
peut se faire par saturation.
© Le problème du mot pour les machines de Turing est indécidable. En effet, il
n’existe pas d’algorithme qui prend en entrée une machine de Turing M et un
mot w et qui décide si cette machine de Turing M accepte le mot w.
© Il existe des problèmes indécidables sur les grammaires algébriques comme
Inter, Univ, Egal. Voir page 855.
© Pour l’analyse syntaxique, on dispose d’algorithmes plus efficaces que CYK,
mais pour des grammaires particulières (LL(n) ou LR(k)), voir Développement 123.
Cependant l’algorithme CYK a le mérite de fonctionner pour toutes les grammaires
et en temps polynomial.

Questions.
1. Que se passe-t-il si on exécute l’algorithme sur le mot vide ε ?
2. Donner un algorithme qui vérifie si ε appartient au langage engendré par une
grammaire G ou non.
3. Puisqu’on considère un mot w et une grammaire G, quelle est la taille de
l’entrée ? Cela change-t-il la complexité ?
4. Expliciter l’algorithme de mise sous forme normale de Chomsky.
5. Après avoir mis sous forme normale de Chomsky la grammaire suivante G =
(Σ, N , T , S, R) où Σ = {a, b, c, d}, N = {S, A, B, C}, T = Σ et R est décrit par
S → AB | Ca
A → aAb | ε
B → bB | b
C → cC | d,
appliquer l’algorithme CYK afin de savoir si les mots aabbbb, ccdddda et aabb sont
dans L(G). Comprendre l’intérêt de l’analyse LL(1), voir Développement 123.
6. Écrire la boucle « Pour (i, j) sur la d-diagonale supérieure » avec seulement
des boucles « Pour · · · allant de · · · à · · · ».
7. En réduisant le problème de Post, montrer l’indécidabilité de Inter, Univ et
Egal.

782
Langages réguliers et algébriques

Développement 123 (Caractérisation de Premier en analyse LL(1) FF)

On va utiliser les notations suivantes :


• G = (Σ, N , T , S, R) désigne une grammaire où Σ est l’alphabet utilisé,
N est l’ensemble des non-terminaux, T l’ensemble des terminaux, S
l’axiome de G et R est l’ensemble des règles de production ;
• les minuscules seront utilisées pour les terminaux et les majuscules pour
les non-terminaux ;
• →∗ (resp. →k , →<k ) désigne une dérivation de longueur finie (resp. de
longueur égale à k, de longueur strictement inférieure à k) ;
• ./ est un symbole frais qui peut être interprété comme la « première
lettre » du mot vide ε.
~ ∈ (N ∪ T )∗ par :
On veut caractériser la fonction Premier définie pour α
n o
~ ∈ (N ∪ T )∗ , α
 a ∈ T : ∃β
 ~ →∗ aβ~ ~ 9∗ ε,
si α
α) = n
Premier(~ o
~ ∈ (N ∪ T )∗ , α
 a ∈ T : ∃β

~ →∗ aβ~ ∪ {./} ~ →∗ ε.
si α

On peut voir Premier comme une partie de (N ∪ T )∗ × (T ∪ {./}). En effet,


si Premier(~α) = {a, +, ./}, on écrit alors

Premier = {(~
α, a), (~
α, +), (~
α, ./)}.

On veut montrer que la fonction Premier est la plus petite partie P de


(N ∪ T )∗ × (T ∪ {./}) telle que
(i) a ∈ P (a),
(ii) ./ ∈ P (ε),
(iii) si N → α1 α2 · · · αn , alors P (α1 · · · αn ) ⊂ P (N ),
(iv) si N → ε, alors ./ ∈ P (N ),
(v) (P (α1 ) \ {./}) ⊂ P (α1 · · · αn ),
(vi) si ./ ∈ P (α1 ), alors P (α2 · · · αn ) ⊂ P (α1 · · · αn ).
a) Montrer que la fonction Premier vérifie les propriétés (i) à (vi).
b) Soit P une partie vérifiant les propriétés (i) à (vi). Montrer par récurrence
forte sur la longueur de la dérivation que, pour tout n ∈ N, pour tout a ∈ T ,
pour tout α, β ∈ (N ∪ T )∗ , on a les propriétés suivantes :

~ →n aβ~ alors a ∈ P (~
« si α α) » et ~ →n ε alors ./ ∈ P (~
« si α α). »

c) En déduire le résultat souhaité.

Leçons concernées : 923

783
123. Caractérisation de Premier en analyse LL(1)

L’analyse LL(1) est une analyse syntaxique descendante sur une grammaire al-
gébrique dite LL(1). Cette analyse repose en partie sur le calcul de la fonction
Premier, qui est utilisée lors de la construction de la table d’analyse LL(1). Ce
développement entre donc naturellement dans la leçon 923.

Correction.
a) Montrons que Premier vérifie les propriétés (i) − (vi).
(i) Comme a →0 a, on a a ∈ Premier(a).
(ii) Comme ε →0 ε, on est dans le deuxième cas de la définition de Premier et
ainsi ./ ∈ Premier(ε).
(iii) Supposons que N → α1 α2 · · · αn . Soit a ∈ Premier(α1 · · · αn ). Il existe donc
β~ ∈ (N ∪ T )∗ tel que α1 · · · αn →∗ aβ,
~ donc, par hypothèse, N →∗ aβ, ~ ce
qui permet de conclure que a ∈ Premier(N ).
(iv) Supposons que N → ε. On est dans le deuxième cas de la définition de
Premier et ainsi
./ ∈ Premier(N ).
(v) Soit a ∈ Premier(α1 ) \ {./}. Il existe donc β~ ∈ (N ∪ T )∗ tel que α1 →∗ aβ.
~
Ainsi
α1 α2 · · · αn →∗ aβα
~ 2 · · · αn .
Donc a ∈ Premier(α1 · · · αn ).
(vi) Supposons que ./ ∈ Premier(α1 ), donc par définition α1 →∗ ε.
• Si a ∈ Premier(α2 · · · αn ) \ {./}, alors il existe β~ ∈ (N ∪ T )∗ tel qu’on
~ Ainsi
ait α2 · · · αn →∗ aβ.

α1 α2 · · · αn →∗ εα2 · · · αn →∗ aβ.
~

Donc a ∈ Premier(α1 · · · αn ).
• Si ./ ∈ Premier(α2 · · · αn ), alors α2 · · · αn →∗ ε. Ainsi

α1 α2 · · · αn →∗ εα2 · · · αn →∗ ε.

Donc ./ ∈ Premier(α1 · · · αn ).
Ainsi Premier(α2 · · · αn ) ⊂ Premier(α1 · · · αn ).
b) Notons HRn l’hypothèse de récurrence au rang n. Montrons l’hypothèse de
récurrence au rang n = 0.
• Si α ~ alors α
~ →0 aβ, ~ = aβ.~ D’où a ∈ P (a) \ {./} ⊂ P (~
α) par (i) et (v).
~ →0 ε, alors α
• Si α ~ = ε. D’où ./ ∈ P (~
α) par (ii).

Soit n ∈ N∗ . Supposons que HR` soit vraie pour tout ` < n et montrons HRn .
~ →n aβ,
• Si α ~ on veut montrer que a ∈ P (~
α).
+ Si le premier caractère de α
~ est un terminal, il s’agit de a. D’où

∈ P (a) \ {./} |{z}


a |{z} ⊂ P (~
α).
par (i) par (v)

784
Langages réguliers et algébriques

+ Sinon le premier caractère de α~ est un non-terminal N . Soit ~γ ∈ (N ∪T )∗


tel que α~ = N~γ . On distingue deux cas selon si la lettre a est produite à
partir de N ou non.
J S’il existe j < n tel que les j premières étapes appliquées à N
dérivent ε alors
N~γ →j ~γ →n−j aβ.~
Donc ./ ∈ P (N ) par HRj et a ∈ P (~γ ) par HRn−j . Ainsi
a ∈
|{z} ⊂ P (N~γ ) = P (~
P (~γ ) |{z} α).
par HRn−j par (vi)

J Sinon, soit N → x1 · · · xk la règle utilisée lors de la première dériva-


tion de N γ →n aβ. ~ Soit i l’indice minimal tel que xi →<n a. Comme
~
N γ → aβ, par minimalité de i, on a xj →<n ε pour tout j < i. Par
n

hypothèse de récurrence, on a a ∈ P (xi ) et pour tout j < i, on a


./ ∈ P (xj ), ainsi
~
N~γ →<n xi xi+1 · · · xk~γ →<n aβ.

On a donc
∈ P (xi ) \ {./} |{z}
a |{z} ⊂ P (xi · · · xk ).
par HR par (v)

En itérant l’application de (vi), on a


P (xi · · · xk ) |{z}
⊂ P (xi−1 · · · xk ) |{z}
⊂ · · · |{z}
⊂ P (x1 · · · xk ).
par (vi) par (vi) par (vi)

Ainsi
a ∈ P (x1 · · · xk ) \ {./} |{z}
⊂ P (N ) \ {./} |{z}
⊂ P (N~γ ) = P (~
α).
par (iii) par (v)

~ →n ε, on veut montrer que ./ ∈ P (~


• Si α α).
On est donc dans le cas où α ~ commence par un non-terminal car si on
commençait avec un terminal a, on n’engendrerait pas le mot vide à la fin de
la dérivation. Notons N ce non-terminal, et γ ∈ (N ∪ T )∗ tel que α ~ = N~γ .
~ →n ε. On
Soit N → x1 · · · xk la première règle utilisée dans la dérivation α
a alors
N~γ → x1 · · · xk~γ →n−1 ε.
Ainsi x1 · · · xk →<n ε, d’où par hypothèse de récurrence, on a
./ ∈ P (x1 · · · xk ) |{z}
|{z} ⊂ P (N ).
par HR par (iii)

De plus, ~γ →<n ε, d’où par hypothèse de récurrence, on a


./ ∈ P (~γ ) |{z}
|{z} ⊂ P (N~γ ) = P (~
α).
par HR par (vi)

785
123. Caractérisation de Premier en analyse LL(1)

c) Soit P la plus petite partie qui vérifie les propriétés (i) à (vi). La question a)
montre que Premier vérifie les propriétés (i) à (vi). Donc P ⊂ Premier.
La question b) nous permet de voir que P ⊂ Premier. En effet, si a ∈
Premier(~ α), alors il existe β~ ∈ (N ∪ T )∗ tel que α ~ →∗ aβ. ~ En utilisant le
résultat de la récurrence, on obtient a ∈ P (~α).

Commentaires.
© Ce théorème sert en pratique à calculer la fonction Premier par un algorithme
de saturation :

Algorithme 32 : Calcul_Premier.
~ ∈ (N ∪ T )∗ .
Entrée : un élément α
α).
Sortie : l’ensemble Premier(~
1 pour a ∈ T faire
2 Premier(a) ← {a}
3 Premier(ε) ← {./}
4 pour N → ε ∈ R faire
5 Premier(N ) ← {./}
6 tant que Premier est modifié faire [
7 Premier(N ) ← Premier(N ) ∪ Premier(α1 · · · αn )
N →α1 ···αn
8 si ./ ∈
/ Premier(α1 ) alors
9 Premier(α1 · · · αn ) ← Premier(α1 · · · αn ) ∪ (Premier(α1 ) \ {./})
10 sinon
11 Premier(α1 · · · αn ) ← Premier(α1 · · · αn ) ∪ Premier(α2 · · · αn )
12 renvoyer Premier

Cet algorithme est correct en raisonnant par double inclusion. Pour différentier les
deux ensembles que l’on considère, on note Premieralgo l’ensemble renvoyé par
l’algorithme. Par construction, Premieralgo vérifie les propriétés (i) à (vi). D’après
le résultat du développement, on a Premier ⊂ Premieralgo . Réciproquement,
l’ensemble Premieralgo vérifie la définition de la fonction Premier car on rajoute
seulement des premiers terminaux de dérivations possibles à partir des α ~ ∈

(N ∪ T ) , ainsi Premieralgo ⊂ Premier.
© Le symbole ./ permet de faire la différence entre les non-terminaux qui ne
se dérivent en rien et les non-terminaux qui se dérivent en ε. Par exemple, la
grammaire qui contient uniquement la règle S → S engendre le langage vide. On
a Premier(S) = ∅. Alors que la grammaire qui contient la règle S → ε engendre
le langage contenant que le mot vide ε. On a Premier(S) = {./}.
© La partie importante du développement est la deuxième inclusion. Il peut être
intéressant de traiter qu’une des six propriétés pour l’inclusion directe afin d’avoir
du temps pour la récurrence de l’inclusion réciproque.

786
Langages réguliers et algébriques

© La fonction Premier est un élément essentiel de l’analyse LL(1) en analyse


syntaxique descendante. En effet, elle permet de donner l’ensemble des premiers
terminaux sur lesquels peut se dériver α ∈ (N ∪ T )∗ .
© Pour une grammaire sans règle N → ε, on dit qu’elle est LL(1) si et seulement
si pour tout non-terminal N ∈ N , en notant les règles dont N est partie gauche
par
N →α ~ 1, . . . , N → α
~ n,
α1 ), . . . , Premier(~
les ensembles Premier(~ αn ) sont deux à deux disjoints.
© Pour le cas où il y a des règles N → ε, on a besoin de la fonction Suivant qui
possède un théorème similaire et un algorithme de saturation pour la calculer. La
fonction Suivant est définie pour N ∈ N par :
n o
α, β~ ∈ (N ∪ T )∗ , S →∗ α
 a ∈ T : ∃~
 ~ N aβ~ si S 9∗ α
~ N,
Suivant(N ) = n o
α, β~ ∈ (N ∪ T )∗ , S →∗ α
 a ∈ T : ∃~ ~ N aβ~ ∪ {⊗} si S →∗ α
~ N.

En particulier, Suivant(S) contient le symbole ⊗. La fonction Suivant est un


autre élément clé pour l’analyse LL(1) en analyse syntaxique descendante. En effet,
une grammaire LL(1) sera alors une grammaire dont toutes les parties droites
pour un même non-terminal ont des ensembles Premier deux à deux disjoints
et telle que si le non-terminal peut se dériver en le mot vide, alors l’ensemble
Premier de chaque partie droite est disjoint de l’ensemble Suivant. On saura
ainsi quelle règle choisir même si le non-terminal se dérive en ε.
© Le principe de l’algorithme d’analyse syntaxique LL(1) sera de lire successive-
ment les lettres du mot (dont on cherche à savoir s’il est engendré par la gram-
maire ou non), de trouver grâce au caractère disjoint des ensembles Premier(~ α1 ),
. . . , Premier(~
αn ) quelle règle il faut utiliser, de continuer sur toutes les lettres du
mot afin de trouver l’arbre syntaxique (si le mot est engendré par la grammaire)
ou une erreur (si ce n’est pas le cas).
© Pour faciliter l’analyse LL(1), on construit un tableau, appelé table d’analyse,
qui possède en colonne les non-terminaux et en ligne les terminaux. Le tableau
contient, en case (a, A), la règle qui a permis de dériver un mot commençant par a
à partir du non-terminal A. Le caractère LL(1) assure que chaque case du tableau
contient au plus une règle.
© Il existe d’autres types d’analyse syntaxique comme l’analyse LL(n) ou LR(k).
L’analyse LL(n) est une analyse syntaxique descendante : à partir d’un mot donné,
on cherche à reconstruire un arbre de dérivation en partant de l’axiome à la racine
et en lisant à chaque étape les n premières lettres du mot qui n’ont pas été dérivées.
L’analyse LR(k), quant à elle, est une analyse syntaxique ascendante, c’est-à-dire
qu’on construit l’arbre syntaxique à partir de ses feuilles, i.e. des lettres du mot
analysé.

787
123. Caractérisation de Premier en analyse LL(1)

Questions.
1. Calculer la fonction Premier pour la grammaire suivante G = (Σ, N , T , S, R)
où Σ = {a, b, c, d}, N = {S, A, B, C}, T = Σ et R est décrit par

S → AB | Ca
A → aAb | ε
B → bB | b
C → cC | d.

2. Donner la table d’analyse syntaxique de la grammaire précédente.


3. Donner une grammaire qui n’est pas LL(1).
4. Calculer la fonction Suivant pour la grammaire suivante G = (Σ, N , T , S, R)
où Σ = {a, b}, N = {S}, T = Σ et R est décrit par

S → ε | aSb.

788
Logique et preuves

Formaliser la notion de raisonnement est une problématique déjà présente dès


l’antiquité, par exemple dans les écrits d’Aristote. La formalisation mathématique
du raisonnement, et plus particulièrement l’étude des raisonnements en tant
qu’objets mathématiques est une approche nettement plus récente, à la base d’une
discipline entière appelée logique mathématique. Son origine remonte aux travaux
de Boole et De Morgan du milieu du XIXe siècle. Elle prend effectivement son
essor au début du XXe, sous l’impulsion de Hilbert, Russell et Gödel (pour ne
citer qu’eux) qui cherchaient à donner une base solide aux mathématiques, alors
mises à mal par de nombreux paradoxes dus par exemple à Cantor et Russell 44 .
La logique vise à étudier les raisonnements mathématiques. Ainsi, les objets de
base représentent les énoncés mathématiques : il s’agit de formules (proposition-
nelles, du premier ordre, etc.) c’est-à-dire des objets syntaxiques, auxquels on
adjoint une notion sémantique de valeur de vérité (à l’aide de valuations ou de
modèles) permettant de déterminer si une formule est vraie ou fausse dans un
certain contexte. Ces notions donnent déjà lieu à de nombreux résultats comme
les théorèmes de compacité (voir Développement 127), et à des questions de
décidabilité et de complexité pour les problèmes consistant à déterminer si une
formule est vraie dans un modèle donné, dans au moins un modèle ou dans tout
modèle (voir Développements 124, 125, 126, 128).
Les raisonnements mathématiques, quant à eux, sont représentés par des preuves,
c’est-à-dire des éléments d’un système de déduction (calcul des séquents, déduction
naturelle, logique minimale, intuitionniste, classique, etc.). À chaque système cor-
respond l’ensemble des formules qui y sont démontrables. Une des préoccupations
majeures en logique concerne la complétude de ces systèmes, il s’agit de répondre
à la question : est-ce que toute formule vraie est démontrable ? Cette question est
à la base des travaux de Gödel et de ses célèbres théorèmes d’(in)complétude.
Avec l’avènement des ordinateurs, de nouvelles applications de la logique sont
apparues, notamment dans le cadre du model checking ou de la vérification
de programmes. De nouveaux formalismes ont alors été développés, comme la
logique de Hoare et les sémantiques opérationnelles et dénotationnelles (voir
Développements 131, 130 et page 847). On peut aussi citer l’apparition d’assistants
de preuves comme Coq, permettant d’utiliser la puissance des ordinateurs pour
générer et/ou vérifier la preuve de théorèmes. C’est le cas par exemple des
théorèmes des quatre couleurs ou de Feit-Thompson, dont les preuves sont très
longues, et qui ont pu être vérifiées par ordinateur.

44. Est-ce que l’ensemble des ensembles ne se contenant pas eux-mêmes se contient lui-même ?
Ou moins formellement : si un barbier rase tous les hommes qui ne se rasent pas eux-mêmes,
doit-il se raser ?
Logique et preuves

Développement 124 (Théorème de Cook-Levin F)

On veut montrer que le problème suivant est NP-complet.


(
entrée : une formule ϕ en logique propositionnelle ;
Sat
sortie : oui si ϕ est satisfiable, non sinon.

a) Montrer que Sat est dans NP.


b) Soit L un problème dans NP, on veut réduire L à Sat.

w ϕw oui
traduction Sat non

Soit M = (Q, Γ, q0 , qf , δ) une machine de Turing non déterministe qui décide L


en temps polynomial. On suppose qu’elle a un unique état final qf et qu’elle
boucle sur cet état final. De plus, M s’arrête en temps polynomial donc il
existe P ∈ R[X] tel que, pour tout w ∈ L de taille n ∈ N, le temps d’exécution
de M sur w est inférieur à P (n).
Pour tout w = w1 w2 · · · wn ∈ Σ∗ , on a

w ∈ L ⇐⇒ M s’arrête sur w ⇐⇒ M est dans l’état qf à l’étape P (n) + 1.

On représente l’exécution de la machine M sur w par un tableau des confi-


gurations. Chaque configuration est représentée sous la forme gqd où q ∈ Q,
g, d ∈ Γ∗ et la tête de lecture de M se trouve sur le premier caractère de d.
(i) Représenter le tableau pour une exécution de M et donner une borne
sur sa taille.
On cherche une formule propositionnelle ϕw de taille polynomiale telle que

ϕw satisfiable ⇐⇒ w ∈ L ⇐⇒ M est dans l’état qf à l’étape P (n) + 1.

On note A = Γ ∪ Q l’ensemble des caractères pouvant être contenus dans une


case du tableau. On introduit les variables propositionnelles xi,j,a pour des
indices i, j ∈ J0, P (n)K et a ∈ A.
On définit la taille d’une formule ϕ comme la somme du nombre d’occur-
rences des différentes variables de ϕ, i.e. le nombre de feuilles dans un arbre
représentant ϕ.

791
124. Théorème de Cook-Levin

(ii) Écrire une formule E ∧ U qui est vraie si et seulement si pour tout
(i, j) ∈ J0, P (n)K2 , il existe un unique a ∈ A tel que xi,j,a est vraie.
Lorsque les formules E et U sont vraies, on dit que xi,j,a encode la proposition
« la case (i, j) contient a ».
(iii) Écrire une formule I qui est vraie si et seulement si la première ligne du
tableau correspond à la configuration initiale de M .
(iv) Écrire une formule F qui est vraie si et seulement si la dernière ligne du
tableau contient l’état final de M .
(v) Écrire une formule T qui encode les transitions de la machine M .
On pose la formule

E ∧ |{z}
ϕw = |{z} U ∧ I
|{z} ∧ |{z}
F ∧ |{z}
T .
existence unicité initialisation état final transition

(vi) Conclure en calculant la taille de la formule ϕw .

Leçons concernées : 913, 915, 916, 928

Le théorème de Cook-Levin est un résultat fondamental en théorie de la complexité


car il montre la NP-complétude du problème de satisfiabilité en logique proposition-
nelle. On effectue une réduction en encodant l’exécution d’une machine de Turing
par une formule propositionnelle, ce qui justifie le placement de ce développement
dans la leçon 913. Le résultat en lui-même est un pilier de la classe NP, ce qui
en fait une bonne illustration des leçons 915 et 928. De plus, le problème de
satisfiabilité d’une formule propositionnelle est une question récurrente ; le fait de
savoir qu’il s’agit d’un problème NP-complet permet de comprendre sa difficulté,
ce qui justifie son placement dans la leçon 916.

Correction.
a) On peut vérifier en temps polynomial qu’une valuation satisfait ou non une
formule ϕ, par exemple par induction sur l’arbre représentant la formule. Donc
une valuation est un certificat polynomial, ce qui prouve que Sat est dans NP.
b) (i) Comme on représente les configurations sous la forme gqd où q ∈ Q et
g, d ∈ Γ∗ , on va avoir un tableau de la forme

q0 w1 w2 · · · wn # · · · #
γ1 q1 w2 · · · wn # · · · #
.. .. .. .. .. .. . . ..
. . . . . . . .
γ10 · · · γ`0 qf γ`+1
0 · · · · · · γP0 (n)+1

Figure 3.29 – Tableau représentant une suite de configurations de la machine M .

792
Logique et preuves

Par définition du polynôme P , on sait que le nombre de lignes du tableau est


majoré par P (n) + 1. Pour majorer le nombre de colonnes, il suffit de remarquer
que la complexité spatiale d’une machine de Turing, i.e. le nombre de cases sur le
ruban de M nécessaires à son exécution, est bornée par la complexité temporelle.
En effet, on ne peut pas atteindre la case P (n) + 2 en P (n) pas de calcul vu que
la tête de lecture se déplace d’au plus une case du ruban à chaque pas.
Ainsi, on peut borner la taille du tableau par (P (n) + 1) × (P (n) + 1).
(ii) Pour encoder l’existence des symboles dans toutes les cases du tableau, on
pose !
^ _
E := xi,j,a
i,j a∈A

qui est de taille O(P (n)2 |A|). En effet, la conjonction permet de représenter un
quantificateur universel pour traiter toutes les cases (i, j) et la disjonction sur A
permet de donner l’existence d’un symbole a dans la case (i, j). Donc cette formule
encode que pour tout i, j ∈ J0, P (n)K2 , il existe a ∈ A tel que xi,j,a est vraie.
Pour encoder l’unicité des symboles dans toutes les cases du tableau, on pose
 
^
 ^

U := ¬(xi,j,a ∧ xi,j,a0 )


 0 
i,j a,a ∈A
a6=a0

qui est de taille O(P (n)2 |A|2 ). En effet, pour tout i, j ∈ J0, P (n)K2 , pour toute
paire (a, a0 ) d’éléments distincts de A, on ne peut pas avoir xi,j,a et xi,j,a0 vraies.
(iii) Pour encoder l’initialisation de la machine de Turing M , on pose
n P (n)
^ ^
I := x0,0,q0 ∧ x0,j,wj ∧ x0,j,# ,
j=1 j=n+1

qui est de taille O(P (n)). En effet, la configuration initiale de la machine de Turing
est q0 w puisque la tête de lecture est sur la première case du ruban et que le mot
est écrit sur le ruban. Ainsi, la première case doit contenir q0 , les n suivantes
contiennent le mot w et on finit en remplissant avec des symboles blancs #.
(iv) Pour encoder le fait d’être dans un état final à la fin de l’exécution, on pose
P (n)
_
F := xP (n),j,qf ,
j=0

qui est de taille O(P (n)). En effet, comme M boucle sur son état final, il suffit de
regarder si l’état qui est sur la dernière ligne est bien final. Il suffit donc de faire
une disjonction sur les variables propositionnelles de la dernière ligne du tableau.
(v) Pour encoder les transitions, il va falloir vérifier que deux lignes successives
représentent deux configurations successives dans l’exécution de la machine M .
On considère les deux cas suivants au niveau des lignes i et i + 1 et des colonnes
d’indices j − 1, j et j + 1 :

793
124. Théorème de Cook-Levin

• Soit il n’y a aucun état ni en (i, j − 1), ni en (i, j), ni en (i, j + 1) et dans ce
cas le contenu de la case (i, j) est égal au contenu de la case (i + 1, j).

j−1 j j+1
i γ1 γ2 γ3
i+1 γ10 γ2 γ30
où γ1 , γ2 , γ3 ∈ Γ et γ1 , γ30 ∈ A.
• Soit il y en a un état en case (i, j) et dans ce cas on a respecté une règle de
transition :

j−1 j j+1 j−1 j j+1


i γ1 q γ2 i γ1 q γ2
i+1 q0 γ1 γ3 i+1 γ1 γ3 q0
si (q 0 , γ3 , ←) ∈ δ(q, γ2 ) si (q 0 , γ3 , →) ∈ δ(q, γ2 )
où γ1 , γ2 , γ3 ∈ Γ et q, q 0 ∈ Q.
Il n’est pas utile de traiter le cas où un état est présent en position (i, j ± 1). En
effet, le contenu de la case (i + 1, j ± 1) dans ce cas sera déjà déterminé par une
des deux règles précédentes.
Afin de représenter par des formules logiques ces deux cas de figure, nous allons
utiliser les notations suivantes :
_
• xi,j,∈Q := xi,j,q qui est de taille O(|Q|) et qui est vraie si la case (i, j)
q∈Q
contient un état ;
_
• [xi,j = xk,` ] := (xi,j,a ∧ xk,`,a ) qui est de taille O(|A|) et qui est vraie si les
a∈A
cases (i, j) et (k, `) contiennent le même caractère ;
• δ ← (i, j) :=
_  
xi,j−1,γ1 ∧ xi,j,q ∧ xi,j+1,γ2 ∧ xi+1,j−1,q0 ∧ xi+1,j,γ1 ∧ xi+1,j+1,γ3
γ1 ,γ2 ∈Γ
q∈Q
δ(q,γ2 )=(q 0 ,γ3 ,←)

qui est de taille O(|Γ|2 |Q||δ|) et qui est vraie si les six cases (i, j − 1), (i, j),
(i, j + 1), (i + 1, j − 1), (i + 1, j) et (i + 1, j + 1) respectent une transition où
la tête de lecture se déplace vers la gauche ;
• δ → (i, j) :=
_  
xi,j−1,γ1 ∧ xi,j,q ∧ xi,j+1,γ2 ∧ xi+1,j−1,γ1 ∧ xi+1,j,γ3 ∧ xi+1,j+1,q0
γ1 ,γ2 ∈Γ
q∈Q
δ(q,γ2 )=(q 0 ,γ3 ,→)

qui est aussi de taille O(|Γ|2 |Q||δ|) et qui est vraie si les six cases (i, j − 1),
(i, j), (i, j + 1), (i + 1, j − 1), (i + 1, j) et (i + 1, j + 1) respectent une transition
où la tête de lecture se déplace vers la droite.

794
Logique et preuves

Une fois tout cela établi, nous pouvons écrire la formule T :

P (n)−1 P (n)
^ ^ 
T := (¬xi,j−1,∈Q ∧ ¬xi,j,∈Q ∧ ¬xi,j+1,∈Q ) → [xi,j = xi+1,j ]
i=0 j=0

∧ xi,j,∈Q → [δ → (i, j) ∨ δ ← (i, j)] .

où on a pris la convention xi,j,a = > si a = # et ⊥ sinon, dès que i ou j vaut −1


ou P (n) + 1.
La formule T est de taille O(P (n)2 (|Q| + |A| + |Q||Γ|2 |δ|))).

(vi) En sommant la taille des cinq formules E, U , I, F et T , on trouve que la


formule ϕw est de taille

O(P (n)2 (|Q| + |A|2 + |Q||Γ|2 |δ|)).

Sa taille est donc polynomiale par rapport à n donc la réduction est de taille
polynomiale.
Vérifions que ϕw est satisfiable si et seulement si w ∈ L.
Dans le sens direct, supposons que ϕw est satisfaite par une valuation ν. D’après E
et U , pour tout i, j ∈ J0, P (n)K, il existe un unique a ∈ A tel que ν(xi,j,a ) = >.
En remplissant chaque case (i, j) du tableau avec ce caractère a, les formules I, F
et T montrent que le tableau représente bien un calcul acceptant de M sur w,
donc w ∈ L.
Réciproquement, si w ∈ L, il existe un calcul acceptant de taille au plus P (n) + 1.
On définit alors ν(xi,ja ) = > si et seulement si la case (i, j) du tableau associé à
ce calcul contient la lettre a. Par construction, cette valuation satisfait ϕw .
Ainsi, on a obtenu une réduction polynomiale du problème L au problème Sat,
donc Sat est bien NP-dur.

Commentaires.
© Pour être à l’aise sur ce développement, il faut être sûr de bien avoir compris
les formules et leur sens, ainsi il sera plus facile de les retrouver pendant les 15
minutes devant le jury. Mais il faut faire attention au temps que l’on a pour bien
mettre en avant la structure du développement (NP puis NP-dur) tout en veillant
à conserver du temps pour écrire les formules de ϕw et de souligner leur sens
devant le jury, en particulier en ne s’attardant pas sur le début (question a)) du
développement. Il peut être envisageable de ne pas dessiner le tableau lors de la
présentation, l’explication avec des phrases pouvant suffire.
© Le théorème de Cook-Levin a été démontré par Stephen Cook et par Leonid
Levin au début des années 1970. Cependant, la guerre froide n’aidant pas à la
communication, les deux chercheurs (le premier américain, le second russe) ont
démontré le résultat indépendamment.
© À partir de ce problème, on peut prouver que CnfSat et 3Sat sont NP-complets,
voir Développement 125.

795
124. Théorème de Cook-Levin

© Le problème 3Sat est important car c’est généralement à partir de lui que
l’on prouve la NP-complétude d’autres problèmes comme des problèmes sur les
graphes, des problèmes de paquets, etc. Voir [GJ79] et page 863.

entrée :

 une formule ϕ en logique propositionnelle sous forme
CnfSat normale conjonctive ;


sortie : oui si ϕ est satisfiable, non sinon.

entrée :

 une formule ϕ en logique propositionnelle sous forme
3Sat normale conjonctive avec 3 littéraux par clause ;


sortie : oui si ϕ est satisfiable, non sinon.

© Le problème 2Sat est NL-complet, voir Développement 126.



entrée :

 une formule ϕ en logique propositionnelle sous forme
2Sat normale conjonctive avec 2 littéraux par clause ;


sortie : oui si ϕ est satisfiable, non sinon.

© Le problème Sat est fondamental puisque de nombreux problèmes s’y réduisent.


Des efforts importants ont alors été mis en place pour résoudre en pratique le
problème Sat avec des algorithmes nécessairement exponentiels, mais efficaces.
Ces algorithmes sont appelés « Sat-solvers ». On peut citer différents Sat-solvers,
comme l’algorithme DPLL (Davis–Putnam–Logemann–Loveland) qui utilise des
techniques de backtracking, l’algorithme MiniSat qui utilise des techniques
d’apprentissage de clauses.
© Il faut faire attention quand on dit qu’un problème est NP-complet, cela ne
veut pas dire qu’il est impossible à résoudre dans la pratique, d’ailleurs on vient
de donner des algorithmes qui y parviennent dans le cas de Sat. De plus, un
problème qui est dans P n’est pas forcément facile à résoudre car le degré du
polynôme dans la complexité temporelle peut être gigantesque.

Questions.
1. Le problème Sat est-il décidable ?
2. Une machine de Turing non déterministe qui décide un problème s’arrête-t-elle
sur toutes ses entrées ?
3. Montrer que l’on peut faire les hypothèses imposées sur la machine M .
4. Montrer que le problème CnfSat est NP-complet.
5. Montrer que le problème 3Sat est NP-complet.

796
Logique et preuves

Développement 125 (Transformation de Tseitin F)

On cherche à montrer que, pour tout formule ϕ du calcul propositionnel,


il existe une formule T (ϕ) sous forme normale conjonctive (CNF) de taille
linéaire en celle de ϕ et telle que ϕ et T (ϕ) sont équisatisfiables, i.e. ϕ est
satifiable si et seulement si T (ϕ) est satisfiable.
On appelle taille d’une formule ϕ, notée #ϕ, le nombre de connecteurs logiques
de la formule ϕ. Par exemple, la formule (x ∧ ¬y) ∨ z est de taille 3.
a) Soit ϕ une formule propositionnelle. Montrer qu’on peut trouver une
formule ϕb ne contenant que des ¬ et des ∧ telle que ϕ et ϕb sont équivalentes
et telle que la taille de ϕb est linéaire en la taille de ϕ.
On peut donc supposer que la formule ϕ ne contient que des ¬ et des ∧.
b) On note Fϕ l’ensemble des sous-formules de ϕ (y compris ϕ) et Vϕ l’en-
semble des variables de ϕ.
Pour toute sous-formule ψ ∈ Fϕ , on introduit une nouvelle variable aψ .
(i) Trouver une formule équivalente à (aψ1 ∧ψ2 ↔ aψ1 ∧ aψ2 ) sous CNF et une
formule équivalente à (a¬ψ ↔ ¬aψ ) sous CNF. On appelle respectivement
ces formules t(ψ1 ∧ ψ2 ) et t(¬ψ).
On pose ^
T (ϕ) = aϕ ∧ t(ψ).
ψ∈Fϕ \Vϕ

(ii) Montrer que T (ϕ) est de taille linéaire en la taille de ϕ.


(iii) Montrer que si ϕ est satisfiable, alors T (ϕ) est satisfiable.
(iv) Montrer que si T (ϕ) est satisfiable, alors ϕ est satisfiable.
Ainsi on a trouvé une formule T (ϕ) sous CNF équisatisfiable à ϕ et qui est
de taille linéaire en la taille de ϕ.

Leçons concernées : 915, 916, 928

La transformation de Tseitin d’une formule propositionnelle ϕ permet de trouver


une formule sous CNF équisatisfiable à ϕ à l’aide de manipulations syntaxiques,
ce qui justifie le placement de ce développement dans la leçon 916. Cette trans-
formation est une réduction de Sat à CnfSat, cela permet de montrer que ce
problème est NP-dur. Ainsi ce développement est une bonne illustration des leçons
915 et 928.

Correction.
a) Soit une formule propositionnelle ϕ. On va construire la formule ϕb par induction
sur la structure de ϕ. Si ϕ est de la forme :
• x une variable, alors on pose ϕb := x ;
• ¬φ, alors on pose ϕb := ¬φb ;

797
125. Transformation de Tseitin

• φ ∧ ψ, alors on pose ϕb := φb ∧ ψb ;
• φ ∨ ψ, alors on pose ϕb := ¬(¬φb ∧ ¬ψ)
b ;

• φ → ψ, alors on pose ϕb := ¬(φb ∧ ¬ψ)


b ;

• φ ↔ ψ, alors on pose ϕb := ¬(φb ∧ ¬ψ)


b ∧ ¬(¬φ
b ∧ ψ).
b

Par construction ϕb ne contient bien que des connecteurs ∧ et ¬.


De plus, on montre facilement par induction à l’aide des lois de De Morgan que ϕ
et ϕb sont équivalentes.
Les transformations que l’on a appliquées remplacent un connecteur logique par
au plus sept connecteurs, ainsi #ϕb 6 7#ϕ.

b) (i) On commence par donner la formule sous CNF de t(¬ψ).

a¬ψ ↔ ¬aψ
≡ (a¬ψ → ¬aψ ) ∧ (¬aψ → a¬ψ )
≡ (¬a¬ψ ∨ ¬aψ ) ∧ (aψ ∨ a¬ψ ).

On pose donc t(¬ψ) = (¬a¬ψ ∨ ¬aψ ) ∧ (aψ ∨ a¬ψ ) qui est sous CNF et de taille 5.
Maintenant, on donne la formule sous CNF de t(ψ1 ∧ ψ2 ).

aψ1 ∧ψ2 ↔ aψ1 ∧ aψ2


≡ (aψ1 ∧ψ2 → aψ1 ∧ aψ2 ) ∧ (aψ1 ∧ aψ2 → aψ1 ∧ψ2 )
≡ (¬aψ1 ∧ψ2 ∨ aψ1 ) ∧ (¬aψ1 ∧ψ2 ∨ aψ2 ) ∧ (¬aψ1 ∨ ¬aψ2 ∨ aψ1 ∧ψ2 ).

On pose donc t(ψ1 ∧ψ2 ) = (¬aψ1 ∧ψ2 ∨aψ1 )∧(¬aψ1 ∧ψ2 ∨aψ2 )∧(¬aψ1 ∨¬aψ2 ∨aψ1 ∧ψ2 )
qui est sous CNF et de taille 10.

(ii) Remarquons que


|Fϕ | 6 2#ϕ

car chaque connecteur donne naissance à au plus 2 sous-formules de ϕ. En effet, si


on considère une représentation de ϕ comme un arbre dont les nœuds internes sont
les connecteurs logiques de ϕ et les feuilles ses variables, alors les sous-formules
de ϕ correspondent aux sous-arbres de cet arbre, qui sont en bijection avec ses
nœuds (par l’application qui à un sous-arbre associe sa racine). De plus, chaque
nœud interne a au plus deux fils (car les connecteurs sont unaires ou binaires). Il
y a donc au plus deux fois plus de nœuds que de nœuds internes.
De plus, pour tout ψ ∈ Fϕ , on a

#t(ψ) 6 10

par la question précédente.

798
Logique et preuves

En conclusion, on a
 
^
#T (ϕ) 6 # aϕ ∧ t(ψ)
ψ∈Fϕ \Vϕ
^
61+# t(ψ)
ψ∈Fϕ \Vϕ
X
6 1 + |Fϕ \Vϕ | + #t(ψ)
ψ∈Fϕ \Vϕ

6 1 + 11|Fϕ |
6 1 + 22#ϕ

Donc #T (ϕ) est linéaire en taille de ϕ.


(iii) Supposons que ϕ est satisfiable, il existe donc une valuation ν telle que
ν(ϕ) = >. On définit la valuation ν̃ en posant pour tout ψ ∈ Fϕ , ν̃(aψ ) = ν(ψ).
On veut montrer que ν̃(T (ϕ)) = >.
^ ^
T (ϕ) = aϕ ∧ t(ψ1 ∧ ψ2 ) ∧ t(¬ψ).
ψ1 ∧ψ2 ∈Fϕ ¬ψ∈Fϕ
|{z}
ν̃(aϕ )=>

Considérons le cas ψ1 ∧ ψ2 ∈ Fϕ .

ν̃(t(ψ1 ∧ ψ2 )) = ν̃(aψ1 ∧ψ2 ↔ aψ1 ∧ aψ2 )


= 1ν̃(aψ1 ∧ψ2 )=ν̃(aψ1 ∧aψ2 )
= 1ν̃(aψ1 ∧ψ2 )=ν̃(aψ1 )ν̃(aψ2 )
= 1ν(ψ1 ∧ψ2 )=ν(ψ1 )ν(ψ2 )
= >.

La preuve pour le cas ¬ψ ∈ Fϕ est similaire.


Ainsi la valuation ν̃ rend vrai chaque terme des conjonctions. De plus

ν̃(aϕ ) = ν(ϕ) = >.

Ainsi, ν̃ satisfait T (ϕ).

(iv) Supposons que T (ϕ) est satisfiable, il existe donc une valuation ν̃ telle que
ν̃(T (ϕ)) = >.
On définit la valuation ν en posant pour tout p ∈ Vϕ , ν(p) = ν̃(ap ). Montrons par
induction que pour tout ψ ∈ Fϕ , ν(ψ) = ν̃(aψ ).
• Le cas de base est donné par la définition de la valuation ν.
• Soit ψ ∈ Fϕ s’écrivant ψ1 ∧ ψ2 . Comme ν̃(T (ϕ)) = >, on a ν̃(t(ψ1 ∧ ψ2 )) = >.
Par définition de t(ψ1 ∧ ψ2 ), on a donc ν̃(aψ1 ∧ψ2 ↔ aψ1 ∧ aψ2 ) = >. Cela se
traduit par ν̃(aψ1 ∧ψ2 ) = ν̃(aψ1 ∧ aψ2 ). On a alors

ν̃(aψ1 ∧ψ2 ) = ν̃(aψ1 ∧ aψ2 ) = ν̃(aψ1 )ν̃(aψ2 ) = ν(ψ1 )ν(ψ2 ) = ν(ψ1 ∧ ψ2 ).

799
125. Transformation de Tseitin

Soit ψ ∈ Fϕ s’écrivant ¬φ. On sait que ν̃(T (ϕ)) = >, ainsi ν̃(t(¬φ)) = >.
Par définition de t(¬φ), on a donc ν̃(a¬φ ↔ ¬aφ ) = >. Cela se traduit par
ν̃(a¬φ ) = ν̃(¬aφ ). On a alors

ν̃(a¬φ ) = ν̃(¬aφ ) = ¬ν̃(aφ ) = ¬ν(φ) = ν(¬φ).

Cela montre que pour tout ψ ∈ Fϕ , on a ν(ψ) = ν̃(aψ ).


On a donc ν(ϕ) = ν̃(aϕ ) = > puisque ν̃(T (ϕ)) = >. Donc ϕ est satisfiable.

Commentaires.
© Pour mieux comprendre, on peut interpréter les variables propositionnelles aψ
comme étant « ψ est vraie ».
© Il faut faire attention au fait que les deux formules ϕ et T (ϕ) sont équisatisfiables
et non équivalentes. En effet, comme elles ne sont pas définies sur le même ensemble
de variables, on ne peut pas parler d’équivalence.
© On peut aussi voir cette transformation comme une réduction du problème Sat
au problème CnfSat afin de prouver que CnfSat est NP-complet.
(
entrée : une formule ϕ en logique propositionnelle ;
Sat
sortie : oui si ϕ est satisfiable, non sinon.
(
entrée : une formule ϕ en logique propositionnelle sous CNF ;
CnfSat
sortie : oui si ϕ est satisfiable, non sinon.

Sat

ϕ T (ϕ) oui
traduction CnfSat non

La transformation de Tseitin est donc la traduction de ϕ en T (ϕ) qui est bien


polynomiale et même linéaire. Par le théorème de Cook-Levin (voir Développe-
ment 124), le problème Sat est NP-complet, ainsi CnfSat est NP-dur. De plus
comme CnfSat est dans NP pour les mêmes raisons que Sat, on a alors que
CnfSat est NP-complet.
© On peut réduire le problème CnfSat au problème 3Sat, il suffit de trouver
des conjonctions de clauses à 3 littéraux qui sont équivalentes aux clauses initiales.
En voici un exemple :

x ≡ (x ∨ y ∨ z) ∧ (x ∨ ¬y ∨ z) ∧ (x ∨ y ∨ ¬z) ∧ (x ∨ ¬y ∨ ¬z),

x ∨ y ≡ (x ∨ y ∨ z) ∧ (x ∨ y ∨ ¬z),

800
Logique et preuves

x1 ∨· · ·∨xn ≡ (x1 ∨x2 ∨y2 )∧(¬y2 ∨x3 ∨y3 )∧(¬y3 ∨x4 ∨y4 )∧· · ·∧(¬xn−2 ∨xn−1 ∨xn ),
où toutes les nouvelles variables que l’on utilise sont des variables fraîches, i.e.
qui n’apparaissent pas dans la formule initiale.
© Le problème 3Sat est fondamental dans les réductions classiques pour montrer
que certains problèmes sont NP-durs. Voir page 863.
© Pour plus d’exemples de restrictions de Sat et leur complexité, on pourra se
référer au Développement 126.
© Pour toute formule ϕ, on peut trouver une formule équivalente sous CNF en
utilisant les lois de De Morgan pour faire sortir les ∧ et rentrer les ∨, cependant
cette construction peut donner une taille exponentielle en la taille de ϕ. Donc cela
ne pourrait pas amener à une réduction de Sat à CnfSat, puisque la traduction
ne serait pas polynomiale.
© On a pu se ramener à des formules contenant que des ∧ et des ¬ car le système
{∧, ¬} est complet. Il existe d’autres systèmes complets, par exemple {→, ⊥}.

Questions.
1. Montrer l’équivalence des formules ϕ et ϕb de la question a).
2. Que se passe-t-il si ϕ est juste une variable propositionnelle ?
3. Montrer que l’on a en fait la majoration plus fine

|Fϕ | 6 |ϕ| + |Vϕ |.

4. Montrer rigoureusement la réduction de CnfSat à 3Sat.


5. Pourrait-on trouver une transformation similaire pour les formules sous forme
normale disjonctive ? Quelles en seraient les conséquences ?
6. Montrer qu’une formule sous CNF équivalente à

(x1 ∧ y1 ) ∨ (x2 ∧ y2 ) ∨ · · · ∨ (xn ∧ yn )

est de taille exponentielle en la taille de la formule de départ.


7. Montrer que le système {↔, ¬} n’est pas complet.
8. Donner un système complet de connecteurs logiques qui ne contient qu’un seul
connecteur logique.

801
126. 2Sat est NL-dur

Développement 126 (2SAT est NL-dur FF)

Soit ϕ une formule du calcul propositionnel. On dit que ϕ est une formule
2Cnf si elle est sous forme normale conjonctive, et que chaque clause est la
disjonction de deux littéraux. Autrement dit,
p
^
ϕ= (`i,1 ∨ `i,2 )
i=1

où chaque `i,j est une variable ou sa négation. On note Vϕ l’ensemble des


variables de ϕ. On s’intéresse à la complexité du problème suivant :

entrée :

 une formule 2Cnf ϕ ;
2Sat sortie : oui s’il existe une valuation v : Vϕ → {>, ⊥}


 satisfaisant ϕ, non sinon.
a) Soit ϕ une formule 2Cnf. On définit un graphe orienté Gϕ dont les sommets
sont les littéraux de {x, x̄ : x ∈ Vϕ }, et dont les arcs sont les ``0 et `0 ` pour
chaque clause ` ∨ `0 de ϕ.
(i) Soit v une valuation propositionnelle définie sur les variables de ϕ. Mon-
trer que v ne satisfait pas ϕ si et seulement s’il existe un chemin `1 , . . . , `n
dans Gϕ avec v(`1 ) = > et v(`n ) = ⊥.
(ii) Montrer que si ϕ est satisfiable, alors pour toute variable x, les sommets x
et x de Gϕ ne sont pas dans la même composante fortement connexe.
(iii) Montrer que si C est une composante fortement connexe de Gϕ , il existe
une composante fortement connexe C de Gϕ dont les sommets sont
exactement les négations des littéraux de C.
(iv) Lorsqu’aucune paire de littéraux x et x̄ ne sont contenus dans une
même composante fortement connexe de Gϕ , construire une valuation
satisfaisant la formule ϕ.
(v) En déduire un algorithme en temps linéaire pour résoudre 2Sat.
b) Soit G = (S, A) un graphe orienté. On définit une formule 2Cnf dont les
variables sont les sommets de G et qui est définie par :
^
ϕG = (u ∨ v).
uv∈A

(i) Soient s, t deux sommets de G. Montrer qu’il existe un chemin de s à t


dans G si et seulement si ϕG ∧ s ∧ t n’est pas satisfiable.
(ii) En déduire que 2Sat est NL-dur.

Leçons concernées : 915, 916, 925, 928

802
Logique et preuves

Ce développement présente différents résultats de complexité concernant le problème


de satisfiabilité d’un fragment du calcul propositionnel, ce qui s’inscrit dans le
cadre des leçons 915 et 916. Les algorithmes présentés ici utilisent des procédures
classiques sur les graphes orientés (calcul de composantes fortement connexes et tri
topologique), ce qui le rend utilisable en leçon 925. Enfin, ce développement illustre
comment le problème NP-complet Sat devient polynomial lorsqu’on restreint la
forme de ses instances, ce qui permet d’illustrer la leçon 928. D’autres exemples à
la frontière entre P et NP sont fournis dans les questions.

Correction.
a) (i) Montrons les deux directions de l’équivalence.
• Soit v une valuation qui ne satisfait pas ϕ. Il existe donc une clause ` ∨ `0 non
satisfaite par v, c’est-à-dire v(`) = v(`0 ) = ⊥. Par définition, il y a un arc ``0
dans Gϕ . Cet arc est en particulier un chemin de longueur 1 entre ` et `0 , et
on a v(`) = > et v(`0 ) = ⊥.
• Réciproquement, raisonnons par contraposée et supposons que v soit une
valuation satisfaisant ϕ. Soit ``0 un arc de Gϕ tel que v(`) = >.
Par définition, la clause ` ∨ `0 apparaît dans ϕ, elle est donc satisfaite par v.
Comme v(`) = >, on a v(`0 ) = >. Ainsi, par une récurrence immédiate, pour
tout chemin `1 , . . . , `n de Gϕ avec v(`1 ) = >, on a v(`n ) = >. En particulier,
il n’existe aucun chemin partant d’un littéral évalué à > par v et arrivant en
un littéral évalué à ⊥ par v.
Ainsi, ϕ est satisfaite par v si et seulement s’il n’existe pas de chemin d’un
littéral `1 vers un littéral `n avec v(`1 ) = > et v(`n ) = ⊥.
(ii) Soient v une valuation satisfaisant ϕ, et x une variable de ϕ. Quitte à
échanger les littéraux x et x, on peut supposer que v(x) = >.
Si x et x sont dans une même composante fortement connexe de Gϕ . Alors il existe
un chemin de x à x dans Gϕ . D’après la question précédente, comme v(x) = >,
on a aussi v(x) = >, ce qui est impossible. Ainsi, si ϕ est satisfiable, alors pour
toute variable x, les littéraux x et x ne sont pas dans les mêmes composantes
fortement connexes de Gϕ .
(iii) Par construction de Gϕ , pour tout arc ``0 dans Gϕ , l’arc `0 ` est aussi
un arc de Gϕ . A fortiori, pour tout chemin `1 , . . . , `n dans Gϕ , il y a aussi un
chemin `n , . . . , `1 dans Gϕ .
Soit C une composante fortement connexe de Gϕ et ` un sommet de C. On définit
C comme la composante fortement connexe de Gϕ contenant ` (on peut avoir
C = C).
Si `0 est un autre sommet de C, il existe un chemin de ` à `0 et de `0 à ` dans Gϕ
par forte connexité de C. Le graphe Gϕ contient donc aussi un chemin de `0 à `
et de ` à `0 , ce qui assure que C contient `0 . On obtient donc que C 0 contient tous
les sommets `0 où `0 ∈ C. De manière similaire, on peut montrer que C contient
tous les sommets `0 où `0 ∈ C.
Ainsi, C est une composante fortement connexe dont les sommets sont exactement
les négations des littéraux de C.

803
126. 2Sat est NL-dur

(iv) Supposons que pour toute variable x, les littéraux x et x ne sont pas dans
la même composante fortement connexe de Gϕ .
D’après la question a)(i), toute valuation satisfaisant ϕ est constante sur les
composantes fortement connexes de Gϕ . Il suffit donc de définir la valuation
recherchée sur chacune de ces composantes. Soit Hϕ le graphe quotient de Gϕ ,
c’est-à-dire le graphe dont les sommets sont les composantes fortement connexes
de Gϕ , et tel qu’il y a un arc entre deux composantes C et C 0 s’il existe un arc xy
dans Gϕ avec x ∈ C et y ∈ C 0 .
Par définition des composantes fortement connexes, le graphe Hϕ est acyclique.
On peut donc lui appliquer un tri topologique (voir Développement 117). On
définit alors une valuation v en considérant les composantes connexes dans l’ordre
inverse d’un tri topologique de Hϕ . Soit C la composante courante. Si v est déjà
définie sur C, on passe à la composante suivante. Sinon, on définit v comme >
sur (chaque littéral de) C et comme ⊥ sur (chaque littéral de) C, puis on passe à
la composante suivante.
Par hypothèse, pour toute variable x, les sommets x et x̄ sont dans des composantes
connexes de Gϕ distinctes. En particulier, on a C 6= C à chaque étape, donc la
valuation v est bien définie. D’après a)(i), pour montrer que v satisfait ϕ, il suffit
de montrer qu’il n’y a pas de chemin d’un littéral vrai vers un littéral faux dans
Gϕ . Comme v est constante sur chaque composante fortement connexe de Gϕ , il
suffit de montrer cette propriété dans Hϕ .
Supposons qu’il existe un tel chemin. Alors il existe un arc CC 0 avec v|C = > et
v|C 0 = ⊥. Comme v|C = >, on a considéré C avant C dans l’algorithme définissant
v. De même, on a aussi considéré C 0 avant C 0 . Ainsi, si < est un ordre topologique
sur Hϕ , on obtient
C < C < C 0 < C 0.
Comme Hϕ contient l’arc CC 0 , il contient aussi C 0 C, d’où C 0 < C, ce qui est
impossible car Hϕ est acyclique.
Finalement, on obtient que v satisfait ϕ.
(v) Étant donnée une formule 2Cnf ϕ, on peut construire une représentation du
graphe Gϕ sous forme de listes d’adjacence en temps linéaire : il suffit de parcourir
les clauses de ϕ et d’ajouter les deux arcs correspondants à Gϕ .
On peut déterminer les composantes fortement connexes de Gϕ en temps linéaire
via l’algorithme de Tarjan ou de Kosaraju. Après cette procédure, on obtient un
tableau T associant à chaque sommet de Gϕ sa composante fortement connexe.
D’après a)(ii) et (iv), il suffit alors de tester pour chaque variable x de ϕ si x
et x sont dans la même composante de Gϕ , i.e. si x et x sont associés à la même
valeur dans le tableau T .
b) (i) Montrons les deux directions de l’équivalence.
• Supposons que ϕG ∧ s ∧ t est satisfaite par une valuation v. On a en particulier
les égalités v(s) = > et v(t) = ⊥.
Soit s0 un sommet de G tel que s → s0 est un arc de G. Alors s ∨ s0 est
une clause de ϕG , qui est donc satisfaite par v. Comme v(s) = >, on a

804
Logique et preuves

nécessairement v(s0 ) = >. Par une récurrence immédiate on obtient que, pour
tout chemin s1 , . . . , sn avec s1 = s, on a v(sn ) = >. Comme v(t) = ⊥, le
graphe G ne peut donc pas contenir un chemin de s à t.
• Réciproquement, supposons que ϕG ∧ s ∧ t ne soit pas satisfiable. Soit S 0
l’ensemble des sommets de G accessibles par un chemin issu de s. On définit
une valuation v par (
> si x ∈ S 0 ,
v(x) =
⊥ sinon.

Par définition, s ∈ S 0 , d’où v(s) = >. De plus, si xy est un arc de G et x ∈ S 0


alors y ∈ S 0 . Ainsi, la clause x ∨ y est satisfaite par v. On a donc v(ϕG ) = >.
Comme ϕG ∧ s ∧ t n’est pas satisfiable, on a donc v(t) = ⊥, d’où t ∈ S 0 .
Ainsi, t est accessible depuis s. Il y a donc bien un chemin de s à t dans G.
(ii) Le problème d’accessibilité dans un graphe orienté est NL-complet.
(
entrée : un graphe orienté G et deux sommets s, t ;
Access
sortie : oui s’il existe un chemin de s à t dans G, non sinon.
D’après le théorème d’Immerman-Szelepcsényi, c’est aussi le cas du problème
de non-accessibilité co-Access. Étant donné un graphe orienté G et deux de
ses sommets s et t, on peut construire la formule 2Cnf ϕG ∧ s ∧ t en espace
logarithmique. D’après la question précédente, on a donc une réduction en espace
logarithmique du problème co-Access à 2Sat. Ainsi, 2Sat est NL-dur.

Commentaires.
© Les problèmes de satisfiabilité sont monnaie courante en informatique. En
effet, d’une part, une des premières questions considérées lors de l’étude d’un
fragment logique est de déterminer la complexité du problème de satisfiabilité (ou
de validité) associé. D’autre part, ces problèmes sont souvent de bons représentants
de la difficulté des problèmes d’une classe donnée. C’est par exemple le cas de
2Sat (NL-complet), 3Sat (NP-complet), ou de QbfSat (PSpace-complet).
© Un problème NL-complet « canonique » est le problème Access d’accessibilité
dans un graphe orienté, que l’on utilise dans ce développement. Le problème
2Sat n’en est finalement pas si éloigné : tout le développement repose sur le
fait qu’une clause x ∨ y peut être interprétée comme une implication x ⇒ y
(ou y ⇒ x). Il s’agit alors de relier la satisfiabilité d’une formule 2Cnf à des
propriétés d’accessibilité dans le graphe orienté représentant ces implications.
© Le célèbre théorème de Cook-Levin (voir Développement 124) établit que le
problème Sat est NP-complet , tout comme ses variantes CnfSat et 3Sat (voir
Développement 125). D’un autre côté, 2Sat peut être résolu en temps polynomial.
On peut alors constater la finesse de la frontière entre P et NP, ce qui est renforcé
par l’étude du problème Max2Sat défini dans les questions.
© Dans ce développement, on montre que 2Sat est NL-dur. Il est en fait NL-
complet. Pour établir l’appartenance de 2Sat à la classe NL, on utilise encore le

805
126. 2Sat est NL-dur

théorème d’Immerman-Szelepcsényi : on donne un algorithme pour tester la non-


satisfiabilité d’une formule 2Cnf ϕ. D’après la question a)(ii), il suffit de tester
s’il existe une variable x telle que x et x sont accessibles l’un depuis l’autre dans
le graphe Gϕ . Malheureusement, on ne peut pas calculer ce graphe explicitement
(le stocker prendrait un espace linéaire et non logarithmique). En revanche, on
peut tester si un arc y est présent en espace constant (il suffit de parcourir les
clauses de la formule). Ainsi, il suffit de modifier légèrement un algorithme NL
résolvant le problème Access afin de prendre en compte la forme de l’entrée. On
obtient alors un algorithme témoignant de l’appartenance de 2Sat à NL.
© On peut utiliser 2Sat pour obtenir un test de planarité d’un graphe. L’idée est
de partir d’un arbre couvrant obtenu par un parcours en profondeur (qui est donc
planaire) et orienté vers ses feuilles. Chacune des arêtes restantes relie un sommet
à un de ses ancêtres — on parle d’arc de retour. On associe alors une variable
propositionnelle à chacun de ces arcs. Cette variable code le fait que l’unique
cycle formé en ajoutant l’arc de retour à l’arbre couvrant soit orienté dans le sens
trigonométrique ou non. En utilisant l’ordre de parcours des sommets concernés,
on peut établir si deux arcs de retour doivent être orientés différemment ou dans
le même sens. L’ensemble des contraintes est alors une formule 2Cnf, de taille
quadratique en le nombre d’arcs de retour (dans le pire cas, chaque paire d’arcs
de retour fournit une contrainte). On obtient donc un test de planarité en temps
quadratique. On peut en fait montrer qu’il suffit de considérer un sous-ensemble
de ces contraintes, de taille linéaire en la taille du graphe en entrée. Ce test de
planarité, cette fois de complexité linéaire, est souvent appelé Left-Right planarity
test.

Questions.
1. Écrire explicitement l’algorithme présenté en a)(v).
2. Dans la question b), on utilise des formules ayant des clauses de taille 1, ce
qui n’est normalement pas possible dans une formule 2Cnf. Comment peut-on
gérer le cas des clauses de taille 1 ?
3. Le problème d’optimisation MaxnSat est le suivant :

entrée :

 une formule nCnf ϕ ;
MaxnSat sortie : le nombre maximum de clauses de ϕ


 satisfiables simultanément.

Énoncer le problème de décision associé et montrer que Max2Sat est NP-complet.


Indication : on pourra montrer que x ∨ y ∨ z est satisfiable si et seulement s’il
existe une valuation satisfaisant au moins 7 clauses parmi
x, y, z, t, x ∨ y, x ∨ z, y ∨ z, x ∨ t, y∨t et z ∨ t.

4. Montrer que le choix d’une valuation aléatoire uniforme (chaque variable ayant
probabilité 12 d’être vraie ou fausse) fournit une 34 -approximation du problème
Max2Sat ? Quel est le ratio d’approximation pour Max3Sat ? MaxnSat ?

806
Logique et preuves

Développement 127 (Compacité de la logique propositionnelle F)

Soit F un ensemble de formules propositionnelles. On va montrer de deux


manières le théorème de compacité :

F est satisfiable ⇐⇒ tout sous-ensemble fini de F est satisfiable.

Soit VF l’ensemble des variables apparaissant dans les formules de F.


a) Pour tout ϕ ∈ F, on note [ϕ] l’ensemble des valuations qui satisfont ϕ. On
identifie de plus l’ensemble des valuations VF → {0, 1} à l’ensemble {0, 1}VF
muni de la topologie produit.
(i) Montrer par induction sur ϕ que [ϕ] est ouvert et fermé dans {0, 1}VF .
(ii) Montrer que {0, 1}VF est compact. En déduire le théorème de compacité.
b) Dans cette question, on suppose que VF et F sont dénombrables.
(i) Soit T un arbre infini de racine r et dont chaque sommet a un degré fini.
Montrer que T contient une branche infinie.
(ii) Soit (ϕn )n∈N une énumération des formules de F, et (vn )n∈N une énumé-
ration des variables de VF . On construit un arbre TF de racine r où :
• pour n ∈ N, les sommets de hauteur n + 1 sont étiquetés par vn ou vn ;
• si x est un sommet de hauteur n, alors y ∈ {vn , vn } est un fils de x si et
seulement s’il existe une valuation satisfaisant à la fois y, x, ϕ0 , . . . , ϕn
ainsi que tous les ancêtres de x.

v0 v0

v1 v1 v1 v1

Montrer que si tout sous-ensemble fini de F est satisfiable, alors TF


admet une branche infinie.
(iii) En déduire le théorème de compacité.

Leçons concernées : 203, 916, 918, 924

Ce développement traite d’un théorème fondamental sur la logique propositionnelle,


et constitue donc un incontournable de la leçon 916. Une des démonstrations
présentées ici utilise de manière centrale la notion de compacité (203). Enfin, la
généralisation au cas de la logique du premier ordre via le théorème de Herbrand
ainsi que les applications présentées ci-après permettent d’utiliser ce développement
dans les leçons 918 et 924, quitte à revoir en profondeur son organisation.

807
127. Compacité de la logique propositionnelle

Correction.
a) (i) On procède par induction structurelle sur la formule propositionnelle ϕ.
• Si ϕ = v ∈ VF , alors [ϕ] = {1}× w∈VF \{v} {0, 1}. Comme l’ensemble {0, 1} est
Q

muni de la topologie discrète, {1} est ouvert et fermé. Ainsi, comme {0, 1}VF
est muni de la topologie produit, [ϕ] est bien ouvert et fermé.
• Si ϕ = ¬ψ, alors [ϕ] = {0, 1}VF \ [ψ] est ouvert et fermé dès que [ψ] l’est.
• Si ϕ = ψ ∧ ξ, alors [ϕ] = [ψ] ∩ [ξ] est ouvert et fermé dès que [ψ] et [ξ] le sont.
• Si ϕ = ψ ∨ ξ, alors [ϕ] = [ψ] ∪ [ξ] est ouvert et fermé dès que [ψ] et [ξ] le sont.
Ainsi, par induction, on obtient que [ϕ] est ouvert et fermé dans {0, 1}VF .
(ii) Si F est satisfiable, alors toute valuation le satisfaisant satisfait aussi n’im-
porte quel sous-ensemble fini de F. Ceci montre le sens direct du théorème.
Montrons le sens indirect par contraposée. Supposons que F ne soit pas satisfiable.
Alors ∩ϕ∈F [ϕ] = ∅. Observons que l’ensemble {0, 1} est compact pour la topologie
discrète. Par le théorème de Tychonov, l’ensemble produit {0, 1}VF est aussi
compact.
Comme tous les ensembles [ϕ] sont fermés, la propriété de Borel-Lebesgue (pour
les fermés) assure qu’il existe un sous-ensemble fini F 0 de F tel que ∩ϕ∈F 0 [ϕ] = ∅.
Autrement dit, F 0 est un ensemble fini non satisfiable. Ainsi, par contraposée, si
tous les sous-ensembles finis de F sont satisfiables alors F est satisfiable.
b) (i) On construit par récurrence une branche (xn )n∈N telle que pour tout n,
le sous-arbre de T enraciné en xn est infini.
• L’arbre T étant infini, on peut choisir x0 comme la racine r.
• Si x0 , . . . , xn sont construits pour un certain n ∈ N, alors l’arbre enraciné
en xn est infini par hypothèse de récurrence. Comme xn a un degré fini, il
a un nombre fini de fils, donc au moins un de ses sous-arbres est infini. On
définit alors xn+1 comme un fils de xn ayant un nombre infini de descendants.
On a donc construit par récurrence une branche infinie de T , ce qui conclut.
(ii) Supposons que tout sous-ensemble fini de F est satisfiable. Tout d’abord, on
remarque que tout sommet de l’arbre TF a un degré fini (puisque chaque sommet
a au plus deux fils). D’après la question précédente, il suffit de montrer que TF est
infini pour obtenir le résultat. Pour ce faire, on va montrer que pour tout entier
n > 0, l’arbre TF contient un sommet au niveau n.
Soit n ∈ N∗ . Alors {ϕ0 , . . . , ϕn−1 } est un sous-ensemble fini de F, donc satisfiable.
Soit ν une valuation satisfaisant cet ensemble. Par construction de TF , il existe
donc une branche de hauteur n où, pour i ∈ J1, nK, le i-ème sommet est vi−1 dans
le cas où ν(vi−1 ) est vrai et vi−1 sinon. L’arbre TF est donc infini, et la question
précédente conclut.
(iii) Le sens direct provient du même argument qu’en question a)(ii).
Réciproquement, supposons que tout sous-ensemble fini de F est satisfiable. La
question précédente assure que l’arbre TF a une branche infinie (xn )n∈N de TF .
On définit alors la valuation ν par ν(vi ) = 1 si xi+1 = vi et ν(vi ) = 0 si xi+1 = vi .
Par construction de TF , cette valuation satisfait toutes les formules de F. Ainsi, F
est donc satisfiable, ce qui conclut le sens réciproque du théorème de compacité.

808
Logique et preuves

Commentaires.
© Le nom « théorème de compacité » provient du lien entre la satisfiabilité d’un
ensemble et la satisfiabilité de ses sous-ensembles finis, ce qui est un analogue de la
propriété de Borel-Lebesgue. La question a) montre que c’est en fait exactement
la propriété de Borel-Lebesgue dans le bon espace topologique.
© Dans un compact K, la propriété de Borel-Lebesgue assure que si K est
recouvert par une famille d’ouverts, alors il est recouvert par une sous-famille
finie. On parle de compacité dénombrable lorsqu’on restreint cette propriété à des
familles dénombrables d’ouverts. Dans un compact, toute suite admet une sous-
suite convergente (un ensemble vérifiant cette propriété est dit séquentiellement
compact). La réciproque est fausse en général : un ensemble séquentiellement
compact, ou dénombrablement compact n’est pas nécessairement compact. C’est
en revanche le cas dans des espaces métriques — il s’agit du théorème de Bolzano-
Weierstrass.
© Le résultat de la question b)(i) est connu sous le nom de « lemme de König ».
Ce lemme est utile dans d’autres situations, comme on le verra dans les questions.
En revanche, on peut s’en passer dans le cadre de ce développement, soit en
appliquant la preuve du lemme de König directement sur l’arbre TF , ou bien sans
même construire TF en montrant par récurrence qu’il existe une suite (εn )n∈N
à valeurs dans {0, 1} telle que pour tout n ∈ N et toute partie finie F 0 ⊂ F, il
existe une valuation ν satisfaisant F 0 et telle que ν(vi ) = εi pour i ∈ J0, nK. Cette
méthode revient en fait à construire le niveau n + 1 de TF en montrant l’hérédité.
© L’approche via le lemme de König fonctionne dans le cas où VF et F sont
dénombrables. On utilise ici de façon cachée l’axiome du choix dénombrable. Cette
démonstration s’étend au cas non dénombrable, en utilisant l’axiome du choix
(général). Dans ce dernier cas, on remplace le lemme de König par le lemme de
Zorn pour construire une valuation maximale en un certain sens. Notons aussi
que la méthode développée dans la question a) fait aussi intervenir l’axiome
du choix, puisqu’il est utilisé dans la démonstration du théorème de Tychonov.
Le théorème de Tychonov n’est en revanche pas équivalent à l’axiome du choix.
En fait, l’axiome du choix est équivalent au fait qu’un produit d’espaces quasi-
compacts (i.e. satisfaisant la propriété de Borel-Lebesgue, mais pas forcément
séparés) est quasi-compact.
© Le théorème de compacité est un résultat majeur sur la logique propositionnelle.
Il se généralise au cas de la logique du premier ordre. Une démonstration assez
simple de ce fait se base sur le théorème de complétude des règles de déduction
en logique classique (ou de n’importe quel système de preuve au premier ordre
qui soit correct et complet). En effet, en supposant qu’un ensemble F de formules
du premier ordre ne soit pas satisfiable, le théorème de complétude affirme qu’il
existe une preuve d’une contradiction qui utilise les éléments de F comme axiomes.
Cette preuve étant finie, elle n’utilise qu’un nombre fini de formules de F. Comme
ce système de preuve est complet, l’ensemble (fini) de ces formules est alors
contradictoire, ce qui montre le sens non-trivial du théorème de compacité au
premier ordre.

809
127. Compacité de la logique propositionnelle

© On peut aussi déduire le théorème de complétude de la logique du premier


ordre à partir du théorème de Herbrand en se ramenant au cas de la logique
propositionnelle, ou bien directement à partir du théorème de compacité, en
montrant plus précisément le théorème de la complétude de la méthode de
résolution.
© Au premier ordre, le théorème de compacité a aussi de nombreuses conséquences.
On peut par exemple citer le(s) théorème(s) de Lowenheim-Skolem qui assure(nt)
l’existence de modèles d’un certain cardinal à partir d’un modèle donné. Par
exemple, un classique de l’agrégation est le théorème de Lowenheim-Skolem
ascendant dénombrable :
Soit Σ une signature dénombrable et T une théorie admettant des
modèles de cardinaux finis arbitrairement grands. Alors T admet un
modèle infini dénombrable.
L’équivalent descendant consiste à extraire un sous-modèle dénombrable de T
d’un modèle infini de T .
Soit Σ une signature dénombrable et M un modèle infini d’une théo-
rie T . Alors on peut extraire de M un sous-modèle dénombrable de T .
© Le théorème de compacité dénombrable et le théorème de Lowenheim-Skolem
descendant caractérisent la logique du premier ordre : c’est le théorème de Lind-
ström. Il établit que la logique du premier ordre est la logique « la plus forte »
pour laquelle ces deux théorèmes sont vérifiés.

Questions.
1. Énoncer la propriété de Borel-Lebsegue pour les fermés.
2. Dans la question a)(i), pourquoi a-t-on besoin de montrer que [f ] est ouvert
et fermé alors que la question suivante n’utilise que la fermeture ? Peut-on s’en
passer ?
3. Soit G un graphe infini et k un entier. Montrer que G est k-coloriable si et
seulement si tout sous-graphe fini de G est k-coloriable. En déduire que tout
graphe (infini) planaire est 4-coloriable.
4. Une tuile est un objet de la forme

h
g d
b

où chaque triangle reçoit une couleur. On la représente par le quadruplet d’entiers


(h, b, g, d). Un ensemble de tuiles pave un ensemble E ⊂ Z2 s’il existe une appli-
cation f : E → T telle que deux tuiles adjacentes présentent la même couleur,
par exemple la première composante de f (m, n) et la deuxième de f (m, n + 1)
coïncident pour tout couple d’entiers (m, n). Montrer qu’un ensemble de tuiles T
pave le plan si et seulement s’il pave tout carré J−n, nK2 .

810
Logique et preuves

5. Montrer que la propriété « avoir un modèle fini » n’est pas exprimable au


premier ordre.
Indication : on pourra considérer l’ensemble {ϕ, ϕ1 , ϕ2 , . . .} où ϕ est une formule
du premier ordre exprimant la finitude du modèle, et chaque ϕn est une formule
vraie dans tout modèle ayant au moins n éléments.
6. Montrer que si une formule ϕ du premier ordre est vraie dans tout corps de
caractéristique 0, alors il existe un entier k telle que ϕ soit vraie dans tout corps
de caractéristique au moins k.
Indication : on pourra considérer l’ensemble contenant ϕ, les axiomes de théorie
des corps, et les formules 1 + 1 6= 0, 1 + 1 + 1 6= 0, . . .
7. En utilisant le théorème de compacité au premier ordre, montrer qu’il existe
des corps ordonnés non archimédiens, c’est-à-dire contenant un élément ε qui
vérifie nε < 1 pour tout entier n.
Indication : on pourra considérer l’ensemble contenant les axiomes de théorie des
corps ordonnés, et les formules ε < 1, 2ε < 1, . . . pour un certain symbole de
constante ε.
8. Montrer que la connexité d’un graphe n’est pas une propriété définissable en
logique du premier ordre.
9. Soit M une machine de Turing non déterministe décidant un langage L. En
utilisant le lemme de König, montrer que l’arbre des exécutions des M sur un mot
w donné est fini, et en déduire une machine M 0 déterministe décidant L.
10. Montrer les théorèmes de Lowenheim-Skolem ascendant et descendant.

811
128. Indécidabilité du problème ValidFO

Développement 128 (Indécidabilité de la validité au premier ordre FF)

On veut montrer que le problème suivant est indécidable.


(
entrée : une formule ϕ close en logique du premier ordre ;
ValidFO
sortie : oui si ϕ est valide, non sinon.

Pour ce faire, on réduit le problème Post à ValidFO.






entrée : un alphabet
 
fini Σ, un ensemble fini de tuiles

ui


avec ui , vi ∈ Σ∗ ;


  
Post vi

 i∈J1,nK
oui s’il existe i1 , . . . , ip ∈ J1, nK tels que




 sortie :

ui1 ui2 · · · uip = vi1 vi2 · · · vip , non sinon.

On se place sur l’alphabet Σ = {a, b}. Soit T une instance de Post, i.e. un
u
ensemble fini de n tuiles de la forme i , pour i allant de 1 à n avec ui et vi
vi
ε
des mots sur l’alphabet Σ. On suppose que la tuile n’est pas dans T .
ε
On se fixe la signature S = {F, P} avec l’ensemble des fonctions défini
par F = {ε(0), a(1), b(1)} et l’ensemble des prédicats P = {p(2)}.
a) Sur la signature S, écrire une formule close ψ qui est vraie si et seulement
s’il existe un mot non vide w vérifiant p(w, w) ; et une formule close ϕ vraie si
et seulement si p est vrai sur les couples (x, y) que l’on peut obtenir à partir
des tuiles de T .
On pose alors tr(T ) = ϕ → ψ. On va montrer que tr(·) est une réduction.
b) Montrer que si tr(T ) est valide, alors T est une instance positive de Post.
c) Montrer que si T est une instance positive de Post, alors tr(T ) valide.
d) Conclure à l’indécidabilité du problème ValidFO.

Leçons concernées : 914, 924

On utilise ici un schéma de preuve classique (la réduction) pour montrer l’indé-
cidabilité de la validité en logique du premier ordre, ce qui permet d’illustrer la
leçon 914. Ce problème s’intègre aussi dans la leçon 924 puisque d’une part, la
preuve de la réduction met en jeu des manipulations de modèles et d’autre part,
ce résultat montre l’indécidabilité de la théorie vide.

812
Logique et preuves

Correction.
a) On cherche une fonction de traduction tr : T 7→ tr(T ) correspondant au schéma
suivant :

Post

T tr(T ) oui
traduction ValidFO non

On utilisera les notations suivantes :


• pour chaque mot m = m1 m2 · · · mk ∈ Σ∗ , on notera le symbole de fonc-
tion m(·) pour

m(·) = m1 m2 · · · mk (·) = mk (mk−1 (· · · m1 (·) · · · )).

x
• on notera une succession de tuiles de T telle que le mot du haut soit x et
y
x
celui du bas y. Cela sous-entend qu’en écrivant , il existe une succession
y
de tuiles de T qui forme les mots x en haut et y en bas.

On pose tr(T ) = (ϕ → ψ) avec


n 
^ 
ϕ = p(ε, ε) ∧ ∀x∀y p(x, y) → p(ui (x), vi (y)) ,
i=1
 
ψ = ∃x p(a(x), a(x)) ∨ p(b(x), b(x)) .

Pour bien comprendre cette formule, il faut penser au prédicat p avec la sémantique
suivante : p(x, y) est vrai s’il existe une succession de tuiles ayant x en haut et y
en bas. Dans ce cas, une récurrence immédiate assure que la formule ϕ traduit
que p a bien cette sémantique. De plus, lorsque p a cette sémantique, la validité
de ψ correspond à l’existence d’une instance positive de Post.
b) La formule ϕ → ψ est valide donc, pour tout modèle M, on a M  (ϕ → ψ).
On choisit le modèle M suivant :
• le domaine est DM = Σ∗ ,
• εM correspond au mot vide sur l’alphabet Σ ;
(
Σ∗ → Σ∗
• aM (·) :
x 7→ xa;

813
128. Indécidabilité du problème ValidFO

(
Σ∗ → Σ∗
• bM (·) :
x 7→ xb;



 (Σ∗ )2 → {0, 1}

 

x

• pM (·, ·) :

1 si existe,





 (x, y) 7→ y
 

0 sinon.

 

On va maintenant montrer que M  ϕ.


ε
On a M  p(ε, ε) car si l’on ne met aucune tuile, par définition, on a .
ε
" #
x := u
Prenons ensuite u, v ∈ Σ∗
tels que M  p(x, y). Par définition de pM ,
y := v
u u u
on a une séquence de tuiles . Donc, en concaténant et i , on obtient
v v vi
" #
uui x := u
une séquence , en particulier M  p(ui (x), vi (y)) pour i ∈ J1, nK.
vvi y := v
Ainsi, pour tout i ∈ J1, nK, on a
M  (∀x∀y (p(x, y) → p(ui (x), vi (y)))) .
Cela montre que M  ϕ.

Or la formule ϕ → ψ est valide, donc en particulier M  (ϕ → ψ). Puisque


M  ϕ, on a alors M  ψ. Traitons le cas où M  ∃x p(a(x), a(x)) (le cas pour b
h i αa
serait similaire). Il existe α ∈ Σ∗ tel que M x := α  p(a(x), a(x)). Donc
αa
existe avec αa non vide. Ainsi, par définition, il existe une succession de tuiles
telle que le mot du haut et celui du bas soient les mêmes. L’instance T est bien
une instance positive de Post.

c) On suppose que T est une instance positive de Post. Il existe donc m > 1 et
des indices i1 , . . . , im ∈ J1, nK tels que ui1 ui2 · · · uim = vi1 vi2 · · · vim .
On notera u(k) (resp. v (k) ) pour ui1 ui2 · · · uik (resp. vi1 vi2 · · · vik ).
Soit M un modèle. On suppose que M  ϕ, montrons que M  ψ.
" #
x := u(k) (ε)
Prouvons, par récurrence sur k, que M  p(x, y).
y := v (k) (ε)

• Pour k = 0, on a M  p(ε, ε) car M  ϕ.


" #
x := u(k) (ε)
• Soit k ∈ N. On suppose que l’on a M  p(x, y). On veut
y := v (k) (ε)
prouver que " #
x := u(k+1) (ε)
M  p(x, y).
y := v (k+1) (ε)

814
Logique et preuves


On sait que, pour tout i ∈ J1, nK, M  ∀x∀y p(x, y) → p(ui (x), vi (y)) . En
particulier, pour i = ik+1 , on a M  ∀x∀y p(x, y) → p(uik+1 (x), vik+1 (y)) .
Donc " #
x := u(k) (ε) 
M (k)  p(x, y) → p(uik+1 (x), vik+1 (y)) .
y := v (ε)
" # " #
x := u(k) (ε) x := u(k+1) (ε)
Ainsi, comme M (k)  p(x, y), on a M  p(x, y).
y := v (ε) y := v (k+1) (ε)
• On a donc, pour tout k ∈ J1, mK,
" #
x := u(k) (ε)
M  p(x, y).
y := v (k) (ε)

Sans perte de généralité, on suppose que ui1 ui2 · · · uim finit par un a. On écrit
l’égalité ui1 ui2 · · · uim = u(m) = ũa et vi1 vi2 · · · vim = v (m) = ṽa. On veut prouver
que M  ψ et on a " #
x := u(m) (ε)
M  p(x, y),
y := v (m) (ε)
" #
x := ũa(ε)
donc M  p(x, y), d’où
y := ṽa(ε)
" #
x := ũa(ε)
M  p(x, y).
y := ũa(ε)
h i
De ce fait, il existe ũ tel que M x := ũ(ε)  p(a(x), a(x)). Donc M  ψ. Ainsi
M  (ϕ → ψ). Comme ceci est vrai pour tout modèle M, on en déduit quela
formule tr(T ) = (ϕ → ψ) est valide.
d) Il faut montrer que notre fonction tr(·) est bien calculable. C’est le cas puisque
tr effectue un calcul fini pour toute instance de Post. En effet, il y a toujours un
nombre fini de tuiles, et donc cela prend un nombre fini d’opérations pour créer
la formule ϕ → ψ.
On a réduit le problème Post au problème ValidFO. Donc si ValidFO était
décidable, on rendrait le problème Post décidable, ce qui serait absurde car
on sait que Post est un problème indécidable. Ainsi le problème ValidFO est
indécidable.

Commentaires.
© Il faut bien faire attention aux manipulations syntaxique et sémantique. Le fait
de bien séparer les deux ne peut que vous aider à faire comprendre au jury que
vous ne mélangez pas ces deux notions.
© Le problème de savoir si la validité d’une formule du calcul propositionnel est
décidable est le problème dual du problème Sat que l’on étudie dans le théorème
de Cook. Pour le calcul propositionnel, Sat est un problème NP-complet et Valid
est un problème co-NP-complet.

815
128. Indécidabilité du problème ValidFO

© On rappelle qu’on dit qu’une théorie T satisfait une formule ϕ, que l’on note
T  ϕ, si, pour tout modèle M, on a

M  T implique M  ϕ.

Comme tout modèle satisfait la théorie vide, on a

∅  ϕ est équivalent à ϕ est valide.

Cela justifie le fait que la validité de ϕ est parfois notée  ϕ. Ainsi on peut voir
ce développement comme l’indécidabilité de la théorie vide.
© La fonction tr(·) est même linéaire en le nombre de tuiles, car ψ est de taille
constante et ϕ est de taille linéaire.

Questions.
1. Pourquoi ne définit-on pas la formule ψ par ψ = ∃x, p(x, x) ?
ε
2. Comment définir tr : T 7→ tr(T ) quand T contient la tuile ?
ε
3. Montrer que le problème Post est indécidable.
4. ValidFO est-il dans RE ?
5. Qu’en est-il
( du problème SatFO ?
entrée : une formule ϕ close en logique du premier ordre ;
SatFO
sortie : oui si ϕ est satisfiable, non sinon.

816
Logique et preuves

Développement 129 (Indécidabilité du problème RELSAT FFF)

On veut montrer que le problème



entrée :

 une requête q du calcul relationnel ;
RelSat sortie : oui s’il existe une base de données I telle

que q(I) 6= ∅, non sinon.

est indécidable. Pour cela, on va réduire le problème Post sans ε (voir


page 855) à RelSat.
Soit T une instance du problème Post sans ε, c’est-à-dire un nombre fini de
tuiles
u1 u u
, 2 , ..., N
v1 v2 vN
sur l’alphabet Σ = {a, b} ne contenant pas ε.
On prend le schéma de base de données suivant
R = {Enc(pos1, pos2, mot, u, v), Sync(deb_h, deb_b)}.
Rappelons que l’instance T du problème Post sans ε est positive s’il existe
une succession S de tuiles qui forment le même mot w en haut et en bas.
On va construire une requête qT en calcul relationnel sur le schéma R de
telle sorte qu’un remplissage de Enc et Sync satisfaisant qT encode S. Plus
précisément, lorsqu’un tel remplissage existe, pos1 et pos2 permettront de
définir un ordre sur les entrées de Enc, mot contiendra chaque lettre du
mot w, et u (resp. v) contiendra l’indice de la tuile contenant la lettre de la
colonne mot en haut (resp. en bas). Quant à la table Sync, l’attribut deb_h
(resp. deb_b) est une clé étrangère pour l’attribut pos1 de Enc et désigne
la première lettre du mot du haut (resp. du bas) de chaque tuile de S. On
utilise le symbole spécial $ pour marquer le début de la succession de tuiles.
a) Donner un exemple de remplissage de la base de données avec trois tuiles.
b) On veut écrire une formule du premier ordre ϕT qui impose que si l’on peut
remplir la base de données en vérifiant cette formule alors T est une instance
positive de Post. Réciproquement, il faut que la formule ϕT soit satisfaite
lorsque T est une instance positive de Post. On pose alors la requête suivante

qT = {hi, ϕT } avec ϕT = ϕSync ∧ ϕEnc ∧ ϕu ∧ ϕv ∧ ϕSync_u_v .

On donne pour exemple la première formule ainsi que sa signification. La


formule ϕSync est définie par
 
∀x∀y∀z (Sync(x, y) ∧ Sync(x, z)) → y = z unicité deb_h
 
∧ ∀x∀y∀z (Sync(x, y) ∧ Sync(z, y)) → x = z unicité deb_b.

817
129. Indécidabilité du problème RelSat

Elle traduit le fait que les attributs deb_h et deb_b sont des clés étrangères.
(i) En utilisant la formule ψ(x, y) := ∃z∃t∃sEnc(x, y, z, t, s), donner une
formule ϕEnc qui traduit le fait que
• pos1 et pos2 contiennent le symbole $ mais non simultanément ;
• les arcs pos1 → pos2 forment un cycle contenant $ ;
• les éléments de pos1 sont disjoints.
(ii) Donner avec précision ce que traduit la formule suivante :
N 
_
ϕu :=∀x ∃ySync(x, y) → ∃x1 x2 . . . x|ui | x|ui |+1 j1 . . . j|ui |
i=1
hn |u
^i | o
Enc(xk , xk+1 , ui [k], i, jk ) ∧ {x = x1 }
k=1
o n |u
^i |
!!
n oi
∧ ∃zSync(x|ui |+1 , z) ∧ ¬∃ySync(xk , y) .
k=2

Pour ϕv , on se donne une formule similaire.


(iii) Donner avec précision ce que traduit la formule ϕSync_u_v suivante :

Sync($, $)
N
!
_
∧ ∀x∀y Sync(x, y)→ ∃t1 t2 t3 s1 s2 s3 Enc(x, t1 , t2 , i, t3 ) ∧ Enc(y, s1 , s2 , s3 , i)
i=1
!
Sync(x, y) ∧ ¬(x = max(deb_h)) ∧ ¬(y = max(deb_b)) → Sync(x0 , y 0 )
 

avec x0 = min a et y 0 = min a.


a∈deb_h a∈deb_b
a>x a>y

c) On veut montrer que qT est satisfiable si et seulement si T est une instance


positive de Post sans ε.
(i) Montrer le sens direct.
(ii) Montrer le sens indirect.
(iii) En déduire que le problème RelSat est indécidable.

Leçons concernées : 914, 932

Ce développement montre l’indécidabilité de la satisfiabilité d’une requête en calcul


relationnel, il se place donc naturellement dans la leçon 914 liée à la décidabilité
et l’indécidabilité et dans la leçon 932 liée aux bases de données.

818
Logique et preuves

Correction.
a) On utilise les trois tuiles suivantes

aab b bab
i1 ; i2 ; i3
a abbb ab

et le mot w = aabbbab qui s’écrit alors w = ui1 ui2 ui3 = vi1 vi2 vi3 .
On peut alors remplir la base de données de la manière suivante :

Enc pos1 pos2 mot u v


$ 1 a i1 i1
1 2 a i1 i2 Sync deb_h deb_b
2 3 b i1 i2 $ $
3 4 b i2 i2 3 1
4 5 b i3 i2 4 5
5 6 a i3 i3
6 $ b i3 i3

Dans la table Enc, on lit verticalement le mot aabbbab dans la colonne mot.
Dans la colonne u (resp. v), on trouve l’indice de la tuile sur laquelle la lettre
correspondante se situe en haut (resp. en bas). Dans la table Sync, on lit dans la
colonne deb_h (resp. deb_b) le numéro qui apparait dans la colonne pos1 qui
est le début de chaque tuile pour le mot du haut (resp. du bas) dans la succession
de tuiles
aab b b ab
.
a abbb ab
Par exemple, le premier b du haut de la troisième tuile est sur le tuple de la table
Enc qui a un 4 dans la colonne pos1 et est indiqué comme début de tuile dans la
table Sync.
b) (i) On utilise la formule ψ(x, y) := ∃z∃t∃sEnc(x, y, z, t, s) pour faciliter
l’écriture de ϕEnc . On peut alors poser pour ϕEnc la formule suivante :
   
∃t ψ($, t) ∧ ¬(t = $) ∧ ∃t ψ(t, $) ∧ ¬(t = $) existence $
 
∧ ∀x∀y∃z ψ(x, y) → ψ(y, z) cycle
 
∧ ∀x∀y∃z ψ(y, x) → ψ(z, y) cycle

∧ ∀xt1 t2 t3 t4 s1 s2 s3 s4 (Enc(x, t1 , t2 , t3 , t4 )
∧ Enc(x, s1 , s2 , s3 , s4 )) → (t1 = s1
∧ t2 = s2
∧ t3 = s3

∧ t4 = s4 ) unicité pos1.

819
129. Indécidabilité du problème RelSat

On définit un ordre sur les tuples :


• le premier élément est l’unique tuple de la forme h$, ∗, ∗, ∗, ∗i,
• le successeur du tuple hx, x0 , ∗, ∗, ∗i est l’unique tuple de la forme hx0 , ∗, ∗, ∗, ∗i,
• le dernier élément est l’unique tuple de la forme h∗, $, ∗, ∗, ∗i,
où les ∗ peuvent être choisies indifféremment. Dans les différentes tables du
développement, on note toujours les tuples dans cet ordre. Comme la relation
Enc est un ensemble de tuples, il n’y a pas d’ordre apparent mais il est encodé
par les deux attributs pos1 et pos2.
La formule ϕEnc sert à imposer l’existence d’un tel ordre pour les tuples de la
relation Enc qui sera aussi l’ordre de lecture d’un éventuel mot qui est en haut et
en bas d’une concaténation valide de tuiles du problème Post sans ε.
La première colonne est une clé primaire pour retrouver le début de chaque tuile
(d’où la nécessité d’avoir des éléments distincts).
(ii) La formule ϕu traduit le fait que pour tout x ∈ deb_h, il existe i ∈ J1, N K
avec ui = z1 · · · zk et x1 , . . . , xk+1 vérifiant x = x1 tels que

hx1 , x2 , z1 , i, ∗i ∈ Enc

hx2 , x3 , z2 , i, ∗i ∈ Enc
..
.
hxk , xk+1 , zk , i, ∗i ∈ Enc
où x1 , xk+1 ∈ deb_h et x2 , . . . , xk ∈
/ deb_h. Les ∗ peuvent être choisies indiffé-
remment.
Cette formule permet de dire que pour chaque indice de début de tuile dans Sync,
u
on a une tuile i et que (dans l’ordre imposé par la formule ϕEnc ) on a bien
vi
u
une succession de tuples qui correspond au mot ui de la tuile i puis que les
vi
lettres du mot correspondent bien à ui entre les indices x = x1 et xk . De plus, on
n’autorise pas les indices intermédiaires x2 à xk à être des débuts de tuile, mais
on impose à l’indice xk+1 d’en être un.
(iii) La formule ϕSync_u_v traduit le fait que h$, $i ∈ Sync, qu’il existe un
indice i ∈ J1, N K tel que

hx, ∗, ∗, i, ∗i ∈ Enc et h∗, y, ∗, ∗, ii ∈ Enc

et permet de vérifier que hx0 , y 0 i ∈ Sync avec x0 et y 0 les indices qui suivent x
et y pour l’ordre défini à la question b)(i).
Cette formule permet d’imposer le bon début d’une succession S de tuiles (puisque
Sync($, $)). Les deuxième et troisième sous-formules permettent de synchroniser
le reste des tuiles. En effet, la deuxième sous-formule exprime le fait que l’on a
u
bien des tuiles licites (car il faut que ce soit une tuile i où l’indice du haut est
vi

820
Logique et preuves

u3
le même que l’indice du bas et non qui ne serait pas nécessairement dans
v4
l’instance de Post) et la troisième sous-formule traduit le fait qu’après chaque
tuile, on accède à une nouvelle tuile.
c) (i) On va utiliser les notations suivantes :
• on note u(k) pour ui1 · · · uik avec k ∈ J1, rK ;
• on note v (k) pour vi1 · · · vik avec k ∈ J1, rK.
Soit une instance I telle que I  qT . La formule ϕT est donc satisfaite par
la base de données I. On pose r = |Sync| qui sera le nombre de tuiles de la
succession S associée à I. En utilisant les conditions imposées par les sous-formules
constituant ϕT , on peut montrer par récurrence sur k ∈ J1, rK que
(
u(k) = mot[1 · · · |u(k) |],
HRk :
v (k) = mot[1 · · · |v (k) |],

où mot est lu dans l’ordre imposé par ϕEnc .


On a alors u(r) = v (r) et donc T est une instance positive de Post sans ε.
(ii) On suppose que T est une instance positive de Post sans ε, donc il existe
i1 , . . . , ir tels que
w = ui1 · · · uir = vi1 · · · vir .
On construit alors la table Enc et Sync comme ci-après.

Enc pos1 pos2 mot u v


$ 1 w1 i1 i1
1 2 w2 i1 i1
.. .. ..
. . . i1 i1 Sync deb_h deb_b
|v (1) | |v (1) | + 1 w|v(1) |+1 i1 i2 $ $
.. .. .. .. |u(1) | |v (1) |
. . . i1 .
.. .. .. .. |u(2) | |v (2) |
. . . i1 . .. ..
.. . .
|u(1) | |u(1) | + 1 w|u(1) |+1 i2 . .. ..
.. .. .. .. .. . .
. . . . . |u(r−1) | |v (r−1) |
.. .. .. .. ..
. . . . .
.. .. ..
|w| − 2 |w| − 1 . . .
|w| − 1 $ w|w| ir ir

Cette instance de base de données I (sur le schéma de base de données R) satisfait


la requête qT . On peut alors vérifier qu’elle satisfait chaque formule que l’on a
énoncée et donc ϕT .
(iii) Ainsi, on a réduit le problème Post sans ε au problème RelSat. La
réduction T 7→ qT est calculable car on peut construire ϕT en un nombre fini
d’étapes. Le problème Post sans ε étant indécidable, cela montre que RelSat

821
129. Indécidabilité du problème RelSat

est aussi indécidable puisque si RelSat était décidable, Post sans ε le serait
aussi (voir le schéma ci-après).

Post sans ε

oui
T qT
traduction RelSat non

Commentaires.
© Il existe d’autres problèmes indécidables sur les bases de données comme :

entrée :

 deux requêtes q et q 0 du calcul relationnel ;
RelEqu sortie : oui si q et q 0 sont sémantiquement équivalentes,


 non sinon.
Il suffit de réduire co-RelSat à RelEqu. En effet, une requête est insatisfiable
si et seulement si elle est équivalente à la requête vide.
© Dans la question b)(i), on a besoin d’imposer un ordre car une relation est un
ensemble de tuples (donc sans ordre prédéfini) et on veut pouvoir lire le mot de
la colonne mot avec des lettres qui sont dans le bon ordre.
© On a montré que le problème RelSat est indécidable, cependant il est dans RE.
En effet, on peut énumérer les bases de données qui sont des ensembles finis
de tuples sur un domaine dénombrable et tester pour chacune d’entre elles si la
requête est satisfaite. Ceci fournit un énumérateur pour RelSat, ainsi ce problème
est RE.
© Dans l’énoncé, il est dit que la formule ϕv est similaire à la formule ϕu . Pour
être précis, la formule ϕv est la suivante
N 
_
ϕv :=∀x ∃ySync(y, x) → ∃x1 x2 . . . x|vi | x|vi |+1 j1 . . . j|vi |
i=1
hn |v
^ i| o
Enc(xk , xk+1 , vi [k], jk , i) ∧ {x = x1 }
k=1
n |v i|
!!
n o ^ oi
∧ ∃zSync(z, x|vi |+1 ) ∧ ¬∃ySync(y, xk ) .
k=2

© Ce développement est très long, il n’est peut-être pas envisageable d’écrire


toutes les formules et de prouver la réduction tout en faisant comprendre au jury
ce que l’on est en train de faire. Il peut être intéressant de se concentrer sur
l’exposition du principe de cette réduction, en donnant le sens des formules plutôt

822
Logique et preuves

que de toutes les écrire. Pour cela, on peut imaginer écrire la base de données à
droite du tableau quand on introduit Enc et Sync en expliquant comment la
remplir et en s’y référant pendant tout le développement pour expliquer le sens
des formules. Ainsi quand on explique l’équivalence entre la satisfiabilité de ϕT
et l’instance positive T de Post sans ε, la base de données est déjà dessinée au
bon endroit. Il peut être judicieux d’appeler le problème Post sans ε simplement
Post puisque c’en est une variante afin de gagner du temps dans l’exposition au
jury. Par contre, il faut bien avoir à l’esprit qu’on ne pourrait pas réduire de cette
façon le problème Post classique car les attributs deb_h et deb_b ne seraient
plus des clés étrangères (puisque non disjoint deux à deux).

Questions.
1. Montrer que le problème de Post sans ε est indécidable.
2. Écrire explicitement la récurrence de la question c)(i).
3. Écrire les formules qui donnent x = max(deb_h), x < y et x0 = min a où
a∈deb_h
a>x
< est l’ordre défini par les colonnes pos1 et pos2.

823
130. Complétude de la logique de Hoare

Développement 130 (Complétude de la logique de Hoare FFF)

Considérons les règles de la logique de Hoare, notées [. . . H ] et de la sémantique


opérationnelle à grands pas, notées [. . . ns ] (voir pages 853 et 850).
Soient P, Q deux prédicats et S une instruction. On note :
• `p {P }S{Q} s’il existe un arbre de dérivation aboutissant à {P }S{Q}
en utilisant les règles de la logique de Hoare ;
• p {P }S{Q} si pour tous états s, s0 tels que P s = > et hS, si → s0 , on
a Q s0 = >, ce qui signifie que si la précondition P est vérifiée avant
l’exécution de l’instruction S, alors la postcondition Q est vérifiée après
l’exécution si S termine.
On veut montrer que la logique est Hoare est complète pour la sémantique
opérationnelle à grands pas, i.e. pour tous prédicats P et Q, pour toute
instruction S, on a

p {P }S{Q} implique `p {P }S{Q}.

On définit wlp(S, Q), la plus faible précondition donnant Q en exécutant S,


c’est-à-dire, pour tout état s,

wlp(S, Q) s = > ⇐⇒ pour tout s0 tel que hS, si → s0 , on a Q s0 = >.

a) On suppose que p {P }S{Q}. Montrer que, pour tout état s, si P s = >


alors wlp(S, Q) s = >.
b) Induction sur S pour montrer `p {wlp(S, Q)}S{Q} pour tout Q.
(i) Montrer que wlp(skip, Q) ⇒ Q et en déduire `p {wlp(skip, Q)}skip{Q}.
(ii) Montrer que wlp(x := a, Q) ⇒ Q[x → AJaK] et en déduire

`p {wlp(x := a, Q)}x := a{Q}.

(iii) Montrer que wlp(S1 ; S2 , Q) ⇒ wlp(S1 , wlp(S2 , Q)) et en déduire

`p {wlp(S1 ; S2 , Q)}S1 ; S2 {Q}.


 
(iv) Soit P := BJbK ∧ wlp(S> , Q) ∨ ¬BJbK ∧ wlp(S⊥ , Q) .
Montrer que wlp(if b then S> else S⊥ , Q) ⇒ P et en déduire

`p {wlp(if b then S> else S⊥ , Q)}if b then S> else S⊥ {Q}.

(v) Soit P := wlp(while b do S, Q). Montrer que (¬BJbK ∧ P ) ⇒ Q et (BJbK ∧


P ) ⇒ wlp(S, P ) afin de déduire `p {P }while b do S{Q}.
c) Conclure.

Leçons concernées : 927, 930

824
Logique et preuves

On peut parler de logique de Hoare dans plusieurs leçons. Elle vient naturellement
apparaître dans la leçon 927 puisqu’elle permet de montrer la correction de pro-
grammes informatiques (et parfois même la terminaison, cela dépend des règles
que l’on se donne). De plus, on a un théorème de correction et complétude entre
la sémantique opérationnelle à grands pas et les règles de la logique de Hoare. La
correction consiste à vérifier que les règles de la logique de Hoare sont bien compa-
tibles avec celles de la sémantique à grands pas. La complétude consiste à trouver,
pour tout programme ayant une certaine sémantique, un arbre de dérivation des
règles qui démontre le résultat (c’est ce que l’on va faire dans ce développement).
Cela justifie donc le placement de ce développement dans la leçon 930.

Correction.
a) Soit s un état tel que P s = >, on veut montrer que wlp(S, Q) s = >. Soit s0
un état tel que hS, si → s0 , par définition de p , on a Q s0 = >. Par définition
de wlp, on a bien wlp(S, Q) s = >.
b) (i) On suppose que wlp(skip, Q) s = >. Par la règle skip de sémantique
opérationnelle à grands pas [skip ns ], on a hskip, si → s. Donc par définition
de wlp, on a Q s = >. Ainsi,

wlp(skip, Q) ⇒ Q.

De plus, on a `p {Q}skip{Q} par la règle [skip H ] donc par la règle de la consé-


quence [cons H ] et l’implication que l’on vient de montrer, on a

`p {wlp(skip, Q)}skip{Q}.

(ii) On suppose que wlp(x := a, Q) s = >. Par la règle [aff ns ], on a

hx := a, si → s[x 7→ AJaKs ].

Donc par définition de wlp, on a Q[x → AJaK] s = Q s[x 7→ AJaKs ] = >. Ainsi,

wlp(x := a, Q) ⇒ Q[x → AJaK].

De plus, on a `p {Q[x → AJaK]}x := a{Q} par la règle de l’affectation [aff H ]


donc par la règle de la conséquence [cons H ] et l’implication que l’on vient de
montrer, on a
`p {wlp(x := a, Q)}x := a{Q}.
(iii) Soit s tel que wlp(S1 ; S2 , Q) s = >. Soit s0 tel que hS1 , si → s0 . On veut
montrer que wlp(S2 , Q) s0 = >. Soit s00 tel que hS2 , s0 i → s00 . Par la règle [comp ns ],
on a hS1 ; S2 , si → s00 , donc comme wlp(S1 ; S2 , Q) s = >, par définition de wlp,
on a bien Q s00 = >. Ainsi, par définition de wlp(S2 , Q), on a wlp(S2 , Q) s0 = >,
d’où, par définition de wlp(S1 , wlp(S2 , Q)), on a

wlp(S1 , wlp(S2 , Q)) s = >,

ce qui fournit l’implication souhaitée.

825
130. Complétude de la logique de Hoare

Par hypothèse d’induction, on a

`p {wlp(S1 , wlp(S2 , Q))}S1 {wlp(S2 , Q)} et `p {wlp(S2 , Q)}S2 {Q}.

On a alors `p {wlp(S1 , wlp(S2 , Q))}S1 ; S2 {Q} par la règle de la composition


[comp H ]. Donc par la règle de la conséquence [cons H ] et l’implication que l’on
vient de montrer, on a

`p {wlp(S1 ; S2 , Q)}S1 ; S2 {Q}.

(iv) Soit s un état tel que wlp(if b then S> else S⊥ , Q) s = >. On veut alors
montrer que P s = >.
Soit ./ ∈ {>, ⊥}. Si BJbK s = ./, montrer que P s = > revient à montrer que
wlp(S./ , Q) s = >. Soit s0 tel que hS./ , si → s0 et montrons que Q s0 = >. Par la
règle [if ./
ns ], on a
hif b then S> else S⊥ , si → s0
et par définition de wlp(if b then S> else S⊥ , Q), on a Q s0 = >. Ainsi, par
définition de wlp(S./ , Q), on a wlp(S./ , Q) s = >. Donc P s = >, d’où l’implication
souhaitée.
De plus, par hypothèse d’induction, on a

`p {wlp(S> , Q)}S> {Q} et `p {wlp(S⊥ , Q)}S⊥ {Q}.

Par définition de P , on a P ∧ BJbK ⇒ wlp(S> , Q) et P ∧ ¬BJbK ⇒ wlp(S⊥ , Q),


donc par la règle [cons H ], on a `p {P ∧ BJbK}S> {Q} et `p {P ∧ ¬BJbK}S⊥ {Q}.
Ainsi, par la règle [if H ], on a

`p {P }if b then S> else S⊥ {Q}.

Par conséquent, par la règle de la conséquence [cons H] et l’implication que l’on


vient de montrer, on a

`p {wlp(if b then S> else S⊥ , Q)}if b then S> else S⊥ {Q}.

(v) • Montrons que (¬BJbK ∧ P ) ⇒ Q.


Soit s tel que (¬BJbK ∧ P ) s = >. On a alors BJbK s = ⊥ et P s = >.
Par la règle [while ⊥
ns ], on a hwhile b do S, si → s. Ainsi par définition de
wlp(while b do S, Q), on a Q s = >. Cela montre l’implication voulue.
• Montrons que (BJbK ∧ P ) ⇒ wlp(S, P ).
Soit s tel que (BJbK ∧ P ) s = >. On a alors BJbK s = > et P s = >. Soit s0 tel
que hS, si → s0 et montrons que P s0 = >. Comme P = wlp(while b do S, Q),
prenons s00 tel que hwhile b do S, s0 i → s00 et montrons que Q s00 = >. D’après
[while >
ns ], on a
hwhile b do S, si → s00
donc Q s00 = > puisque wlp(while b do S, Q) s = P s = >. Ainsi par définition
de wlp(while b do S, Q) et de P , comme hwhile b do S, s0 i → s00 , on a

P s0 = wlp(while b do S, Q) s0 = >.

826
Logique et preuves

Par conséquent, par définition de wlp(S, P ), comme hS, si → s0 , on a

wlp(S, P ) s = >.

Cela montre l’implication voulue.


• Montrons que `p {wlp(while b do S, Q)}while b do S{Q}.
Par hypothèse d’induction, on a `p {wlp(S, P )}S{P }. Par la règle de la
conséquence [cons H ] et la deuxième implication que l’on vient de montrer,
on a
`p {BJbK ∧ P }S{P }.
Par la règle du while [while H ], on a alors

`p {P }while b do S{¬BJbK ∧ P }.

Enfin, par la règle de la conséquence [cons H] et la première implication que


l’on vient de montrer, on a

`p {P }while b do S{Q}.

c) Soient P et Q deux prédicats et S une instruction. Supposons que p {P }S{Q}.


On veut montrer `p {P }S{Q}. D’après la question b), on a montré par induction
sur S que
`p {wlp(S, Q)}S{Q}.
De plus, on a montré à la question a) que P ⇒ wlp(S, Q). On peut donc utiliser
la règle de la conséquence [cons H ] qui donne immédiatement que `p {P }S{Q}.
On a donc montré la complétude de la logique de Hoare pour la sémantique
opérationnelle à grands pas.

Commentaires.
© On appelle la plus faible précondition « wlp » pour weakest liberal precondition, il
faut voir wlp(S, Q) comme le prédicat le plus faible donnant Q après avoir exécuté
le programme S. Si on remplace wlp par un prédicat trop faible, l’hypothèse
d’induction ne suffira pas à conclure dans certains cas. À l’inverse, si on considère
un prédicat trop fort, le résultat de la question a) n’est plus valide.
© On ne parle ici que de correction partielle, d’où le p en indice du symbole `, c’est-
à-dire que l’on n’a pas d’information sur la terminaison. Cependant, il existe des
règles légèrement différentes pour donner à la fois la correction et la terminaison
de programmes, on parle alors de correction totale (voir [NN07, p.191]). La seule
instruction qui pourrait ne pas terminer est la boucle while, on va alors rajouter
un prédicat qui encode le variant de la boucle (qui décroît strictement dans N).
La règle usuelle [while H ] sera remplacée alors par
(
{P (z + 1)} S {P (z)} P (z) ⇒ BJbK pour tout z ∈ N∗ ,
avec
{∃zP (z)} while b do S {P (0)} P (0) ⇒ ¬BJbK.

827
130. Complétude de la logique de Hoare

© Pour optimiser la durée du développement, on pourrait admettre le cas de


l’affectation et le cas if par exemple, afin de traiter un cas d’école (skip par
exemple) et un exemple où on montre la puissance de la plus faible précondition
(le cas du while par exemple).
© Pour la preuve de la correction de la logique de Hoare, on procède par induction
sur la structure de l’arbre (voir [NN07, p.184]). C’est une démonstration classique
pour un système de preuve qui utilise des règles inductives sur la structure des
objets qu’on manipule. La correction de la déduction naturelle ou du calcul des
séquents en logique propositionnelle et du premier ordre utilise ce procédé.
© Dans la question b)(i), on a en fait Q = wlp(skip, Q). En effet, pour l’implication
réciproque, soit s tel que Q s = >. Si s0 est un état tel que hskip, si → s0 , alors on
a nécessairement s0 = s, d’où Q s0 = Q s = >. Donc par définition de wlp, on a
wlp(skip, Q) s = >. Ainsi
Q ⇒ wlp(skip, Q).
Dans la question b)(ii), on a aussi Q[x → AJaK] = wlp(x := a, Q). En effet, soit s
tel que Q[x → AJaK] s = >. Si s0 est un état tel que hx := a, si → s0 , alors on a
nécessairement s0 = s[x 7→ AJaKs ], d’où

Q s[x 7→ AJaKs ] = Q[x → AJaK] s = >.

Donc par définition de wlp, on a wlp(x := a, Q) s = >. Ainsi

Q[x → AJaK] ⇒ wlp(x := a, Q).

© On peut vérifier la correction d’un programme écrit dans le langage IMP en


utilisant un arbre de preuve en logique de Hoare. En effet, si ce programme est
correct, la propriété de complétude assure qu’il existe un arbre correspondant.
Dans le domaine de la vérification de programmes, la difficulté provient du fait
qu’on ne sait pas construire cet arbre en général (sinon on pourrait décider la
correction d’un programme, ce qui est un problème indécidable via le théorème
de Rice). Plus précisément, la difficulté vient de la règle de conséquence, car on
ne peut pas déterminer a priori à quelles formules l’appliquer.
© En utilisant le résultat du Développement 131, on a alors la complétude de la
logique de Hoare pour la sémantique opérationnelle à petits pas.

828
Logique et preuves

Questions.
1. Justifier que Q[x → AJaK] s = Q s[x 7→ AJaKs ].
2. Représenter l’arbre de Factorielle(2) pour la sémantique à grands pas.
Algorithme 33 : Factorielle(n).
Entrée : un entier n > 0.
Sortie : l’entier n!.
1 x←n
2 y ←1
3 tant que x > 0 faire
4 y ←y×x
5 x←x−1
6 renvoyer y

3. Prouver la correction de Factorielle grâce à la logique de Hoare, c’est-à-dire


montrer que le triplet de Hoare « {n > 0}Factorielle(n){y = n!} » est vrai.
4. Montrer la correction de la logique de Hoare.

829
131. Équivalence entre deux sémantiques

Développement 131 (Équivalence entre deux sémantiques FFF)

On rappelle les différentes règles de la sémantique opérationnelle à grands pas


(resp. petits pas), notée → (resp. ⇒), dans l’annexe page 850 (resp. page 851).

On veut montrer que ces deux sémantiques sont équivalentes, c’est-à-dire que
pour toute instruction S et pour tous états s, s0 , on a

hS, si → s0 si et seulement si hS, si ⇒∗ s0 .

a) Sens direct.
(i) Montrer que, pour toute instruction S1 , S2 et pour tous états s, s0 tels
que hS1 , si ⇒∗ s0 , on a hS1 ; S2 , si ⇒∗ hS2 , s0 i.
(ii) Montrer par induction sur l’arbre de dérivation le sens direct.
b) Sens indirect.
(i) Montrer que, pour toute instruction S1 , S2 , pour tout s, s0 et pour tout
k > 2, si hS1 ; S2 , si ⇒k s0 alors il existe k1 , k2 ∈ N∗ tels que k1 + k2 = k,
hS1 , si ⇒k1 s00 et hS2 , s00 i ⇒k2 s0 .
(ii) Montrer par récurrence sur le nombre de pas le sens indirect.

Leçons concernées : 930

L’équivalence entre les différentes sémantiques est un point clé de la leçon 930,
puisqu’elle justifie la cohérence des différentes sémantiques que l’on peut donner
à un langage de programmation.

Correction.
a) (i) On procède par récurrence sur le nombre de pas. On pose

HRk : « pour tout S1 , S2 , s, s0 , si hS1 , si ⇒k s0 alors hS1 ; S2 , si ⇒∗ hS2 , s0 i ».

• Pour k = 1, on a hS1 , si ⇒ s0 donc, par la règle de composition [comp 2 ],


sos on
a
hS1 ; S2 , si ⇒ hS2 , s0 i,
ce qui montre HR1 .
• On suppose que HRk est vraie pour un certain entier k > 1.
Soient S1 , s, s0 tels que hS1 , si ⇒k+1 s0 . On note hS1 , si ⇒ hS10 , s00 i la première
dérivation de telle sorte que hS10 , s00 i ⇒k s0 . D’après HRk , on a

hS10 ; S2 , s00 i ⇒∗ s0 .

Puisque hS1 , si ⇒ hS10 , s00 i, la règle de composition [comp 1 ]


sos fournit alors

hS1 ; S2 , si ⇒ hS10 ; S2 , s00 i ⇒∗ s0 ,

d’où HRk+1 .

830
Logique et preuves

Ainsi, pour tout k ∈ N∗ , si hS1 , si ⇒k s0 , alors hS1 ; S2 , si ⇒∗ hS2 , s0 i.


(ii) On procède par induction sur la structure de l’arbre de dérivation.
• cas skip : les deux règles [skip sos ] et [skip ns ] sont les mêmes donc possèdent
la même sémantique.
• cas aff : les deux règles [aff sos ] et [aff ns ] sont les mêmes donc possèdent la
même sémantique.
• cas comp : supposons que hS1 ; S2 , si → s0 soit obtenu à partir de la règle
[comp ns ], c’est-à-dire
hS1 , si → s00 aaa hS2 , s00 i → s0
hS1 ; S2 , si → s0
pour un certain état s00 . En appliquant l’hypothèse d’induction sur les pré-
misses, on a
hS1 , si ⇒∗ s00 et hS2 , s00 i ⇒∗ s0 .
Par la question a)(i), on a hS1 ; S2 , si ⇒∗ hS2 , s00 i, d’où
hS1 ; S2 , si ⇒∗ hS2 , s00 i ⇒∗ s0 .

• cas if : pour ./ ∈ {>, ⊥}, supposons que hif b then S> else S⊥ , si → s0 soit
obtenu à partir de la règle [if ./
ns ], c’est-à-dire

hS./ , si → s0
où BJbKs = ./ .
hif b then S> else S⊥ , si → s0
./
Par hypothèse d’induction, on a hS./ , si ⇒∗ s0 . Or la règle [if sos ] nous donne
hif b then S> else S⊥ , si ⇒ hS./ , si, d’où
hif b then S> else S⊥ , si ⇒ hS./ , si ⇒∗ s0 .

• cas while> : supposons que hwhile b do S, si → s00 soit obtenu à partir de la


règle [while >
ns ], c’est-à-dire

hS, si → s0 hwhile b do S, s0 i → s00


où BJbKs = >,
hwhile b do S, si → s00
pour un certain état s0 . Par hypothèse d’induction, on a
hS, si ⇒∗ s0 et hwhile b do S, s0 i ⇒∗ s00 .
Or la règle du [while sos ] nous donne
hwhile b do S, si ⇒ hif b then (S; while b do S) else skip, si.
D’où
hwhile b do S, si ⇒ hif b then (S; while b do S) else skip, si
⇒ hS; while b do S, si car BJbKs = >
∗ 0
⇒ while b do S, s en utilisant la question a)(i)
∗ 00
⇒ s .

831
131. Équivalence entre deux sémantiques

• cas while⊥ : supposons que hwhile b do S, si → s soit obtenu à partir de la


règle [while ⊥
ns ]. La règle du [while sos ] nous donne

hwhile b do S, si ⇒ hif b then (S; while b do S) else skip, si.

D’où

hwhile b do S, si ⇒ hif b then (S; while b do S) else skip, si


⇒ hskip, si car BJbKs = ⊥
⇒s en utilisant [skip sos ].

Ce qui conclut l’induction.


b) (i) On procède par récurrence forte sur le nombre de pas.
• Pour k = 2, si hS1 ; S2 , si ⇒2 s0 , par définition de la règle de composition
[comp sos ] on a forcément hS1 , si ⇒ s00 et hS2 , s00 i ⇒ s0 . Ainsi on a bien k1 = 1
et k2 = 1 avec k1 + k2 = 2, ce qui montre le cas d’initialisation.
• Pour k > 2, on suppose que la propriété est vraie pour tout ` < k. Soit s0 tel
que hS1 ; S2 , si ⇒k s0 .
+ Supposons que la dérivation s’écrit hS1 ; S2 , si ⇒ hS2 , s00 i ⇒k−1 s0 avec s00
vérifiant hS1 , si ⇒ s00 . Alors on obtient directement le résultat avec k1 = 1
et k2 = k − 1.
+ Sinon, la dérivation s’écrit hS1 ; S2 , si ⇒ hS10 ; S2 , s00 i ⇒k−1 s0 avec s00 et S10
vérifiant hS1 , si ⇒ hS10 , s00 i.
Par hypothèse de récurrence, il existe deux entiers non nuls k1 et k2 de
somme k − 1 tels que

hS10 , s00 i ⇒k1 s000 et hS2 , s000 i ⇒k2 s0 ,

ce qui donne
hS1 , si ⇒ hS10 , s00 i ⇒k1 s000 .
On a donc
hS1 , si ⇒k1 +1 s000 et hS2 , s000 i ⇒k2 s0
avec (k1 + 1) + k2 = k − 1 + 1 = k, ce qui conclut l’hérédité et la preuve
par récurrence.
(ii) On procède par récurrence forte sur le nombre de pas. On pose

HRk : « pour tout S, s, s0 , si hS, si ⇒k s0 , alors hS, si → s0 ».

• Pour k = 1, les seuls cas possibles sont skip et l’affectation qui ont les mêmes
règles dans les deux sémantiques, ce qui montre HR1 .
• Pour k > 1, on suppose que HR` est vraie pour tous les rangs ` < k. On
distingue différents cas selon la forme de l’instruction S.

832
Logique et preuves

+ cas comp : S est de la forme S1 ; S2 , c’est-à-dire hS1 ; S2 , si ⇒k s0 , ainsi en


utilisant la question b)(i), on a
hS1 , si ⇒k1 s00 et hS2 , s00 i ⇒k2 s0 avec k1 + k2 = k.
Or k1 , k2 > 1, donc k1 , k2 < k, on peut donc appliquer l’hypothèse de
récurrence afin obtenir
hS1 , si → s00 et hS2 , s00 i → s0 .
Ainsi, par la règle [comp ns ], on a hS1 ; S2 , si → s0 .
+ cas if : S est de la forme if b then S> else S⊥ , c’est-à-dire
hif b then S> else S⊥ , si ⇒k s0 .
./
Pour tout ./ ∈ {>, ⊥}, si BJbKs = ./, alors, par la règle [if sos ], on a
hif b then S> else S⊥ , si ⇒ hS./ , si ⇒k−1 s0 .
Ainsi, par hypothèse de récurrence, on a hS./ , si → s0 . Donc, par la règle
[if ./ 0
ns ], on a hif b then S> else S⊥ , si → s .
+ cas while : l’instruction est de la forme while b do S, c’est-à-dire
hwhile b do S, si ⇒k s0 .

Cette dérivation commence nécessairement par


hwhile b do S, si ⇒ hif b then (S; while b do S) else skip, si
par la règle [while sos ].
Si BJbKs = >, la dérivation s’écrit
hwhile b do S, si ⇒2 hS; while b do S, si ⇒k−2 s0
par la règle [if >
sos ].
Par la question b)(i), il existe k1 et k2 tels que
hS, si ⇒k1 s00 et while b do S, s00 ⇒k2 s0 avec k1 + k2 = k − 2 < k.
Ainsi par hypothèse de récurrence, on a
hS, si → s00 et while b do S, s00 → s0 .
>
On peut conclure en utilisant la règle [while ns ], pour avoir
hwhile b do S, si → s0 .

Et si BJbKs = ⊥, la dérivation s’écrit


hwhile b do S, si ⇒2 hskip, si ⇒ s
⊥ ⊥
par la règle [if sos ]. En particulier, on a s0 = s. Or la règle [while ns ] nous
donne
hwhile b do S, si → s,
ce qui conclut le cas ⊥.

833
131. Équivalence entre deux sémantiques

Ainsi, pour toute instruction S et pour tous états s et s0 , si hS, si ⇒∗ s0 , alors


hS, si → s0 .

Commentaires.
© Il y a aussi une équivalence entre la sémantique dénotationnelle et la sémantique
opérationnelle à petits pas. Le résultat de ce développement fournit alors aussi une
équivalence entre la sémantique dénotationnelle et la sémantique opérationnelle à
grands pas.
© Dans le sens direct, on décompose les grands pas en petit pas et dans le sens
indirect, on essaye de regrouper ensemble les petits pas qui correspondent à un
même grand pas.
© Il peut être judicieux de donner les résultats des questions a)(i) et b)(i) sous
forme de lemmes écrits dans le plan et donc de s’affranchir de cette partie lors du
développement. De plus, dans un souci de temps, on pourrait admettre certains
points des cas inductifs (surtout s’ils ressemblent à des cas déjà traités).
© On ne peut pas faire l’induction de la question a)(ii) sur la structure de
l’instruction, puisque la même instruction peut apparaître à différents endroits
dans l’arbre de dérivation (par exemple dans le cas du while). En revanche, chacune
de ces occurrences apparaît dans la racine d’un sous-arbre de dérivation de plus
petite hauteur, ce qui justifie l’induction sur la structure de l’arbre.
© On a prouvé que les deux sémantiques sont équivalentes, mais chacune possède
ses propres avantages. Par exemple, la sémantique à grands pas permet d’être plus
concis car on n’explicite pas chaque pas de calcul. En revanche, la sémantique à
petits pas permet une localisation plus précise des erreurs : l’erreur est localisée à
l’instruction près, alors que la sémantique à grands pas localisera uniquement la
boucle où se situe l’erreur.

Questions.
1. Montrer que les instructions while b do S et if b then S; while b do S else skip
sont équivalentes pour la sémantique opérationnelle à grands pas.
2. Écrire des règles de sémantique à grands et petits pas pour gérer les instructions
repeat S until b, et montrer que l’équivalence est préservée.
3. Montrer que le langage IMP muni de la sémantique opérationnelle à petits
pas (ou à grands pas) est déterministe, i.e. il y a unicité de l’état sortant s0 après
exécution d’une instruction S à partir d’un état s.

834
Compléments d’informatique
Schémas algorithmiques

On va classer quelques algorithmes dans différents paradigmes :


• diviser pour régner,
• programmation dynamique,
• algorithmique gloutonne.
Cela est très utile pour la leçon 931 portant sur les schémas algorithmiques. Il
existe bien d’autres paradigmes de programmation, comme le backtracking ou les
algorithmes par séparation et évaluation (ou branch and bound en anglais). On
peut trouver des exemples dans le livre [CLRS10].

1 Diviser pour régner


Le paradigme « diviser pour régner » consiste à résoudre le problème sur une
instance d’une taille n en utilisant la résolution du même problème sur des instances
plus petites (dans l’exemple, n/2 puis n/4) et en fusionnant les différentes solutions.
Souvent, on résout alors récursivement le problème.

n/2 n/2

n/4 n/4 n/4 n/4

Voici quelques exemples d’utilisation de ce paradigme :


• recherche dichotomique,
• exponentiation rapide,
• tri fusion,
• tri rapide,
• algorithme de Karatsuba,
• algorithme de Strassen,
• algorithme de Hopcroft pour le calcul de l’automate minimal (voir [Car14]),
• preuve du théorème de Savitch.
Schémas algorithmiques

2 Programmation dynamique
Le terme de « programmation dynamique » est introduit par Richard Bellman
dans les années 1940, le mot « programmation » voulait faire référence à l’origine
à un programme optimal dans un sens militaire (logistique, emploi du temps) et
le mot « dynamique » serait, selon certains, introduit pour impressionner et pour
surpasser le terme « programmation linéaire ». Le paradigme de programmation
dynamique consiste à résoudre des sous-instances du problème initial puis de
reconstruire une solution du problème global. Les solutions intermédiaires sont
alors stockées en mémoire afin de ne pas recalculer des solutions aux problèmes
déjà rencontrés. Ce procédé est appelé mémoïsation. Ainsi on part des plus petites
instances pour construire une solution du problème global, contrairement au
paradigme diviser pour régner où on part du problème global qu’on découpe en
sous-instances.
solutions des sous-sous-instances

solutions des sous-instances


solution globale

La plupart du temps, la programmation dynamique est découpée en quatre étapes :


• caractérisation de la solution optimale,
• définition de la valeur d’une solution optimale,
• calcul de la valeur d’une solution optimale,
• construction d’une solution optimale à partir des informations déjà calculées.
Exemple : pour la plus longue sous-séquence commune de deux mots, on a un
théorème qui caractérise récursivement le fait d’être une plus longue sous-séquence
commune (étape 1), la valeur attribuée à une plus longue sous-séquence commune
est sa longueur (étape 2), on trouve un algorithme pour calculer la longueur des
plus longues sous-séquences communes de sous-instances (étape 3) et enfin on
construit une plus longue sous-séquence commune en retraçant l’exécution de
l’algorithme précédent (étape 4).
Voici quelques exemples d’utilisation de ce paradigme :
• calcul des coefficients binomiaux,
• calcul de la suite de Fibonacci,
• découpe d’une barre,
• calcul de la distance d’édition,
• plus longue sous-séquence commune,
• algorithme de Floyd-Warshall,
• algorithme de Cocke-Younger-Kasami,
• arbre binaire de recherche optimal.

837
3 Algorithmique gloutonne
Le paradigme d’algorithmique « gloutonne » consiste à choisir, à chaque pas de
calcul, un choix optimal localement en espérant atteindre un optimum global. En
général, on parle alors d’heuristique puisqu’on n’atteint pas toujours un optimum
global. Un exemple de cas non optimal est le rendu de monnaie avec le minimum
de pièces, si on a comme choix de pièces 5, 10, 20 et 25 et que l’on veut atteindre
la somme 40, un algorithme glouton donnera 40 = 25 + 10 + 5, alors qu’on
peut trouver une meilleure solution : 40 = 20 + 20. Cependant, pour les pièces
50, 20, 10, 5, 2, 1, l’algorithme glouton renvoie une solution optimale. La coloration
d’un graphe admet un algorithme glouton qui n’est pas optimal.
Voici quelques exemples d’utilisation de ce paradigme :
• algorithme de Dijkstra,
• algorithme de Prim,
• algorithme de Kruskal,
• codage de Huffman,
• problème de rendu de monnaie.

838
Bases de données

Une base de données est une structure qui permet d’organiser un grand nombre de
données. Elles seront répertoriées par catégorie, appelée attribut, dans différents
tableaux, appelés relations, ce qui formera la base de données. Cette dernière
permettra de faire des liens entre les différentes informations qui y sont présentes.
Voici un exemple de base de données qui nous servira tout au long de cette annexe :

Films Titre Réalisateur Acteur


Didier A. Chabat A. Chabat
Au Poste Q. Dupieux G. Ludig
Réalité Q. Dupieux A. Chabat
Astérix A. Chabat E. Baer

Séances Cinéma Horaires Titre


Trianon 12h 00 Au Poste
La place 20h 50 Didier
Exnior 13h 30 Réalité
Exnior 13h 30 Didier

Pour accéder aux informations de la bases de données, on va formuler des requêtes


qui répondront à des questions de la forme suivante :
Q1 : Quels films ont été réalisés par A. Chabat ?
Q2 : Quels sont les films réalisés par A. Chabat ou Q. Dupieux ?
Q3 : Quels sont les films de Q. Dupieux dans lesquels A. Chabat ne joue pas ?
Les requêtes permettent de donner un moyen générique de répondre à ces questions
sans avoir à créer un programme informatique pour chaque question. Sans base
de données, on serait amené à modifier le programme en fonction de la structure
de données que l’on utiliserait et son code serait beaucoup plus long que les
différentes requêtes que l’on exprimera.
Donnons maintenant le formalisme que l’on met sur les bases de données.

1 Formalisme
Soient des ensembles au plus dénombrables distincts suivants :
• de variables Var = {x, y, z, . . .},
• d’attributs Att (ici, Cinéma, Titre, Acteur,...),
• de domaines Dom (ici, Didier, Q. Dupieux, 20h 50, Réalité, Exnior,...),
• de noms de schéma de relation RelName (ici, Films et Séances).

Définition 67 (Association nom de schéma de relation/attribut)


On se donne une fonction Sort : RelName → Pf (Att) qui à R ∈ RelName
associe un nombre fini d’attributs.
Définition 68 (Arité)
On dira que, pour R ∈ RelName, la quantité |Sort(R)| est l’arité de R.
Définition 69 (Schéma de relation)
Un élément R ∈ RelName est un schéma de relation. On notera R[U ] pour
préciser les attributs U = Sort(R) de R.

Exemple : R = Films[Titre, Réalisateur, Acteur] est un schéma de relation.


Définition 70 (Schéma de base de données)
Un schéma de base de données est un nombre fini de schémas de relation
R(1) [U (1) ], . . . , R(n) [U (n) ]. On notera R = {R(1) [U (1) ], . . . , R(n) [U (n) ]}.
Exemple : l’ensemble suivant est un schéma de relation sur lequel est donné la
base de données de l’exemple ci-avant
R = {Films[Titre, Réalisateur, Acteur], Séances[Cinéma, Horaires, Titre]}.

Définition 71 (Tuple)
Un tuple sur un schéma de relation R[U ] est une fonction u : U → Dom. On
notera le tuple par

u = hU1 : u(U1 ), . . . , Un : u(Un )i

où U = {U1 , . . . , Un }. On s’autorisera à noter u = hu(U1 ), . . . , u(Un )i s’il n’y a


pas ambiguïté des attributs.

Exemple : des tuples sur le schéma de relation Films[Titre, Réalisateur, Acteur]

hTitre : Didier, Réalisateur : A. Chabat, Acteur : A. Chabati,

hTitre : La Sorcière, Réalisateur : P. Lebar, Acteur : L. Geoffroyi.


Le premier est un tuple qui apparaît dans la relation Films ci-avant tandis que
le deuxième tuple n’y apparaît pas, cependant ce dernier reste un tuple sur le
schéma de relation Films[Titre, Réalisateur, Acteur].
Définition 72 (Tuple libre)
Un tuple libre sur un schéma de relation R[U ] est une fonction

u : U → Dom ∪ Var.

Exemple : hx, A. Chabat, yi est un tuple libre.

840
Bases de données

Définition 73 (Relation)
Une relation I (appelée parfois table) sur un schéma de relation R[U ] est un
nombre fini de tuples sur R[U ].

Exemple : la table Films[Titre, Réalisateur, Acteur] ci-avant est une relation.


Définition 74 (Base de données)
Une base de données I sur un schéma de base de données R est un ensemble
fini de relations, où chaque relation I est sur un schéma de relation R[U ] ∈ R.

Exemple : l’ensemble des tables de l’exemple considéré est une base de données.

On veut maintenant pouvoir effectuer des requêtes sur les bases de données afin
d’en extraire des informations. Pour cela, on va donner plusieurs approches qui
sont de plus en plus expressives. Autrement dit, on pourra exprimer de plus en
plus de types différents de questions.

2 Requêtes conjonctives
Règles conjonctives
Définition 75 (Règle conjonctive)
Une règle conjonctive sur R est une expression de la forme
   
ans(u) ← R(1) u(1) , . . . , R(n) u(n)

où u, u(1) , . . . , u(n) sont des tuples libres sur des relations R(i) ∈ R et ans ∈
/ R.

Exemple : ans(x) ← Films(x, A. Chabat, y) est une règle conjonctive.


Il faut interpréter la règle conjonctive comme étant la demande de l’information x
dans les tuples hx, A. Chabat, yi qui sont présents dans la table Films (où y est
libre).

Définition 76 (Valuation)
Une valuation ν sur Var est une fonction ν : Var → Dom. On la prolonge sur
les tuples libres en imposant que ν|Dom = Id|Dom .
Définition 77 (Sémantique  d’une
 règleconjonctive)

Soit q = ans(u) ← R (1) u(1) , . . . , R(n) u(n) une règle conjonctive. La sé-
mantique de la règle conjonctive q est l’application I 7→ q(I) où I est une base
de données sur R et
n  o
q(I) = ν(u) : ν une valuation sur Var(q) et ∀i ∈ J1, nK , ν(ui ) ∈ I I (i)

avec I (i) la i-ème relation parmi les n relations de la base de données I.

Exemple : pour q = ans(x) ← Films(x, A. Chabat, y), on définit sa sémantique


pour la table I = Films ci-avant par
q(I) = {hDidieri, hAstérixi}.

841
On a demandé l’information x des tuples hx, A. Chabat, yi de la table Films. Les
entrées de cette forme dans la table Films sont hDidier, A. Chabat, A. Chabati et
hAstérix, A. Chabat, E. Baeri et on ne garde que la première composante dans q(I).
On a donc répondu à la question Q1 .
Définition 78 (Domaine actif)
Le domaine actif de I (resp. de q, q(I)), noté adom(I) (resp. adom(q),
adom(q(I))) est l’ensemble des éléments de Dom qui sont présents dans I
(resp. q, q(I)).

On remarque que l’on a adom(q(I)) ⊂ adom(q) ∪ adom(I).

Calcul conjonctif
Définition 79 (formule du calcul conjonctif)
Soit un schéma de base de données R. Une formule du calcul conjonctif est de
la forme
• R[u], avec u un tuple libre sur R[U ] et R[U ] ∈ R ;
• φ ∧ ψ avec φ et ψ des formules du calcul conjonctif ;
• ∃x φ, avec x ∈ Var et φ une formule du calcul conjonctif.
Définition 80 (requête du calcul conjonctif)
Une requête du calcul conjonctif q sur R est une expression de la forme

q = {e1 , . . . , en | ϕ}

où he1 , . . . , en i est un tuple libre, ϕ une formule du calcul conjonctif et l’en-


semble des variables libres de ϕ est {e1 , . . . , en }.
Définition 81
Soient un schéma de base de données R, une formule du calcul conjonctif ϕ
sur R et une valuation ν sur les variables libres de ϕ. On dit que la base de
données I sur R satisfait ϕ pour ν, noté I  ϕ[ν], si
• pour ϕ = R[u], on a ν(u) ∈ I ;
• pour ϕ = φ ∧ ψ, on a I  φ[ν] et I  ψ[ν] ;
• pour ϕ = ∃x φ, il existe c ∈ Dom tel que I  φ[ν ∪ [x 7→ c]].
Définition 82
Soit q = {e1 , . . . , en | ϕ}. La sémantique de la requête q du calcul conjonctif est
l’application I 7→ q(I) où q(I) est donnée par

q(I) = {ν(he1 , . . . , en i) : ν une valuation sur les variables libres de ϕ


et I  ϕ[ν]}.

Exemple : pour répondre à la question Q1 , on écrit

q = {x | ∃y Films(x, A. Chabat, y)}.

842
Bases de données

Théorème 8
Le calcul conjonctif et les règles conjonctives sont équivalentes, i.e. pour toute
règle conjonctive, il existe une requête en calcul conjonctif ayant la même
sémantique et pour toute requête en calcul conjonctif, il existe une règle
conjonctive ayant la même sémantique.

Toutes les requêtes conjonctives sont finies, i.e. leur sémantique sur toute base de
données est un ensemble fini.

3 L’algèbre SPC
Définition 83 (Algèbre SPC)
On définit les trois opérations suivantes sur I, J ∈ I qui formeront l’algèbre SPC
pour « Selection-Projection-Cartesian product ».
• Sélection :
σj=a (I) = {t ∈ I : t(j) = a}
où j est un attribut, a un élément du domaine et t un tuple. On peut aussi
définir σj=k (I) = {t ∈ I : t(j) = t(k)} où j, k ∈ Att et t est un tuple.
On sélectionne seulement les tuples qui vérifient certaines propriétés.
• Projection : Y
(I) = {ht(j1 ), . . . , t(jn )i : t ∈ I}
j1 ,...,jn

où les éléments j1 , . . . , jn sont des attributs. On sélectionne seulement


certains attributs des tuples de I.
• Produit cartésien :

I × J = {ht(1), . . . , t(n), s(1), . . . , s(m)i : t ∈ I, s ∈ J}

où n = arité(I) et m = arité(J).
Définition 84 (Requête de l’algèbre SPC)
On appelle requête de l’algèbre SPC un enchaînement fini de ces trois opérations.

Exemple : pour répondre à la question Q1 , on peut écrire la requête


Q
Titre (σRéalisateur=A. Chabat (Films)) .

Définition 85 (Jointure naturelle)


Pour relier deux relations I et J d’une base de données qui auraient des
attributs en commun, on peut effectuer une jointure naturelle qui s’écrit

I ./ J = Π attributs deux σ valeurs égales sur (I × J).


à deux disjoints les attributs communs

Remarque : on peut décliner cette notion de jointure, en reliant deux bases de


données selon d’autres critères que des attributs communs.

Exemple : la table Films ./ Séances est de la forme

843
Cinéma Horaires Titre Réalisateur Acteur
La place 20h 50 Didier A. Chabat A. Chabat
Exnior 13h 30 Didier A. Chabat A. Chabat
Trianon 12h 00 Au Poste Q. Dupieux G. Ludig
Exnior 13h 30 Réalité Q. Dupieux A. Chabat

Définition 86 (Satisfiabilité)
On dit qu’une requête q est satisfiable s’il existe une base de données I telle
que q(I) soit non vide.

Toutes les requêtes de l’algèbre SPC sont finies mais pas forcément satisfiables.
Q
Exemple : la requête A σA=0 σA=1 (I) est insatisfiable.

Théorème 9
Il y a équivalence entre les requêtes par règles conjonctives, le calcul conjonctif
et les requêtes satisfiables de l’algèbre SPC.

Pour l’instant, on ne peut pas répondre aux questions Q2 et Q3 . C’est la raison


pour laquelle on va introduire de nouvelles opérations.

4 L’algèbre relationnelle et le calcul relationnel


Ajout de l’union
Définition 87 (Algèbre SPCU)
On ajoute l’union dans l’algèbre SPC (qui devient alors l’algèbre SPCU avec U
pour « Union ») en autorisant la sélection σj=a ou j=b .
Proposition 7
Les requêtes du calcul conjonctif auquel on ajoute le connecteur logique « ou »,
noté ∨, les règles conjonctives auxquelles on ajoute le « ou » et les requêtes
satisfiables de l’algèbre SPCU sont équivalentes.

Exemple : on peut maintenant répondre à la question Q2 en exprimant la requête


Q 
Titre σRéalisateur=A. Chabat ou Réalisateur=Q. Dupieux (Films) .

Cette requête renvoie le titre des films présents dans la relation Films dont le
réalisateur est A. Chabat ou Q. Dupieux.
Remarque : cependant, l’ajout de l’union entraîne l’apparition de requêtes infinies.
Exemple : la requête {x, y | R(x) ∨ R(y)} où R(x0 ) = 1 pour un certain x0 ∈ Dom
est infinie. En effet, pour tout y ∈ Dom, on a R(x0 ) ∨ R(y) = 1. Ainsi, pour un
domaine fini, on a une requête infinie.

Définition 88 (Requête sûre)


On dit qu’une requête q est sûre si |q(I)| < +∞ pour toute base de données I
sur R.

844
Bases de données

On définit le problème consistant à déterminer si une requête est sûre.



entrée :

 une requête q en calcul relationnel ;
RelSure sortie : oui si |q(I)| < +∞ pour toute base de données I,


 non sinon.
Le problème RelSure est indécidable.

Ajout de la négation
Définition 89 (Algèbre SPCUD)
On ajoute la différence ensembliste dans l’algèbre SPCU, notée \, qui devient
alors l’algèbre relationnelle SPCUD avec D pour « Difference ».
Définition 90 (Calcul relationnel)
Le calcul relationnel est obtenu à partir des formules du calcul conjonctif en
ajoutant le connecteur logique de négation, noté ¬.

On peut donc exprimer le quantificateur universel ∀.


Exemple : on peut maintenant répondre à la question Q3 en exprimant la requête

σRéalisateur=Q. Dupieux (Films) \ σActeur=A. Chabat (Films) .
Q
Titre

Cette requête renvoie le titre des films présents dans la relation Films dont le
réalisateur est Q. Dupieux et qui n’a pas pour acteur A. Chabat.
Remarque : la négation apporte d’autres requêtes infinies.
Exemple : la requête {x | ¬R(x0 )} pour x0 ∈ Dom est infinie. En effet, pour tout
x ∈ Dom \ {x0 }, on a ¬R(x0 ) = 1. Ainsi, pour un domaine infini, on a une requête
infinie.
Pour une base de données I sur R, on restreint le domaine au domaine actif ainsi,
pour une requête et une relation fixées, la requête sera finie.
Théorème 10
Restreints au domaine actif, l’algèbre relationnelle SPCUD et le calcul rela-
tionnel sont équivalents.

Les problèmes suivants sont indécidables :


(
entrée : une requête q en calcul relationnel ;
RelSat
sortie : oui s’il existe I telle que q(I) 6= ∅, non sinon.
(
entrée : deux requêtes q et q 0 du calcul relationnel ;
RelEqu
sortie : oui si q et q 0 sont sémantiquement équivalentes, non sinon.

On montre l’indécidabilité de RelSat dans le Développement 129.

845
Commentaires.
© On peut chercher à optimiser les opérations d’écriture et de lecture dans la
base de données. On peut par exemple utiliser des B-arbres comme il est montré
dans le Développement 107.
© L’intérêt des différentes relations dans une base de données est de pouvoir
coupler les informations. On dit qu’un attribut (ou un ensemble d’attributs)
est une clé s’il n’y a pas deux tuples avec cet attribut identique (ou l’ensemble
d’attributs identique). On parle de clé primaire si la clé est choisie pour identifier
(rôle d’identifiant dans la table) et de clé étrangère si elle est clé primaire d’une
autre table de la base de données. Par exemple, dans la base de données que
l’on considère, on pourrait se demander « Dans quel cinéma peut-on voir un film
réalisé par A. Chabat ? », il va falloir utiliser les informations des deux relations
et les associer sur l’attribut « Titre », cet attribut est une clé primaire de la table
Film et une clé étrangère de la table Séances.
© En pratique, on utilise les bases de données pour modéliser des situations
concrètes. On peut identifier des objets comme les plaques d’immatriculation pour
les voitures, les numéros de sécurité sociale pour des clients, etc.
© Notamment utilisée dans les années 1970 et 1980, la méthode MERISE permet
de concevoir et de gérer des projets informatiques. En partant d’une situation
réelle, on la modélise en un schéma (ou modèle) conceptuel des données (MCD)
en associant des entités et des notions d’association, par exemple, les entités
enseignant et cours sont associées par le lien enseigner. Une fois le MCD créé,
il faut le transformer en un schéma (ou modèle) logique des données (MLD),
c’est-à-dire que les entités deviennent des relations de base de données et les
identifiants des clés d’identification dans les différentes relations. Enfin, on peut
coder la base de données afin d’obtenir le modèle physique des données (MPD).
© Pour manipuler les bases de données, il faut un système de gestion de bases
de données, dit SGBD, qui est un logiciel qui manipule le langage des bases de
données, dit SQL, pour « Structured Query Language ». Les principaux SGBD
sont Oracle, MySQL et Microsoft SQL Server.

846
Sémantiques des langages de
programmation

Une sémantique d’un langage de programmation est une fonction S qui à une
instruction S et un état mémoire s associe un état mémoire s0 . Ce dernier état
mémoire est interprété comme un état mémoire sortant après exécution de l’ins-
truction S sur l’état mémoire initial s.
On peut définir une fonction de sémantique S de différentes manières. Nous
verrons deux manières différentes :
• la sémantique « opérationnelle », qui décrit la suite des pas de calcul pendant
l’exécution du programme.
• la sémantique « dénotationnelle », qui décrit le programme informatique
comme une fonction au sens mathématique du terme.
On va étudier trois sémantiques différentes (deux sémantiques opérationnelles
et une sémantique dénotationnelle) d’un langage de programmation « jouet »
dénoté IMP pour langage « IMPératif ». Tous les résultats sont détaillés dans le
livre [NN07].

1 Le langage IMP
Le langage IMP modélise un langage de programmation basique manipulant uni-
quement des entiers et des variables, et possédant des instructions conditionnelles.
Les instructions instruc du langage IMP sont définies par la grammaire dont les
règles sont :

S → skip | x := a | S; S | if b then S else S | while b do S


• skip représente l’instruction vide (qui ne fait rien),
• x := a représente l’affectation de la valeur a à la variable x où a est une
expression arithmétique,
• S1 ; S2 représente la séquence d’instructions (on va faire l’instruction S1 puis
l’instruction S2 ),
• if b then S1 else S2 représente la conditionnelle,
• while b do S représente la boucle non bornée où b est une expression boo-
léenne.
On a ainsi besoin d’introduire des expressions arithmétiques Aexp pour manipuler
les entiers, et des expressions booléennes Bexp pour exprimer des conditions.
Variables et mémoire
On définit les variables Var par un ensemble de symboles {x, y, z, . . .}. Chaque
état de la mémoire est une fonction qui à chaque variable associe sa valeur. On
pose donc
mem = ZVar = (Var → Z).
On notera les états de la mémoire sous la forme s = [x 7→ 2, y 7→ 7, . . . ]. On peut
supposer que la mémoire est totale, i.e. toutes les variables sont affectées à une
valeur, par exemple en initialisant toutes les variables à 0.

Expressions arithmétiques
Les expressions arithmétiques, notées Aexp, sont les mots sur

(Var ∪ Z ∪ {(, ), +, −, ×})∗

définis par la grammaire dont les règles sont :

A → (A + A) | A × A | (A − A),
A → n, pour tout n ∈ Z,
A → x, pour tout x ∈ Var.

Soit l’application A : Aexp × mem → Z qui à chaque expression arithmétique


a ∈ Aexp et état mémoire s ∈ mem associe un entier, noté AJaKs , qui se définit
facilement par induction :

AJnKs = n;
AJxKs = s(x);
AJ(a1 + a2 )Ks = AJa1 Ks + AJa2 Ks ;
AJa1 × a2 Ks = AJa1 Ks × AJa2 Ks ;
AJ(a1 − a2 )Ks = AJa1 Ks − AJa2 Ks .

Remarque : la division n’a pas été considérée dans les opérations arithmétiques
pour éviter l’exception de la division par 0.

Souvent, on préfère voir la fonction A comme une fonction de signature

Aexp → (mem → Z).

Ainsi, A est une fonction qui à une expression a ∈ Aexp associe sa sémantique,
c’est-à-dire une fonction AJaK qui à un état s ∈ mem associe la valeur AJaKs .

Expressions booléennes
Les expressions booléennes, notées Bexp, sont les mots sur

(Aexp ∪ {(, ), =, 6, ¬, ∧})∗

848
Sémantiques des langages de programmation

définis par la grammaire dont les règles sont :

B → ¬B | (B ∧ B),
B → a1 = a2 , pour tout a1 , a2 ∈ Aexp,
B → a1 6 a2 , pour tout x ∈ Aexp.

Soit l’application B : Bexp × mem → {>, ⊥} qui à chaque expression booléenne


b ∈ Bexp et chaque état de la mémoire s ∈ mem associe un booléen, noté BJbKs ,
qui se définit facilement par induction :

BJ¬bKs = ¬BJbKs ;
BJ(b1 ∧ b2 )Ks = BJb1 Ks ∧ BJb2 Ks ;
(
> si AJa1 Ks = AJa2 Ks ,
BJa1 = a2 Ks =
⊥ si AJa1 Ks 6= AJa2 Ks ;
(
> si AJa1 Ks 6 AJa2 Ks ,
BJa1 6 a2 Ks =
⊥ si AJa1 Ks > AJa2 Ks .

Comme pour les expressions arithmétiques, on préfère voir la fonction B comme


une fonction de signature

Bexp → (mem → {>, ⊥}).

Ainsi, B est une fonction qui à une expression b ∈ Bexp associe sa sémantique,
c’est-à-dire une fonction BJbK qui à un état s ∈ mem associe le booléen BJbKs .

Substitution
La substitution est une opération syntaxique consistant à remplacer une variable x
par une expression a2 dans une expression a1 . Elle est notée a1 [x → a2 ] et définie
inductivement par :

n[x → a] = n, pour tout n ∈ Z;


x[x → a] = a;
y[x → a] = y, pour tout y ∈ Var \ {x};
(a1 + a2 )[x → a] = a1 [x → a] + a2 [x → a];
(a1 − a2 )[x → a] = a1 [x → a] − a2 [x → a];
(a1 × a2 )[x → a] = a1 [x → a] × a2 [x → a].

2 Sémantiques opérationnelles
Pour définir les sémantiques opérationnelles à grands pas et à petits pas, on va
procéder par induction sur les instructions du langage IMP. Ainsi, pour chaque
instruction S ∈ instruc et chaque état mémoire s ∈ mem, il faut définir dans
quel état mémoire s0 ∈ mem on se trouve après avoir exécuté S dans l’état s, si S
termine. On donnera les différentes règles des sémantiques opérationnelles par

849
règle d’inférence, i.e. d’un certain nombre de prémisses, on déduira des conclusions.
On représentera ces règles sous la forme
Prémisse1 · · · Prémissen
ou Axiome (s’il n’y a pas de prémisse).
Conclusion

Sémantique opérationnelle à grands pas


Plus formellement, on note hS, si → s0 s’il existe un arbre, dit arbre de dérivation,
dont la racine est étiquetée par hS, si → s0 , dont chaque nœud correspond à
l’application d’une des règles suivantes et dont chaque feuille est un axiome.

Les règles de la sémantique à grands pas sont données par :

[skip ns ] hskip, si → s

[aff ns ] hx := a, si → s [x 7→ AJaKs ]

hS1 , si → s0 aaa hS2 , s0 i → s00


[comp ns ]
hS1 ; S2 , si → s00

> hS1 , si → s0
[if ns ] si BJbKs = >
hif b then S1 else S2 , si → s0

⊥ hS2 , si → s0
[if ns ] si BJbKs = ⊥
hif b then S1 else S2 , si → s0

> hS, si → s0 hwhile b do S, s0 i → s00


[while ns ] si BJbKs = >
hwhile b do S, si → s00

[while ns ] hwhile b do S, si → s si BJbKs = ⊥.

Afin d’obtenir une fonction totale pour la sémantique à grands pas, on peut définir
(
s0 si on a hS, si → s0 ,
Sns JSKs =
undef sinon.

L’acronyme ns vient de l’anglais pour « natural semantic » car parfois pour


désigner la sémantique opérationnelle à grands pas, on parle de « sémantique
naturelle ».

Sémantique opérationnelle à petits pas


On note hS, si ⇒ hS 0 , s0 i pour représenter un pas de calcul de l’exécution de
l’instruction S qui débute dans l’état s ∈ mem, on arrivera dans la situation où
il faudra encore exécuter l’instruction S 0 à partir de l’état s0 pour finir l’exécution
entière de S. Pour plusieurs étapes de calcul, on note hS, si ⇒∗ s0 .

850
Sémantiques des langages de programmation

De manière similaire au cas de la sémantique à grand pas, la relation ⇒ est définie


à l’aide d’arbres dont les nœuds correspondent aux règles suivantes :

[skip sos ] hskip, si ⇒ s

[aff sos ] hx := a, si ⇒ s [x 7→ AJaKs ]

1 ] hS1 , si ⇒ hS10 , s0 i
[comp sos
hS1 ; S2 , si ⇒ hS10 ; S2 , s0 i

2 ] hS1 , si ⇒ s0
[comp sos
hS1 ; S2 , si ⇒ hS2 , s0 i
>
[if sos ] hif b then S1 else S2 , si ⇒ hS1 , si si BJbKs = >


[if sos ] hif b then S1 else S2 , si ⇒ hS2 , si si BJbKs = ⊥

[while sos ] hwhile b do S, si ⇒ hif b then (S; while b do S) else skip, si.

Afin d’obtenir une fonction totale pour la sémantique à petits pas, on peut définir
(
s0 si on a hS, si ⇒∗ s0 ,
Ssos JSKs =
undef sinon.
L’acronyme sos vient de l’anglais pour « structural operational semantic » qui est
un autre nom pour la sémantique opérationnelle à petits pas.
On a besoin de mettre ⇒∗ ici, alors qu’on n’avait besoin que de → pour la
sémantique à grands pas, puisque, pour la sémantique à grands pas, chaque
règle aboutit à l’état de mémoire à la fin de l’exécution de S, alors que pour la
sémantique à petits pas, il faut parfois plusieurs étapes de calcul pour arriver à
l’état de mémoire de fin d’exécution de l’instruction.
On remarque que les sémantiques « à grands pas » et « à petits pas » portent
bien leurs noms, puisque par exemple pour la sémantique à grands pas la règle
[comp ns ] donne les états d’arrivée des instructions S1 et S2 directement alors que
pour la sémantique à petits pas, on va faire un petit pas de calcul pour l’instruction
S1 qui donne l’instruction S10 qu’il faut continuer d’exécuter avant de passer à
l’instruction S2 . Par exemple, supposons qu’on adjoigne l’opérateur de division
au langage IMP, et considérons un programme S contenant une boucle while dont
l’exécution amène à une division par 0. Les deux sémantiques opérationnelles ne
seront alors toutes les deux pas définies (Sns JSK = Ssos JSK = undef), mais si on
regarde de plus près comment ces sémantiques sont calculées, on remarque que le
calcul de Sns JSK bloque dès le début de la boucle (autrement dit on sait qu’un
problème apparaît lors de l’exécution de la boucle), alors que pour Ssos JSK, on a
une estimation plus précise du problème puisque le calcul de Ssos JSK se poursuit
jusqu’à l’itération où la division par 0 se produit.

851
Théorème 11 (Équivalence des sémantiques opérationnelles)
Pour toute instruction S du langage IMP, on a Sns JSK = Ssos JSK.

La preuve de ce résultat fait l’objet du Développement 131.

3 Sémantique dénotationnelle
Pour définir la sémantique dénotationnelle, on procède différemment de la séman-
tique opérationnelle. Au lieu d’avoir une approche par pas de calcul (petit ou
grand), on va définir une sémantique qui, pour chaque instruction S, donne une
fonction qui décrit mathématiquement comment la mémoire est modifiée pendant
l’exécution de S. On note cette sémantique

Sds : instruc → (mem → mem)


définie par
• Sds JskipK = Id.
En effet, l’état mémoire ne change pas après avoir exécuté skip.
• Sds Jx := aKs = s[x 7→ AJaKs ].
Il suffit d’affecter la valeur AJaKs à la variable x dans l’état s de la mémoire.
• Sds JS1 ; S2 K = Sds JS2 K ◦ Sds JS1 K.
Il suffit de composer les deux fonctions de sémantique, puisque Sds JS1 K va
prendre un état s et renvoyer un état s0 et Sds JS2 K va prendre l’état s0 et
renvoyer un état s00 qui sera bien l’état dans lequel sera la mémoire après
avoir exécuté S1 ; S2 à partir de l’état s.
• Sds Jif b then S1 else S2 K = cond(BJbK, Sds JS1 K, Sds JS2 K) où cond est une fonc-
tion de signature
(mem → {>, ⊥})×(mem → mem)×(mem → mem) → (mem → mem)
qui est définie par
(
σ1 s si f s = >,
cond(f, σ1 , σ2 )s =
σ2 s si f s = ⊥.
En effet, si le booléen BJbK est vrai dans l’état s, on obtient l’état Sds JS1 Ks ,
sinon on obtient l’état Sds JS2 Ks .
• Sds Jwhile b do SK = Fix F avec
F : (mem → mem) −→ (mem → mem)
g 7−→ cond(BJbK, g ◦ Sds JSK, Id)
et où Fix est un opérateur de point fixe, i.e. il vérifie F (Fix F ) = Fix F .
Fix : ((mem → mem) → (mem → mem)) → (mem → mem).
En effet, on veut une fonction Sds Jwhile b do SK qui vaut
(
Sds JS; while b do SK = Sds Jwhile b do SK ◦ Sds JSK si BJbK = >,
Sds JskipK = Id sinon.

852
Sémantiques des langages de programmation

Théorème 12 (Équivalence des sémantiques)


Pour toute instruction S du langage IMP, on a Ssos JSK = Sds JSK.

Ainsi les trois sémantiques que l’on a vues sont équivalentes sur le langage IMP.
Cependant, il existe d’autres langages pour lesquels ces sémantiques ne sont pas
équivalentes.

4 Logique de Hoare
On va étudier la correction partielle de programmes sur le langage IMP grâce à la
logique de Hoare.
Définition 91 (Triplet de Hoare)
On appelle triplet de Hoare le triplet {P }S{Q} où P et Q sont des prédicats
de la logique du premier ordre et S une instruction du langage IMP.

La prédicat P représente une précondition satisfaite avant l’exécution de S, et Q


une postcondition vérifiée après l’exécution de S.

Le triplet de Hoare {P }S{Q} est valide si en exécutant S depuis un état mémoire


s vérifiant P , on arrive dans un état mémoire vérifiant Q. Comme pour les
sémantiques opérationnelles, la logique de Hoare est définie par un ensemble de
règles d’inférence et d’axiomes :

[skip H] {P }skip{P }

[aff H] {P [x → AJaK]}x := a{P }

{P }S1 {Q} aaa {Q}S2 {R}


[comp H]
{P }S1 ; S2 {R}

{BJbK ∧ P }S1 {Q} aaa {¬BJbK ∧ P }S2 {Q}


[if H]
{P }if b then S1 else S2 {Q}

{BJbK ∧ P }S{P }
[while H]
{P }while b do S{¬BJbK ∧ P }

{P 0 }S{Q0 }
[cons H] si P ⇒ P 0 et Q0 ⇒ Q.
{P }S{Q}

Ici, « ⇒ » désigne l’implication usuelle en logique du premier ordre.

Définition 92 (Preuve syntaxique)


On note `p {P }S{Q} si et seulement s’il existe un arbre correct aboutissant à
{P }S{Q} avec les règles ci-avant.
Définition 93 (Conséquence sémantique)
On note p {P }S{Q} si et seulement si pour tous états s, s0 tels que P s = >

853
et hS, si → s0 , on a Q s0 = >.
Théorème 13 (Correction et complétude)
Pour tous prédicats P et Q et pour toute instruction S du langage IMP, on a

`p {P }S{Q} ⇐⇒ p {P }S{Q}.

Le sens direct correspond à la correction de la logique de Hoare. On le montre


par induction sur l’arbre de preuve.
Le sens indirect correspond à la complétude de la logique de Hoare. On le montre
par induction sur la structure de S. La preuve fait l’objet du Développement 130.

854
Problèmes indécidables

Rappel : on dit qu’un problème A est indécidable s’il n’existe pas de machine de
Turing qui décide le problème A.

Définition 94 (Réduction calculable)


On appelle réduction d’un problème A à un problème B, une fonction f
calculable par une machine de Turing telle que

ω est une instance positive de A ⇐⇒ f (ω) est une instance positive de B.

Si une telle réduction existe, on dit que A se réduit à B.

A
f (ω) oui
ω
traduction f B non

Figure 3.30 – Réduction du problème A au problème B.

On va maintenant donner une liste de problèmes indécidables en proposant un


schéma de réduction, montrant le caractère indécidable de chaque problème.
Logique Arrêt Peano

Machines de Turing
Accept RiceP
Problèmes de Post

Grammaires Post marqué Vide


algébriques

Bases de données Post sans ε


v
Légende :

.1
Post

29
8

A
12

Inter On réduit
v.

le problème A

RelSat
au problème B
Univ
ValidFO B
RelEqu
Egal

Figure 3.31 – Exemple de schéma de réductions de problèmes indécidables.

On dresse ci-après la liste des problèmes indécidables qui sont présents dans le
schéma de réductions.
(
entrée : une machine de Turing M déterministe et un mot w ;
Arrêt
sortie : oui si M (w) s’arrête, non sinon.

(
entrée : une machine de Turing M et un mot w ;
Accept
sortie : oui si M accepte w, non sinon.

Soit ∅ ( P (
( RE.
entrée : une machine de Turing M ;
RiceP
sortie : oui si L(M ) ∈ P, non sinon.

(
entrée : une machine de Turing M ;
Vide
sortie : oui si L(M ) = ∅, non sinon.

(
entrée : une formule close ϕ en logique du premier ordre ;
ValidFO
sortie : oui si ϕ est valide, non sinon.

856
Problèmes indécidables


entrée :

 une formule close ϕ en logique du premier ordre sur la
Peano signature {0, 1, +, ×, =} ;


sortie : oui si N  ϕ, non sinon.

(
entrée : deux grammaires algébriques G et G0 ;
Inter
sortie : oui si L(G)∩L(G0 ) = ∅, non sinon.
(
entrée : une grammaire algébrique G ;
Univ
sortie : oui si L(G) = Σ∗ où Σ est l’alphabet utilisé, non sinon.
(
entrée : deux grammaires algébriques G et G0 ;
Egal
sortie : oui si L(G) = L(G0 ), non sinon.


entrée :

 deux requêtes q et q 0 du calcul relationnel ;
RelEqu sortie : oui si q et q 0 sont sémantiquement équivalentes,


 non sinon.

entrée :

 une requête q en calcul relationnel ;
RelSat sortie : oui s’il existe une base de données I telle que q(I) 6= ∅,


 non sinon.


entrée :


un

alphabet

fini Σ, un ensemble fini de tuiles

ui
avec ui , vi ∈ Σ∗ ;



Post vi
i=1,...,n
oui s’il existe i1 , . . . , ip ∈ J1, nK tels que

sortie :




ui1 ui2 · · · uip = vi1 vi2 · · · vip , non sinon.





entrée : un

alphabet

fini Σ, un ensemble fini de tuiles

ui
avec ui , vi ∈ Σ∗ ;



Post marqué vi
i=1,...,n
oui s’il existe i2 , . . . , ip ∈ J1, nK tels que

sortie :




u1 ui2 · · · uip = v1 vi2 · · · vip , non sinon.





entrée : un

alphabet

fini Σ, un ensemble fini de tuiles

ui
avec ui , vi ∈ Σ∗ \{ε} ;



Post sans ε vi
i=1,...,n
oui s’il existe i1 , . . . , ip ∈ J1, nK tels que

sortie :




ui1 ui2 · · · uip = vi1 vi2 · · · vip , non sinon.

857
Commentaires.
© Le schéma des réductions des problèmes indécidables n’est qu’un exemple, on
pourrait en imaginer d’autres. Contrairement aux problèmes NP-complets, on
ne peut pas forcément réduire toute paire de problèmes indécidables entre eux.
Emil Post a défini notamment le degré de Turing d’un problème qui caractérise la
difficulté de celui-ci. Deux problèmes A et B ont le même degré de Turing si et
seulement s’ils sont Turing-équivalents, i.e. on peut réduire A à B et B à A. De
plus, à partir de tout problème indécidable, on peut en construire un de degré
strictement plus grand (c’est-à-dire strictement plus difficile) grâce au saut de
Turing.
© Tous les problèmes mentionnés ci-avant sont récursivement énumérables (i.e.
dans RE) sauf Peano et RelEqu. Cependant, RelEqu est co-RE.
© Rappelons que le point de départ des problèmes d’indécidabilité est le problème
de l’Arrêt. On montre qu’il est indécidable en raisonnant par l’absurde et en
construisant une machine paradoxale. Supposons qu’il existe une machine de
Turing A qui prend en argument une machine de Turing M et un mot w et qui
accepte (M, w) si et seulement M (w) s’arrête. On note hM i un codage de la
machine de Turing M . On construit alors la machine paradoxe qui prend en
entrée une machine M et qui boucle si A accepte (M, hM i) ou qui accepte sinon.
On a alors paradoxe(paradoxe) ne s’arrête pas si et seulement si A accepte
(paradoxe, hparadoxei) si et seulement si paradoxe(paradoxe) s’arrête, ce qui
contredit l’existence de A qui décide Arrêt.
© La réduction du problème Post au problème ValidFO est explicitée dans le
Développement 128.
© La réduction du problème Post sans ε au problème RelSat est explicitée dans
le Développement 129. On y explique en commentaire la réduction vers RelEqu.
© L’indécidabilité de RiceP est fournie par le théorème de Rice :
Théorème 14
Soit ∅ ( P ( RE. Le problème RiceP est indécidable.

Lorsque P = {∅}, on obtient en particulier l’indécidabilité du problème Vide.


© La liste des problèmes ci-avant est loin d’être exhaustive. Pour aller plus loin,
les ouvrages [Car14] et [Wol06] sont deux références dans ce domaine.
© La plupart de problèmes précédents deviennent décidables lorsqu’on les res-
treint. Par exemple, l’arithmétique de Presburger est décidable contrairement à
l’arithmétique de Peano, l’acceptation d’un mot par une grammaire algébrique est
décidable (voir Développement 122) contrairement à Accept, l’universalité d’un
automate est décidable (voir Développement 121) contrairement à l’universalité
pour une grammaire, la validité en logique propositionnelle (co-Sat) est décidable
(voir Développement 124) contrairement à ValidFO, la satisfiabilité pour les
requêtes conjonctives est décidable contrairement à RelSat, etc.

858
Réductions classiques

On peut classifier les problèmes décidables par difficulté (que l’on définit à l’aide
des machines de Turing, voir page 666). Par exemple, les problèmes qui sont
décidés par une machine de Turing déterministe ou non déterministe, en temps ou
espace polynomial ou exponentiel, etc. Pour caractériser les problèmes canoniques
d’une classe X, on introduit la notion de problème X-dur et X-complet. Ces notions
reposent sur le concept de réduction, chaque classe X utilisant un type de réduction
spécifique.

Pour une certaine classe X de problèmes, on dit qu’un problème B est


• X-dur si pour tout problème A dans X, A se réduit à B, i.e. il existe une
fonction f calculable par une machine de Turing déterministe d’une certaine
complexité CX et qui transforme les instances positives (resp. négatives) de A
en instances positives (resp. négatives) de B. On parle alors de réduction en
complexité CX .

wA wB = f (wA ) oui
f B non

• X-complet si le problème B est à la fois X-dur et dans X.

Les classes de complexités étudiées dans ce livre utilisent deux types de réductions :
en espace logarithmique et en temps polynomial.
1 Réduction en espace logarithmique
Quand on parle de problèmes NL-complets et P-complets, la réduction associée
est une réduction en espace logarithmique.

Classe X NL P

[  
NSpace (ln n) Time nk
k>0
Définition
Problèmes décidés par Problèmes décidés par
une machine de Turing une machine de Turing
non déterministe en es- déterministe en temps
pace logarithmique polynomial

Exemples de • 2Sat (Dév. 126) • HornSat


problèmes • Access • FlotMax
X-complets
• VideGram • VideAut


entrée :

 une formule ϕ de la logique propositionnelle sous forme
2Sat normale conjonctive avec 2 littéraux par clause ;


sortie : oui si ϕ est satisfiable, non sinon.

(
entrée : un graphe orienté G, deux sommets s et t ;
Access
sortie : oui s’il existe un chemin de s à t dans G, non sinon.
(
entrée : une grammaire algébrique G ;
VideGram
sortie : oui si L(G) = ∅, non sinon.
(
entrée : une formule propositionnelle ϕ en clauses de Horn ;
HornSat
sortie : oui si ϕ est satisfiable, non sinon.



 entrée :un graphe G orienté pondéré, deux sommets s et t

et une valeur k ;


FlotMax
sortie : oui s’il existe un flot de capacité supérieure à k entre



les sommets s et t dans G, non sinon.

(
entrée : un automate A ;
VideAut
sortie : oui si L(A) = ∅, non sinon.

860
Réductions classiques

2 Réduction en temps polynomial


Quand on parle de problèmes NP-complets et PSpace-complets, la réduction
associée est une réduction en temps polynomial.

Classe X NP PSpace

[  
Space nk
[  
k
NTime n
k>0 k>0
Définition

Problèmes décidés par Problèmes décidés par


une machine de Tu- une machine de Turing
ring non déterministe en dont la complexité spa-
temps polynomial tiale est polynomiale

Exemples de
problèmes • QbfSat
Voir page 863.
X-complets • UnivAut (Dév. 121)

Pour la classe PSpace, on n’a pas besoin de spécifier si la machine de Turing est
déterministe ou non, puisque le théorème de Savitch nous donne

PSpace = NPSpace.
(
entrée : une formule ϕ booléenne quantifiée ;
QbfSat
sortie : oui si ϕ est satisfiable, non sinon.
(
entrée : un automate A sur l’alphabet Σ ;
UnivAut
sortie : oui si L(A) = Σ∗ , non sinon.

861
Problèmes NP-complets

Définition 95 (Classe NP)


On dit qu’un problème A est dans NP s’il existe une machine de Turing non
nécessairement déterministe qui décide A en temps polynomial.
Définition 96 (Réduction polynomiale)
On appelle réduction polynomiale d’un problème A à un problème B, une fonc-
tion f calculable en temps polynomial par une machine de Turing déterministe
telle que

w est une instance positive de A ⇐⇒ f (w) est une instance positive de B.

Si une telle réduction existe, on dit que A se réduit à B.

On représente une telle réduction par le schéma suivant :

f (w) oui
w
traduction f B non

Figure 3.32 – Réduction du problème A au problème B.

Définition 97 (NP-dur)
On dit qu’un problème A est NP-dur (ou NP-difficile) si, pour tout pro-
blème L ∈ NP, L se réduit en temps polynomial à A.
Proposition 8
Si A est un problème NP-dur et qu’il existe une réduction de A à B, alors B
est un problème NP-dur.
Définition 98 (NP-complet)
On dit qu’un problème A est NP-complet s’il est à la fois dans NP et NP-dur.

On va maintenant donner une liste de problèmes NP-complets en proposant un


schéma de réduction, montrant le caractère NP-dur de chaque problème.
Dév. 120
Logique PSA Sat Légende

Dév. 125
Graphes A
On réduit
le problème A
Packing
PVC au problème B
B
Automates CnfSat

HamCirc Max2Sat
3Sat

VertexCover
SubsetSum
3Col

IndepSet BinPacking

Clique
Partition
SacÀDos

Figure 3.33 – Exemple de schéma de réduction de problèmes NP-complets.

On dresse ci-après la liste des problèmes NP-complets qui sont présents dans le
schéma de réductions.
(
entrée : une formule ϕ en logique propositionnelle ;
Sat
sortie : oui si ϕ est satisfiable, non sinon.


entrée :

 une formule ϕ en logique propositionnelle sous forme
CnfSat normale conjonctive ;


sortie : oui si ϕ est satisfiable, non sinon.


entrée :

 une formule ϕ en logique propositionnelle sous forme
3Sat normale conjonctive avec 3 littéraux par clause ;


sortie : oui si ϕ est satisfiable, non sinon.

864
Problèmes NP-complets




 entrée : une formule ϕ en logique propositionnelle sous forme

normale conjonctive avec 2 littéraux par clause, k ∈ N ;


Max2Sat


 sortie : oui si on peut trouver au moins k clauses de ϕ qui

peuvent être satisfaites simultanément, non sinon.


entrée :

 deux langages finis S et T et un entier k ∈ N ;
PSA sortie : oui s’il existe un automate A déterministe à au plus k états

tel que S ⊂ L(A) et T ∩ L(A) = ∅, non sinon.


entrée :
 un ensemble fini A ⊂ N et un entier t ∈ N ;
X
SubsetSum sortie : oui s’il existe A0 ⊂ A tel que a = t, non sinon.


0 a∈A




entrée : un ensemble fini A, w : A → N et c, k ∈ N ;

sortie : oui s’il existe une application r : A → J1, kK telle

BinPacking X



 que ∀j ∈ J1, kK, w(a) 6 c, non sinon.
a∈r−1 (j)

Interprétation : L’ensemble A représente des objets de poids w. On veut savoir


s’il existe un rangement des objets de A dans k boîtes, chacune de capacité c.



 entrée : un ensemble fini A et w : A → N ;
 X X
sortie : oui s’il existe A0 ⊂ A tel que w(a) = w(a),

Partition

 a∈A0 a∈A\A0

non sinon.

Interprétation : L’ensemble A représente des objets de poids w. On veut savoir


s’il est possible de séparer ces objets en deux groupes de poids égaux.



entrée : un ensemble fini A, w : A → N, v : A → N,

un poids P et une valeur V ;




 X
SacÀDos sortie : oui s’il existe A0 ⊂ A tel que w(u) 6 P
u∈A0



 X
et v(u) > V , non sinon.





u∈A0
Interprétation : L’ensemble A représente des objets de poids w et de valeurs v. On
veut savoir s’il est possible de sélectionner des objets de valeur totale supérieure à
V mais de poids total inférieur à P .

entrée :

 un graphe G = (S, A) non orienté ;
3Col sortie : oui s’il existe une application c : S → {1, 2, 3} telle que

pour tout uv ∈ A, c(u) 6= c(v), non sinon.

865

entrée :

 un graphe G = (S, A) non orienté et j 6 |S| ;
VertexCover sortie : oui s’il existe S 0 ⊂ S avec |S 0 | 6 j telle que

pour tout uv ∈ A, u ∈ S 0 ou v ∈ S 0 , non sinon.

(
entrée : un graphe G = (S, A) non orienté et un entier j 6 |S| ;
Clique
sortie : oui s’il existe une clique de taille j dans G, non sinon.


entrée :

 un graphe G = (S, A) non orienté et j 6 |S| ;
IndepSet sortie : oui si G contient un ensemble indépendant de


 taille j, non sinon.

(
entrée : un graphe G = (S, A) non orienté ;
HamCirc
sortie : oui si G admet un cycle hamiltonien, non sinon.




 entrée :un graphe G = (S, A) non orienté complet pondéré par

des entiers relatifs et un entier j ∈ N ;


PVC
sortie : oui s’il existe un cycle hamiltonien de poids inférieur à j,



non sinon.

Commentaires.
© Le schéma de réduction proposé ci-avant n’est qu’une suggestion de réductions
puisque, comme tous les problèmes que l’on considère ici sont NP-complets, il existe
une réduction de n’importe quel problème vers n’importe quel autre problème,
ainsi si l’on voulait dessiner toutes les réductions possibles, le graphe obtenu serait
complet.
© La NP-complétude du problème Sat vient du théorème de Cook-Levin, voir
Développement 124.
© La transformation de Tseitin, voir Développement 125, donne la réduction de
Sat à CnfSat. On y explique en commentaire la réduction vers 3Sat.
© Pour le problème PSA, on dit que l’automate A sépare les langages S et T ,
d’où le nom « Problème de Séparation par Automates », puisque l’automate A
accepte tous les mots de S et rejette tous les mots de T . La réduction de Sat à
PSA est détaillée dans le Développement 120.
© Pour le problème 3Col, on dit que l’application c est une 3-coloration de G,
on dit qu’un graphe G est 3-coloriable si on peut colorier tous les sommets avec
seulement 3 couleurs sans que deux sommets d’une même couleur soient reliés par
une arête, voir Développement 113.
© Pour le problème VertexCover, on veut colorier certains sommets (corres-
pondant à ceux dans S 0 ) de sorte que chaque arête ait une de ses extrémités
coloriée. On peut imaginer que le graphe représente une ville avec des places (les

866
Problèmes NP-complets

sommets) et des rues (les arêtes) et on veut mettre des lampadaires sur certaines
places afin que toutes les rues soient éclairées.
© Pour le problème IndepSet, on veut sélectionner certains sommets de sorte
qu’aucune paire des sommets sélectionnés ne soient reliés par une arête.
© Les problèmes VertexCover, IndepSet et Clique sont équivalents, et cha-
cun se déduit de l’autre en complémentant le graphe ou en prenant le complé-
mentaire de l’ensemble S 0 dans S. On peut résumer cela dans la proposition
suivante :

Pour tout graphe G = (S, A) et S 0 ⊂ S, il y a équivalence entre


(i) S 0 est une couverture de sommets de G (VertexCover)
(ii) S\S 0 est un ensemble indépendant de sommets de G (IndepSet)
(iii) S\S 0 est une clique dans G (Clique) où G est le graphe com-
plémentaire de G :

G = (S, A) avec A = {uv : uv ∈


/ A et u 6= v}.

© PVC signifie « Problème du Voyageur de Commerce », on étudie une variante


de ce problème dans le Développement 116.
© Certains des problèmes précédents deviennent des problèmes décidés par une
machine de Turing déterministe en temps polynomial (dans P) lorsqu’on les
restreint. Par exemple, le problème de 2-coloration d’un graphe est dans P, le
problème 2Sat est dans P, etc.

867
Annexes
Liste des leçons

La liste des leçons officiellement au programme de l’agrégation est régulièrement


modifiée par le jury. Certaines thématiques, comme les réseaux ou les variétés
différentielles, ne sont pas toujours présentes mais reviennent régulièrement ;
d’autres sont au cœur du programme année après année mais peuvent avoir un
intitulé changeant, mettant tantôt l’accent sur des connexions avec une théorie
particulière, tantôt sur des applications numériques — par exemple l’application
de la théorie des groupes en géométrie ou les aspects numériques de l’algèbre
linéaire.
Malgré cette variabilité, l’essentiel des thématiques constituant le programme
de l’agrégation demeurent identiques et les développements présents dans cet
ouvrage ne deviendront bien évidemment pas obsolètes une fois les titres de leçons
modifiés. Il est toutefois du devoir de chaque candidat de garder un œil critique
sur l’adéquation entre chaque développement et les intitulés des leçons futures.
De manière à simplifier cette réflexion, outre le chapeau introduisant chaque
développement, nous rappelons ici la liste officielle des leçons lors de l’édition de
ce livre en 2020.
Liste des leçons

Leçons d’algèbre et de géométrie


101 Groupe opérant sur un ensemble. Exemples et applications.
102 Groupe des nombres complexes de module 1. Sous-groupes des racines de l’unité.
Applications.
103 Conjugaison dans un groupe. Exemples de sous-groupes distingués et de groupes
quotients. Applications.
104 Groupes abéliens et non abéliens finis. Exemples et applications.
105 Groupe des permutations d’un ensemble fini. Applications.
106 Groupe linéaire d’un espace vectoriel de dimension finie E, sous-groupes du groupe
général linéaire GLp (E). Applications.
107 Représentations et caractères d’un groupe fini sur un C-espace vectoriel. Exemples.
108 Exemples de parties génératrices d’un groupe. Applications.
120 Anneaux Z/nZ. Applications.
121 Nombres premiers. Applications.
122 Anneaux principaux. Applications.
123 Corps finis. Applications.
125 Extensions de corps. Exemples et applications.
126 Exemples d’équations en arithmétique.
141 Polynômes irréductibles à une indéterminée. Corps de rupture. Exemples et applica-
tions.
142 PGCD et PPCM, algorithmes de calcul. Applications.
144 Racines d’un polynôme. Fonctions symétriques élémentaires. Exemples et applica-
tions.
150 Exemples d’actions de groupes sur les espaces de matrices.
151 Dimension d’un espace vectoriel (on se limitera au cas de la dimension finie). Rang.
Exemples et applications.
152 Déterminant. Exemples et applications.
153 Polynômes d’endomorphisme en dimension finie. Réduction d’un endomorphisme en
dimension finie. Applications.
154 Sous-espaces stables par un endomorphisme ou une famille d’endomorphismes d’un
espace vectoriel de dimension finie. Applications.
155 Endomorphismes diagonalisables en dimension finie.
156 Exponentielle de matrices. Applications.
157 Endomorphismes trigonalisables. Endomorphismes nilpotents.
158 Matrices symétriques réelles, matrices hermitiennes.
159 Formes linéaires et dualité en dimension finie. Exemples et applications.
160 Endomorphismes remarquables d’un espace vectoriel euclidien (de dimension finie).
161 Distances et isométries d’un espace affine euclidien.

873
162 Systèmes d’équations linéaires ; opérations élémentaires, aspects algorithmiques et
conséquences théoriques.
170 Formes quadratiques sur un espace vectoriel de dimension finie. Orthogonalité,
isotropie. Applications.
171 Formes quadratiques réelles. Coniques. Exemples et applications.
181 Barycentres dans un espace affine réel de dimension finie, convexité. Applications.
190 Méthodes combinatoires, problèmes de dénombrement.
191 Exemples d’utilisation des techniques d’algèbre en géométrie.

Leçons d’analyse et probabilités


201 Espaces de fonctions. Exemples et applications.
203 Utilisation de la notion de compacité.
204 Connexité. Exemples et applications.
205 Espaces complets. Exemples et applications.
207 Prolongement de fonctions. Exemples et applications.
208 Espaces vectoriels normés, applications linéaires continues. Exemples.
209 Approximation d’une fonction par des fonctions régulières. Exemples et applications.
213 Espaces de Hilbert. Bases hilbertiennes. Exemples et applications.
214 Théorème d’inversion locale, théorème des fonctions implicites. Exemples et applica-
tions en analyse et en géométrie.
215 Applications différentiables définies sur un ouvert de Rn . Exemples et applications.
219 Extremums : existence, caractérisation, recherche. Exemples et applications.
220 Équations différentielles ordinaires. Exemples de résolution et d’études de solutions
en dimension 1 et 2.
221 Équations différentielles linéaires. Systèmes d’équations différentielles linéaires.
Exemples et applications.
222 Exemples d’équations aux dérivées partielles linéaires.
223 Suites numériques. Convergence, valeurs d’adhérence. Exemples et applications.
226 Suites vectorielles et réelles définies par une relation de récurrence un+1 = f (un ).
Exemples. Applications à la résolution approchée d’équations.
228 Continuité, dérivabilité, dérivation faible des fonctions réelles d’une variable réelle.
Exemples et applications.
229 Fonctions monotones. Fonctions convexes. Exemples et applications.
230 Séries de nombres réels ou complexes. Comportement des restes ou des sommes
partielles des séries numériques. Exemples.
233 Analyse numérique matricielle. Résolution approchée de systèmes linéaires, recherche
d’éléments propres, exemples.
234 Fonctions et espaces de fonctions Lebesgue-intégrables.
235 Problèmes d’interversion de limites et d’intégrales.
236 Illustrer par des exemples quelques méthodes de calcul d’intégrales de fonctions
d’une ou plusieurs variables.

874
Liste des leçons

239 Fonctions définies par une intégrale dépendant d’un paramètre. Exemples et appli-
cations.
241 Suites et séries de fonctions. Exemples et contre-exemples.
243 Séries entières, propriétés de la somme. Exemples et applications.
245 Fonctions d’une variable complexe. Exemples et applications.
246 Séries de Fourier. Exemples et applications.
250 Transformation de Fourier. Applications.
253 Utilisation de la notion de convexité en analyse.
261 Loi d’une variable aléatoire : caractérisations, exemples, applications.
262 Convergences d’une suite de variables aléatoires. Théorèmes limite. Exemples et
applications.
264 Variables aléatoires discrètes. Exemples et applications.
265 Exemples d’études et d’applications de fonctions usuelles et spéciales.
266 Illustration de la notion d’indépendance en probabilités.
267 Exemples d’utilisation de courbes en dimension 2 ou supérieure.

875
Liste des leçons

Leçons de mathématiques pour


l’informatique
101 Groupe opérant sur un ensemble. Exemples et applications.
104 Groupes abéliens et non abéliens finis. Exemples et applications.
105 Groupe des permutations d’un ensemble fini. Applications.
106 Groupe linéaire d’un espace vectoriel de dimension finie, sous-groupes de GL(E).
Applications.
108 Exemples de parties génératrices d’un groupe. Applications.
120 Anneaux Z/nZ. Applications.
121 Nombres premiers. Applications.
123 Corps finis. Applications.
126 Exemples d’équations en arithmétique.
141 Polynômes irréductibles à une indéterminée. Corps de rupture. Exemples et applica-
tions.
151 Dimension (finie) d’un espace vectoriel. Rang. Exemples et applications.
152 Déterminant. Exemples et applications.
153 Polynômes d’endomorphisme en dimension finie. Réduction d’un endomorphisme en
dimension finie. Applications.
156 Exponentielle de matrices. Applications.
157 Endomorphismes trigonalisables. Endomorphismes nilpotents.
158 Matrices symétriques réelles, matrices hermitiennes.
159 Formes linéaires et dualité en dimension finie. Exemples et applications.
162 Systèmes d’équations linéaires ; opérations élémentaires, aspects algorithmiques et
conséquences théoriques.
170 Formes quadratiques sur un espace vectoriel de dimension finie. Orthogonalité,
isotropie. Applications.
190 Méthodes combinatoires, problèmes de dénombrement.
191 Exemples d’utilisation des techniques d’algèbre en géométrie.
203 Utilisation de la notion de compacité.
208 Espaces vectoriels normés, applications linéaires continues. Exemples.
214 Théorème d’inversion locale, théorème des fonctions implicites. Exemples et applica-
tions en analyse et en géométrie.
219 Extremums : existence, caractérisation, recherche. Exemples et applications.
220 Équations différentielles ordinaires. Exemples de résolution et d’études de solutions
en dimension 1 et 2.
221 Équations différentielles linéaires et systèmes d’équation différentielles linéaires.
Exemples et applications.
223 Suites numériques. Convergence, valeurs d’adhérence. Exemples et applications.
226 Suites vectorielles et réelles définies par une relation de récurrence un+1 = f (un ).
Exemples. Applications à la résolution approchée d’équations.

877
228 Continuité, dérivabilité, dérivation faible des fonctions réelles d’une variable réelle.
Exemples et applications.
229 Fonctions monotones. Fonctions convexes. Exemples et applications.
230 Séries de nombres réels ou complexes. Comportement des restes ou des sommes
partielles des séries numériques. Exemples.
233 Analyse numérique matricielle. Résolution approchée de systèmes linéaires, recherche
d’éléments propres, exemples.
236 Illustrer par des exemples quelques méthodes de calcul d’intégrales de fonctions
d’une ou plusieurs variables.
239 Fonctions définies par une intégrale dépendant d’un paramètre. Exemples et appli-
cations.
241 Suites et séries de fonctions. Exemples et contre-exemples.
243 Séries entières, propriétés de la somme. Exemples et applications.
246 Séries de Fourier. Exemples et applications.
250 Transformation de Fourier. Applications.
262 Convergences d’une suite de variables aléatoires. Théorèmes limite. Exemples et
applications.
264 Variables aléatoires discrètes. Exemples et applications.
265 Exemples d’études et d’applications de fonctions usuelles et spéciales.

878
Liste des leçons

Leçons d’informatique
901 Structures de données. Exemples et applications.
903 Exemples d’algorithmes de tri. Correction et complexité.
907 Algorithmique du texte. Exemples et applications.
909 Langages rationnels et automates finis. Exemples et applications.
912 Fonctions récursives primitives et non primitives. Exemples.
913 Machines de Turing. Applications.
914 Décidabilité et indécidabilité. Exemples.
915 Classes de complexité. Exemples.
916 Formules du calcul propositionnel : représentation, formes normales, satisfiabilité.
Applications.
918 Systèmes formels de preuve en logique du premier ordre. Exemples.
921 Algorithmes de recherche et structures de données associées.
923 Analyses lexicale et syntaxique. Applications.
924 Théories et modèles en logique du premier ordre. Exemples.
925 Graphes : représentations et algorithmes.
926 Analyse des algorithmes : complexité. Exemples.
927 Exemples de preuve d’algorithme : correction, terminaison.
928 Problèmes NP-complets : exemples et réduction.
929 Lambda-calcul pur comme modèle de calcul. Exemples.
930 Sémantique des langages de programmation. Exemples.
931 Schémas algorithmiques. Exemples et applications.
932 Fondements des bases de données relationnelles.

879
Correspondances entre
leçons et développements
01 02 03 04 05 06 07 08 20 21 22 23 25 26 41 42 44 50 N° dvp.
Heisenberg 1 1 1
Dixon 1 1 1 2
Gén. SL2 (Z) 1 1 1 1 1 1 1 3
CNS transpo. 1 1 4
Groupes trans. 2 2 2 2 5
Landau 2 2 2 2 6
Permut. commutant 2 2 2 7
Groupes pq 1 1 1 8
Groupes 105 3 3 3 3 9
Caractères diédraux 1 1 1 1 10
Burnside 3 3 3 3 3 11
Cohn 1 1 1 12
Hensel 1 1 1 1 13
Chevalley-Warning 2 2 14
d’Alembert-Gauss 1 1 1 15
Krull 2 16
Cyclicité F∗p 2 2 2 2 17
Autom. Fq 1 1 1 18
Morphismes cyclo. 1 1 1 1 1 1 1 19
Autom. C 3 3 3 20
Artin 3 3 3 21
Entier carré-cube 2 2 2 22
Val. abs. Q 2 2 23
Fermat cyclo. 3 3 3 3 3 3 3 24
Waring mod. 3 3 3 3 3 25
Sherman-Morrison 26
Quaternions 1 1 1 1 27
Schwartz-Zippel 2 2 28
Faddeev 1 29
Consv. det 1 1 30
Consv. rg 31
Chebotarev 3 3 3 32
Image exp. 33
Décomp. polaire 1 1 34
01 02 03 04 05 06 07 08 20 21 22 23 25 26 41 42 44 50 N° dvp.

Table A.1 – Tableau de correspondance des leçons — Algèbre (1/4).


Les leçons sont numérotées 1xx mais ne font apparaître que la valeur de xx.
Le numéro dans les cases correspond à la difficulté.

882
Correspondances entre leçons et développements

51 52 53 54 55 56 57 58 59 60 61 62 70 71 81 90 91 N° dvp.
Heisenberg 1
Dixon 1 1 1 2
Gén. SL2 (Z) 3
CNS transpo. 4
Groupes trans. 2 5
Landau 6
Permut. commutant 2 7
Groupes pq 8
Groupes 105 3 9
Caractères diédraux 10
Burnside 11
Cohn 12
Hensel 13
Chevalley-Warning 2 14
d’Alembert-Gauss 15
Krull 16
Cyclicité F∗p 17
Autom. Fq 18
Morphismes cyclo. 19
Autom. C 20
Artin 3 21
Entier carré-cube 22
Val. abs. Q 23
Fermat cyclo. 24
Waring mod. 3 25
Sherman-Morrison 1 1 1 26
Quaternions 1 1 1 1 27
Schwartz-Zippel 2 2 28
Faddeev 1 1 1 29
Consv. det 1 1 30
Consv. rg 2 31
Chebotarev 3 32
Image exp. 2 2 33
Décomp. polaire 1 1 1 1 34
51 52 53 54 55 56 57 58 59 60 61 62 70 71 81 90 91 N° dvp.

Table A.2 – Tableau de correspondance des leçons — Algèbre (2/4).


Les leçons sont numérotées 1xx mais ne font apparaître que la valeur de xx.
Le numéro dans les cases correspond à la difficulté.

883
01 02 03 04 05 06 07 08 20 21 22 23 25 26 41 42 44 50 N° dvp.
Réduc. nilp. 35
Décomp. Dunford 36
Smith 2 2 37
Sous-alg. réd. 38
Engel 39
Billard 1 1 40
Plongeoirs 41
Carathéodory 42
Trois réflexions 1 43
Killing-Hopf 1 1 44
Solides Platon 2 2 2 2 45
Hermite 46
Semi-réduites 47
Minkowski FQ 48
Brouwer 2 53
Cartan-Neumann 1 55
Liapounov 56
Extrema liés 57
Suite polygones 69
Choquet-Birkhoff 71
Gauss-Seidel 75
Relaxation 76
Kaczmarz 77
Jordan 80
Formes mod. 81
Minkowski réseau 89
Lagrange 2 91
Approx. polyn 2 2 92
Penney 94
Pólya dén. 98
Fourier rapide 2 106
Polyn. chrom. 113
Turán 114
Formule d’Euler 115
01 02 03 04 05 06 07 08 20 21 22 23 25 26 41 42 44 50 N° dvp.

Table A.3 – Tableau de correspondance des leçons — Algèbre (3/4).


Les leçons sont numérotées 1xx mais ne font apparaître que la valeur de xx.
Le numéro dans les cases correspond à la difficulté.

884
Correspondances entre leçons et développements

51 52 53 54 55 56 57 58 59 60 61 62 70 71 81 90 91 N° dvp.
Réduc. nilp. 1 1 1 1 1 35
Décomp. Dunford 1 1 36
Smith 2 2 37
Sous-alg. réd. 2 2 38
Engel 3 3 3 39
Billard 1 40
Plongeoirs 2 2 41
Carathéodory 1 1 42
Trois réflexions 1 1 43
Killing-Hopf 1 1 1 44
Solides Platon 2 2 2 2 45
Hermite 1 1 46
Semi-réduites 2 2 2 47
Minkowski FQ 3 3 3 3 48
Brouwer 53
Cartan-Neumann 1 55
Liapounov 1 1 1 1 56
Extrema liés 2 2 57
Suite polygones 2 69
Choquet-Birkhoff 2 71
Gauss-Seidel 1 75
Relaxation 1 1 1 76
Kaczmarz 1 1 77
Jordan 3 3 3 3 80
Formes mod. 3 81
Minkowski réseau 2 89
Lagrange 91
Approx. polyn 92
Penney 1 1 1 94
Pólya dén. 2 98
Fourier rapide 106
Polyn. chrom. 1 113
Turán 2 114
Formule d’Euler 2 115
51 52 53 54 55 56 57 58 59 60 61 62 70 71 81 90 91 N° dvp.

Table A.4 – Tableau de correspondance des leçons — Algèbre (4/4).


Les leçons sont numérotées 1xx mais ne font apparaître que la valeur de xx.
Le numéro dans les cases correspond à la difficulté.

885
01 03 04 05 07 08 09 13 14 15 19 20 21 22 23 26 28 29 30 N° dvp.
Heisenberg 1
Autom. C 3 20
Val. abs. Q 2 23
Schwartz-Zippel 28
Image exp. 2 2 33
Décomp. polaire 1 34
Plongeoirs 2 41
Op. compacts 2 2 2 2 50
Compacts Hilbert 2 2 2 49
Mityagin 2 51
Isom. non surj. 2 2 2 52
Brouwer 2 53
Riesz-Fischer 1 1 1 54
Cartan-Neumann 1 1 55
Liapounov 1 1 1 56
Extrema liés 2 2 2 57
Cauchy-Peano 2 2 2 2 2 58
Solow-Swan 1 1 1 59
Logistique 1 1 60
Modèle SIS 2 2 61
Modèle SIR 2 2 62
Riccati 2 2 2 63
Lotka-Volterra 3 3 3 64
Ondes 1 1 65
Bien posé 2 2 2 2 2 66
Contrôlabilité 3 3 3 3 3 67
Archimède 1 1 68
Suite polygones 2 2 69
Fractions continues 2 2 70
Choquet-Birkhoff 2 2 71
Nash 2 2 72
Frenet-Serret 73
01 03 04 05 07 08 09 13 14 15 19 20 21 22 23 26 28 29 30 N° dvp.

Table A.5 – Tableau de correspondance des leçons — Analyse (1/4).


Les leçons sont numérotées 2xx mais ne font apparaître que la valeur de xx.
Le numéro dans les cases correspond à la difficulté.

886
Correspondances entre leçons et développements

33 34 35 36 39 41 43 45 46 50 53 61 62 64 65 66 67 N° dvp.
Heisenberg 1 1
Autom. C 20
Val. abs. Q 23
Schwartz-Zippel 2 28
Image exp. 33
Décomp. polaire 34
Plongeoirs 41
Op. compacts 50
Compacts Hilbert 49
Mityagin 51
Isom. non surj. 2 52
Brouwer 2 53
Riesz-Fischer 1 1 54
Cartan-Neumann 55
Liapounov 56
Extrema liés 2 57
Cauchy-Peano 2 58
Solow-Swan 59
Logistique 60
Modèle SIS 2 61
Modèle SIR 62
Riccati 63
Lotka-Volterra 3 3 64
Ondes 1 65
Bien posé 2 2 66
Contrôlabilité 67
Archimède 1 68
Suite polygones 69
Fractions continues 70
Choquet-Birkhoff 2 71
Nash 2 2 72
Frenet-Serret 1 73
33 34 35 36 39 41 43 45 46 50 53 61 62 64 65 66 67 N° dvp.

Table A.6 – Tableau de correspondance des leçons — Analyse (2/4).


Les leçons sont numérotées 2xx mais ne font apparaître que la valeur de xx.
Le numéro dans les cases correspond à la difficulté.

887
01 03 04 05 07 08 09 13 14 15 19 20 21 22 23 26 28 29 30 N° dvp.
Descente grad. 1 1 1 1 1 1 74
Gauss-Seidel 1 1 75
Relaxation 1 76
Kaczmarz 1 77
Monodromie 1 1 78
Holomorphie 2 2 79
Jordan 80
Formes mod. 3 81
Fresnel 1 1 1 82
1
Primitiv. /2 1 1 1 83
Phase stat. 1 84
Paley-Wiener 1 85
Plancherel 2 2 2 2 2 86
Prolong. ζ 2 87
Fejér-Cesàro 1 1 1 1 88
Minkowski réseau 2 89
Taubérien 1 1 1 90
Lagrange 2 91
Approx. polyn 2 92
Buffon 93
Penney 1 1 94
Stirling TCL 95
Marche aléa. 2 2 96
LGN 97
Pólya dén. 2 98
Pólya ana. 2 99
Grandes dévia. 100
Cramér-Chernoff 3 3 3 101
Tirage population 105
Turán 114
Compacité logique 1 127
01 03 04 05 07 08 09 13 14 15 19 20 21 22 23 26 28 29 30 N° dvp.

Table A.7 – Tableau de correspondance des leçons — Analyse (3/4).


Les leçons sont numérotées 2xx mais ne font apparaître que la valeur de xx.
Le numéro dans les cases correspond à la difficulté.

888
Correspondances entre leçons et développements

33 34 35 36 39 41 43 45 46 50 53 61 62 64 65 66 67 N° dvp.
Descente grad. 1 74
Gauss-Seidel 1 75
Relaxation 1 76
Kaczmarz 1 77
Monodromie 1 78
Holomorphie 2 79
Jordan 3 80
Formes mod. 3 3 3 81
Fresnel 1 1 1 1 1 1 82
1
Primitiv. /2 1 1 1 83
Phase stat. 1 84
Paley-Wiener 1 1 1 85
Plancherel 2 2 2 86
Prolong. ζ 2 2 2 2 2 87
Fejér-Cesàro 1 1 1 1 88
Minkowski réseau 2 2 89
Taubérien 1 90
Lagrange 2 91
Approx. polyn 92
Buffon 1 1 1 93
Penney 1 1 1 1 94
Stirling TCL 1 1 1 95
Marche aléa. 2 2 2 2 96
LGN 2 2 2 97
Pólya dén. 2 2 2 98
Pólya ana. 2 2 2 2 2 2 99
Grandes dévia. 2 2 2 2 100
Cramér-Chernoff 3 3 3 3 101
Tirage population 2 2 105
Turán 2 114
Compacité logique 127
33 34 35 36 39 41 43 45 46 50 53 61 62 64 65 66 67 N° dvp.

Table A.8 – Tableau de correspondance des leçons — Analyse (4/4).


Les leçons sont numérotées 2xx mais ne font apparaître que la valeur de xx.
Le numéro dans les cases correspond à la difficulté.

889
901 903 907 909 912 913 914 915 916 918 921 N° dvp.
Chevalley-Warning 14
Tri rapide 2 102
Tri par tas 1 1 103
Kendall 2 104
Tirage population 105
Fourier rapide 2 106
B-arbres 2 2 107
Palindromes 1 108
Turing-calc. =⇒ µ-réc. 2 2 109
Caractérisation RE 2 2 2 110
µ-réc. =⇒ λ-déf. 2 111
Scott-Curry 112
Polyn. chrom. 113
Turán 114
Formule d’Euler 115
Voyageur commerce 116
Tri topo. 1 117
Graphe Bruijn 1 1 118
Recherche motifs 2 2 2 119
Sépar. automate 1 1 120
Univ. automate 2 2 121
CYK 1 1 122
Fonction Premier LL(1) 123
Cook-Levin 1 1 1 124
Transfo. Tseitin 1 1 125
2Sat est NL-dur 2 2 126
Compacité logique 1 1 127
Indécid. ValidFO 2 128
Indécid. RelSat 3 129
Logique Hoare 130
Sémantiques 131
901 903 907 909 912 913 914 915 916 918 921 N° dvp.

Table A.9 – Tableau de correspondance des leçons — Informatique (1/2).


Le numéro dans les cases correspond à la difficulté.

890
Correspondances entre leçons et développements

923 924 925 926 927 928 929 930 931 932 N° dvp.
Chevalley-Warning 2 14
Tri rapide 2 2 102
Tri par tas 1 1 103
Kendall 2 2 104
Tirage population 2 2 105
Fourier rapide 2 106
B-arbres 2 107
Palindromes 108
Turing-calc. =⇒ µ-réc. 109
Caractérisation RE 110
µ-réc. =⇒ λ-déf. 2 111
Scott-Curry 2 112
Polyn. chrom. 1 113
Turán 2 114
Formule d’Euler 2 115
Voyageur commerce 1 1 116
Tri topo. 1 1 117
Graphe Bruijn 1 118
Recherche motifs 119
Sépar. automate 1 120
Univ. automate 121
CYK 1 1 122
Fonction Premier LL(1) 2 123
Cook-Levin 1 124
Transfo. Tseitin 1 125
2Sat est NL-dur 2 2 126
Compacité logique 1 127
Indécid. ValidFO 2 128
Indécid. RelSat 3 129
Logique Hoare 3 3 130
Sémantiques 3 131
923 924 925 926 927 928 929 930 931 932 N° dvp.

Table A.10 – Tableau de correspondance des leçons — Informatique (2/2).


Le numéro dans les cases correspond à la difficulté.

891
157
154
159

181 204

892
Plongeoirs Carathéodory Décomp. Dunford Engel
214
Réduc. nilp.
219
Sherman-Morrison
Krull 162
153 Image exp. Semi-réduites
Faddeev 171
Entier carré-cube 151 170
Sous-alg. réd.
Val. abs. Q Minkowski FQ
Consv. rg
Chebotarev 152
Fermat cyclo. Hermite
207 223 Hensel
Smith Consv. det 156
155 203
Artin 158
126 122 142
Autom. C 264
150 Décomp. polaire
Schwartz-Zippel
120 Quaternions 106
144
141
160
125 102
121 Billard
d’Alembert-Gauss Gén. SL2 (Z) 191

Morphismes cyclo. 161


Waring mod. Dixon
Autom. Fq Cohn
Groupes 105
Cyclicité F∗p
Solides Platon Trois réflexions

Chevalley-Warning
123
101 Killing-Hopf
190 108

925 Burnside
103 104

Landau Permut. commutant


CNS transpo.
Groupes trans. Caractères diédraux

Groupes pq
107 105
246
Heisenberg

Figure A.1 – Graphe de correspondance des développements — Algèbre.


214

Cartan-Neumann Solow-Swan Riccati Modèle SIR Frenet-Serret


156

191 221
220 159 267
106 Logistique
Extrema liés

Suite polygones 253


Descente grad. 151

229 Lotka-Volterra
Choquet-Birkhoff Brouwer
Gauss-Seidel Liapounov 219 101
Ondes
Cauchy-Peano
181
215 228 Mityagin
Fractions continues
233 223 Modèle SIS Contrôlabilité
213
226 Archimède Nash
160 154
157 Bien posé 204
Kaczmarz 222
246 Cramér-Chernoff 203 234
162 Op. compacts
153 265 Phase stat.
Formes mod.
Pólya ana. 208
Grandes dévia.
Relaxation
236 Isom. non surj.
201
152 Jordan Fejér-Cesàro 241
Compacts Hilbert
155 1
261 Marche aléa. Primitiv. /2
Fresnel
Penney 245 Monodromie Riesz-Fischer
235 266

239
264 Prolong. ζ Plancherel
262
Buffon Holomorphie
209 207
Pólya dén.
Correspondances entre leçons et développements

230 205
LGN Paley-Wiener

250 Lagrange 144


Stirling TCL Taubérien
243
190 Approx. polyn

Minkowski réseau
141

Figure A.2 – Graphe de correspondance des développements — Analyse.

893
924

Compacité logique

894
918 Indécid. ValidFO

Sépar. automate 203


Palindromes
916
909 914
Transfo. Tseitin Turing-calc. =⇒ µ-réc.
928
2Sat est NL-dur
Fonction Premier LL(1) 913 912
Univ. automate
915 Caractérisation RE
Cook-Levin
Recherche motifs
921 Indécid. RelSat
Voyageur commerce
Scott-Curry
923 932 µ-réc. =⇒ λ-déf.
Formule d’Euler
CYK 907
B-arbres 925
929
Polyn. chrom.
Fourier rapide 901 Graphe Bruijn 190

931
Tri topo. Turán
Tri par tas
102
Sémantiques
Tri rapide Kendall 930
264
927

903 Logique Hoare

926
261
Tirage population

Figure A.3 – Graphe de correspondance des développements — Informatique.


Bibliographie

[All12] G. Allaire. Analyse numérique et optimisation. Presses de l’École


Polytechnique, 2012.
[Arm88] M. A. Armstrong. Groups and Symmetry. Springer, 1988.
[Ba16] V. Bansaye and al. Maths la Terminale S. Ellipses, 2016.
[Bar12] H. Barendregt. The Lambda Calculus. College Publications, 2012.
[Ber87] M. Berger. Geometry I. Springer, 1987.
[Bré87] H. Brézis. Analyse fonctionnelle. Dunod, 1987.
[Can09] B. Candelpergher. Calcul Intégral. Cassini, 2009.
[Car97] H. Cartan. Théorie élémentaire des fonctions analytiques d’une ou
plusieurs variables complexes. Hermann, 1997.
[Car14] O. Carton. Langages formels, calculabilité et complexité. Vuibert,
2014.
[Chr06] V. Christianto. A new wave quantum relativistic equation from quater-
nionic representation of Maxwell-Dirac isomorphism as an alternative
to Barut-Dirac equation. Electronic Journal of Theoretical Physics
(EJTP), 3(12) :117–144, 2006.
[CLRS10] T. Cormen, C. Leiserson, R. Rivest, and C. Stein. Introduction à
l’algorithmique. Dunod, 2010.
[Cor07] J.-M. Coron. Control and Nonlinearity. American Mathematical
Society, 2007.
[CQ09] D. Choimet and H. Queffélec. Analyse mathématique.Grands théorèmes
du vingtième siècle. Calvage & Mounet, 2009.
[Dem06] Jean-Pierre Demailly. Analyse numérique et équations différentielles.
EDP Sciences, 2006.
[Dix96] J. Dixon. The Permutation Groups. Springer, 1996.
[DMPS18] R. Douc, E. Moulines, P. Priouret, and P. Soulier. Markov chains.
Springer, 01 2018.
[Far18] J. Faraut. Analyse sur les groupes de Lie : une introduction. Calvage
& Mounet, 2018.
[FG97] S. Francinou and H. Gianella. Exercices de mathématiques pour l’agré-
gation : Algèbre 1. Masson, 1997.
[GJ79] M. Garey and D. Johnson. Computers and Intractability : A Guide to
the Theory of Np-Completeness. Freeman, 1979.
[GK06] R. E. Greene and G. Krantz. Function Theory of One Complex
Variable. American Mathematical Society, 2006.
[GK19] O. Garet and A. Kurtzmann. De l’intégration aux probabilités (2ème
édition). Ellipses, 2019.
[Gor82] D. Gorenstein. Finite Simple Groups : An Introduction to Their
Classification. Plenum, 1982.
[Gou20] X. Gourdon. Les maths en tête. Analyse. Ellipses, 2020.
[Han94] C. Hankin. Lambda Calculi, a guide for computer scientists. Clarendon
Press Oxford, 1994.
[Hel01] Y. Hellegouarch. Invitation aux mathématiques de Fermat-Wiles.
Dunod, 2001.
[Hum80] J. E. Humpreys. Introduction to Lie Algebras and Representation
Theory. Springer-Verlag, 1980.
[Iwa97] H. Iwaniec. Topics in Classical Automorphic Forms. American Ma-
thematical Society, 1997.
[Jac03] P. M. Jack. Physical space as a quaternion structure : Maxwell
equations. A brief note. arXiv : 0307038, 2003.
[JL01] G. James and M. Liebeck. Representations and Characters of Groups.
Cambridge University Press, 2001.
[JP03] J. Jacod and P. Protter. L’essentiel en théorie des probabilités. Cassini,
2003.
[Kat92] S. Katok. Fuchsian Groups. University of Chicago Press, 1992.
[Kob84] N. Koblitz. p-adic Numbers, p-adic Analysis and Zeta functions.
Springer, 1984.
[Mil87] W. Miller. The maximum order of an element of a finite symmetric
group. The American Mathematical Monthly, 94(6) :497–506, 1987.
[MT97] R. Mneimné and F. Testard. Introduction à la théorie des groupes de
Lie classiques. Hermann, 1997.
[Mur02] M. R. Murty. Prime numbers and irreducible polynomials. American
Mathematical Monthly, 109(5) :452–458, 2002.
[NN07] H. R. Nielson and F. Nielson. Semantics with applications. Springer,
2007.
[Pap93] C. H. Papadimitriou. Computational Complexity. Pearson, 1993.
[PCD96] D. Perrin, M. Cabanes, and M. Duchene. Cours d’algèbre, volume 30.
Ellipses Paris, 1996.
[Pou12] R. L. Pouso. Peano’s existence theorem revisited. 2012.
[PPT+ 08] M. Paterson, Y. Peres, M. Thorup, P. Winkler, and U. Zwick. Maxi-
mum overhang. arxiv : 0707.0093, 2008.
[QZ13] H. Queffélec and C. Zuily. Analyse pour l’agrégation. Dunod, 2013.

898
BIBLIOGRAPHIE

[RMS01] RMS. Épreuves orales des concours d’entrée aux grandes écoles, No
110. RMS, 2001.
[Rou03] François Rouvière. Petit guide de calcul différentiel à l’usage de la
licence et de l’agrégation. Cassini, 2003.
[Sam67] P. Samuel. Théorie algébrique des nombres. Hermann, 1967.
[Ser67] J.-P. Serre. Représentations linéaires des groupes finis. Hermann,
1967.
[Sha92] A. Shamir. Ip = pspace. J. ACM, 39(4) :869–877, October 1992.
[SKV04] M. G. Sergei, V. K. Kira, and V. K. Vladislav. On a quaternionic
maxwell equation for the time-dependent electromagnetic field in a
chiral medium. Journal of Physics A : Mathematical and General,
37(16) :4641–4647, apr 2004.
[SvdW28] O. Schreier and B. L. van der Waerden. Die automorphismon der
projektiven gruppen. In Abhandlungen aus dem Mathematischen
Seminar der Universität Hamburg, volume 6, pages 303–322. Springer,
1928.
[Tau08] P. Tauvel. Corps commutatifs et théorie de Galois. Calvage & Mounet,
2008.
[Ten08] G. Tenenbaum. Introduction à la théorie analytique et probabiliste des
nombres. coll. Échelles. Belin, 2008.
[Tes12] F. Testard. Analyse mathématique - la maîtrise de l’implicite. Calvage
& Mounet, 2012.
[Tis10] A. Tissier. R502 : Une étude qualitative d’équation différentielle. In
Revue de la Filière Mathématiques, number 120–4. 2010.
[Vau97] R. C. Vaughan. The Hardy-Littlewood method. Cambridge University
Press, 1997.
[Wol06] P. Wolper. Introduction à la calculabilité. Dunod, 2006.

899
Index

Abel 644, 651, 658, 665, 686, 690,


critère d’, 387 694, 710, 736, 743, 747, 756,
règle d’, 494 763, 773, 778, 786, 796, 802,
sommation d’, 32 836
théorème d’, 549 d’approximation, 366, 412, 656,
transformation d’, 387 738
accélération de Coppersmith-Winograd, 160
théorème d’, 671 de Csanky, 160
accessibilité, 709, 778, 805 CYK, 779
ad-nilpotent, 212 déterministe, 151, 627
adjacente d’Edmonds, 152
suites, 413 d’Euclide, 17, 111, 161, 206, 421,
adjoint, 141, 283, 397 625
opérateur, 286 d’Euclide étendu, 161
affine de Faddeev-Souriau, 162
fonction, 337 de Floyd-Warshall, 757, 837
aire, 152, 330, 409 glouton, 742, 836
Airy de Hessenberg, 159
fonctions d’, 369 de Hopcroft, 757, 836
aléatoire de Horner, 652, 653
marche, 415, 573, 599, 621 de Jordan-Bareiss, 160
d’Alembert-Gauss de Kaltofen-Wiedemann, 159
théorème de, 78 de Karatsuba, 656, 836
algèbre de Knuth-Morris-Pratt, 765
de Lie, 133, 182, 212, 301, 313 de Kosaraju, 714, 749, 804
de Lie linéaire, 213 de Kruskal, 710, 740, 838
réduite, 207 de Le Verrier, 155
relationnelle, 844 de Lewis-Carroll, 162
SPC, 843 en ligne, 648
SPCU, 844 de McNaughton et Yamada, 757
SPCUD, 845 de Moore, 757
algébrique en place, 633
entier, 54, 61, 120 de Preparata et Sarwate, 159
nombre, 54, 71, 103 de Prim, 639, 710, 740, 838
algorithme, 15, 86, 137, 151, 155, probabiliste, 151, 159, 627
198, 201, 366, 407, 411, 428, de Samuelson-Berkowitz, 155
441, 561, 569, 627, 634, 640, de Strassen, 160, 836

901
de Tarjan, 714, 749, 804 couvrant minimal, 738
de Thompson, 757, 778 de dérivation, 760, 787, 824, 830,
de Wiedemann, 159 850
α équilibré, 663
conversion, 678 quasi-complet, 638
analycité de recherche, 625, 663
des intégrales à paramètres, 523 rouge/noir, 663
analyse arc, 298, 481, 492, 713, 742, 743, 747,
ascendante, 783 755, 803
descendante, 783 entrant, 714, 748, 755
harmonique abélienne, 5 sortant, 714, 744, 748
lexicale, 753 Archimède
syntaxique, 753, 759, 779, 784 méthode d’, 409, 569
angle arête, 19, 77, 152, 705, 729, 731, 739,
d’Euler, 145 751, 866
orienté, 11, 220, 240 incidente, 706
anneau Artin
des entiers, 71, 95, 119, 120 théorème d’, 103
euclidien, 17, 67, 109, 201 attribut, 658, 817, 839
factoriel, 109, 126 automate, 665, 754, 763, 836, 858,
local, 81 863
noethérien, 81 calcul d’un, 755
complet, 755, 763, 775
principal, 83, 110
déterministe, 755, 763, 768, 775
apériodique
fini, 763, 768
matrice, 416
langage reconnu, 755
approximation
minimal, 757, 763, 836
algorithme d’, 366, 412, 656, 738
des parties, 756, 775
diophantienne, 420
à pile, 758
de fonctions, 290, 421, 430, 532,
universalité d’un, 774, 858
539, 545, 552, 655
automorphisme
de fonctions par densité, 547
de corps, 92, 96, 103, 122
de l’identité, 519
axiome, 101, 758, 783, 809, 850
d’un irrationnel, 417
du choix, 101, 809
de π, 409, 565
polynomiale, 536, 547, 552, 557 B-arbre
des solutions d’un système structure de, 658, 846
linéaire, 445, 453 Babai
de l’unité, 535, 543 théorème de, 26
arbre, 625, 634, 658, 709, 729, 738, Banach
787, 791, 798, 806, 807, 824, théorème d’isomorphisme de,
830, 837, 850 398
AVL, 663 barycentre, 226, 413
B-arbre, 658, 846 base
complet, 638 adaptée, 206
couvrant, 710, 738, 806 incomplète, 101, 168

902
INDEX

télescopique, 91 692, 699, 705, 743, 782, 791,


base de données, 659, 751, 817, 839, 827, 834, 847, 858
855 bouts
relation, 841 théorème des, 339, 367–370
système de gestion de (SGBD), Box-Muller
846 méthode de, 650
Bernoulli Bravais
loi de, 570, 588, 613, 622 réseau de, 249
Bessel brique, 225
inégalité de, 277, 286 Brouwer
β théorème de, 296, 429, 713
équivalence, 679 Buniakowski
fonction, 590 conjecture de, 67
loi, 588, 648 Burnside
réduction, 678, 696 théorème de, 54
Bézout
identité de, 56, 115 calcul
relation de, 14, 56, 84, 115, 657 conjonctif, 842
théorème de, 15, 84, 116, 220 relationnel, 817, 844
bien posé, 538 caractère
EDP, 385, 388, 397, 538 d’un groupe, 49
problème, 385, 388, 397, 538 d’une représentation, 54
Bienaymé-Tchebychev Carathéodory
inégalité de, 567 théorème de, 235, 428
billard, 219 cardinal, 12, 20, 23, 37, 41, 44, 54,
carré, 224 79, 87, 94, 128, 147, 211,
circulaire, 219 247, 685, 810
triangulaire, 224 Cartan
Binet-Cauchy théorème de, 301, 313
formule de, 177 Cauchy
binôme critère de, 304, 495
formule du, 69, 91, 123, 129, 195 problème de, 385, 388, 397
Birkhoff suite de, 278, 303, 392
théorème de, 423 théorème de, 43, 87, 471
bistochastique théorème intégral de, 493
matrice, 423, 427 Cauchy-Lipschitz
blocage de cardan, 145 théorème de, 309, 342, 347, 354,
Bolzano-Weierstrass 362, 367, 374, 385
théorème de, 278, 558, 809 Cauchy-Peano
booléen, 658, 699, 848 théorème de, 309, 332
Borel-Cantelli Cauchy-Schwartz
lemme de, 596 inégalité de, 338
Borel-Lebesgue caustique
propriété de, 808 cercle, 219
boucle, 19, 637, 641, 645, 677, 687, Cayley-Hamilton

903
théorème de, 158, 179, 195, 208, classe
210 de complexité, 671, 741, 774, 859
central limite classes
théorème, 563, 568, 580, 613, 620 formule des, 54, 255
centralisateur, 10, 48, 57 classe C 1 , 323
centre, 10, 57, 138, 212 classification
d’une algèbre de Lie, 212 des formes quadratiques, 217
cercle des groupes finis, 26, 47, 58
caustique, 219 des groupes simples, 47
méthode du, 131 clique, 706, 724, 734, 867
Cesàro clôture algébrique, 79, 89, 93, 96,
moyenne de, 494, 535 106, 135, 198
théorème de, 531 codage
chaîne de Gödel, 689, 700
de Markov, 360, 414, 416, 573, coefficient
588, 599, 606 binomial, 25, 174, 837
récurrente, 599, 606 de Fourier, 383, 487, 531, 657
transiente, 599, 606 multinomial, 26
chaleur coercive, 263, 396
équation de la, 386, 538 forme quadratique, 263
changement de variable, 368, 479, cofacteur, 157
499, 537, 540 colonne
Chebotarev d’une matrice, 167, 260
théorème de, 172 coloration, 717, 730, 736, 741, 838,
chemin, 18, 145, 179, 285, 298, 416, 866
461, 477, 510, 706, 725, 738, de graphes, 77, 709
745, 747, 769, 802 comatrice, 136, 162, 470
eulérien, 710, 747 formule de la, 136, 470
hamiltonien, 711, 738, 750 combinateur
Chevalley-Warning de point fixe, 681, 696
théorème de, 73 compacité
chinois dénombrable, 809
théorème des restes, 42, 85, 160, séquentielle, 809
161 théorème de, 789, 807
Choquet compact, 186, 230, 238, 249, 263,
théorème de, 423 277, 281, 291, 296, 374, 416,
chromatique 423, 429, 471, 479, 531, 560,
nombre, 709, 721, 727 591, 807
polynôme, 717 ensemble, 277, 423, 429
Church-Rosser d’un espace de Hilbert, 277
théorème de, 679 opérateur, 280, 281
Church-Turing théorème de sortie de tout, 339
thèse de, 665 complet
circuit, 714, 747 espace, 275, 303
eulérien, 747 système de connecteurs, 801

904
INDEX

complétude, 101, 118, 121, 278, 303, consommateur, 323


741, 777, 789, 792, 809, 824, continuité
854, 866 des intégrales à paramètres, 490,
théorème de, 809, 824 496, 510
complexité, 137, 152, 155, 206, 407, séquentielle, 186
454, 458, 627, 634, 642, 644, uniforme, 534
651, 658, 665, 729, 737, 741, contractante, 448
743, 747, 765, 778, 779, 789, contractile, 289
792, 801, 802, 859 contraction
algorithmique, 137, 155 d’une arête, 707
classe de, 671, 741, 774, 859 contrôlabilité, 396
moyenne, 627 contrôle, 396
spatiale, 670, 781, 793 convergence
temporelle, 670, 683, 765, 779, dominée, 305, 490, 580, 592, 594
793 d’intégrale, 487
complexité algorithmique, 137, 155 linéaire, 409
composante monotone, 304, 583
connexe, 18, 118, 182, 302, 315, normale, 488
709, 804 simple, 305, 524, 552
fortement connexe, 714, 802 uniforme, 277, 296, 424, 429, 532
p-primaire d’un groupe, 84 vitesse de, 409, 442, 458, 565
concave, 327, 428, 429, 493 convexe, 189, 233, 235, 410, 415, 423,
condensation 429, 441, 467, 539, 618
formule de, 162 ensemble, 235, 429
confiance enveloppe, 68, 236, 428, 467
intervalle de, 565 fonction, 441, 618
congruence fonction strictement, 441, 618
de matrices, 260, 267, 268 convolution, 485, 519, 532, 539, 657
sous-groupe de, 14 produit de, 519
conjugué, 39, 41, 47, 50, 55, 66, 78, Cook-Levin
94, 100, 122, 138, 181, 621 théorème de, 791, 800, 805, 866
d’un entier algébrique, 57 Coppersmith-Winograd
d’une racine, 55 algorithme de, 160
connexe, 18, 139, 142, 178, 249, 275, Coq, 48, 789
296, 297, 315, 461, 463, 464, corde vibrante
467, 734, 747, 749, 802, 803, équation de la, 381
811 corps
par arcs, 179, 296 cyclotomique, 92, 120
composante, 18, 118, 182, 302, de décomposition, 78, 89, 106,
315, 709, 804 199
fortement, 714, 747, 802 extension de, 61, 78, 89, 92, 101,
graphe, 18, 709, 734, 802 103, 139, 199
simplement, 152, 289, 315 fixe, 103
connexité gauche, 138
par arcs, 178 intermédiaire, 106

905
de nombres, 54, 61, 95, 119, 122, De Bruijn
543 graphe de, 747
p-adique, 118 De Morgan
correction, 634, 640, 644, 743, 825, lois de, 798
853 décomposition
correspondance corps de, 78, 89, 106, 199
de Galois, 91, 107 de Dunford, 183, 192, 194, 317,
couplage parfait, 152 476
courbe, 328, 342, 358, 461, 535 en éléments simples, 356, 492
elliptique, 71, 111 en facteurs premiers, 30, 84, 94,
paramétrée, 437 116
courbure, 437 de Jordan, 133, 192, 198, 469
Cramér-Chernoff en produit de cycles, 35
théorème de, 615, 617 degré, 20, 64, 70, 73, 78, 82, 87, 89,
creuse 95, 103, 111, 120, 132, 143,
matrice, 449 147, 164, 173, 199, 211, 217,
critère 300, 341, 417, 472, 555, 557,
d’Abel, 387 651, 665, 706, 724, 731, 742,
de Cauchy, 304, 495 749, 796, 807, 858
critique entrant, 714, 749
point, 232, 367–370, 442, 618 d’un sommet, 20, 731
crochet sortant, 714, 749
de dualité, 402 Delta-méthode, 569
de Lie, 212 dense
croissance sous-groupe, 220
économique, 341 densité, 96, 136, 277, 426, 497, 507,
logistique, 347, 359 583, 588, 597, 621, 649, 728
Csanky des matrices inversibles, 136
algorithme de, 160 dérivation, 309, 347, 383, 409, 485,
cuspidale 498, 509, 618, 759, 780, 783,
forme modulaire, 482 824, 830, 850
cycle, 19, 29, 35, 706, 725, 734, 738, des intégrales à paramètres, 510
745, 768, 806 terme à terme, 383
eulérien, 710 dérivée
hamiltonien, 669, 711, 738 faible, 388, 396
orienté, 714 descente
cyclique de gradient, 441
espace, 190 déterminant, 11, 53, 133, 135, 140,
groupe, 41, 47, 84, 91, 95, 128 152, 157, 163, 170, 173, 182,
sous-espace, 190, 474 201, 217, 247, 262, 267, 270,
cyclotomique 383, 451, 470, 499, 657, 709
corps, 92, 120 de Vandermonde, 177
polynôme, 94, 121, 174, 657 déterminisme, 151, 353, 433, 627,
CYK 668, 687, 763, 768, 834, 860,
algorithme, 779 863

906
INDEX

déterministe 426, 433, 485, 512, 535, 543,


algorithme, 151, 627 592, 596, 647
développement de Dirac, 390
asymptotique, 26, 367, 495, 502 diviser pour régner, 160, 627, 651,
limité, 71, 183, 309, 410, 441, 836
485 division euclidienne, 14, 74, 111, 159,
diagonale dominante, 445 201, 418, 688, 726
diagonalisable, 133, 139, 182, 189, Dixon
192, 194, 260, 476, 575 conjecture de, 26
matrice, 182, 192, 198, 207, 573 théorème de, 10, 39
diagonalisation, 55, 139, 192, 201, domaine
209, 573 actif, 842
dichotomie, 67, 643, 645, 836 fondamental, 16, 477
dictionnaire holomorphie, 463, 466
structure de, 659 dominée
diédral, 10, 43, 49 théorème de convergence, 305,
groupe, 10, 43, 49, 252 490, 583, 592, 594, 595
difféomorphisme, 180, 188, 301, 314, dual
488, 501 d’un groupe, 5
différentiable dualité, 139, 190, 327, 396
fonction, 323, 441 crochet de, 402
différentielle Duhamel
formule de, 391
équation, 133, 309, 341, 347, 353,
Dunford
361, 367, 372, 381, 494, 502,
décomposition de, 183, 192, 194,
512, 620
317, 476
dimension, 50, 55, 102, 133, 135, 142,
dynamique
147, 164, 167, 179, 190, 209,
programmation, 639, 640, 742,
212, 217, 235, 248, 262, 266,
779, 836
268, 275, 277, 281, 295, 307,
système, 342, 347, 355, 365, 372,
313, 327, 386, 416, 428, 461,
594
474, 477, 544, 560, 567, 652
de Hausdorff, 152 économique
Dirac croissance, 341
distribution de, 390 modèle, 341
masse de, 390 Edmonds
suite de, 535 algorithme d’, 152
Dirichlet Eisenstein
lemme de, 420 série de, 482, 483
noyau de, 531 élément
discontinu algébrique, 96, 112
groupe, 243 transcendant, 96
discriminant, 217, 300, 417 endomorphisme
distance codiagonalisables, 209
de Kendall, 640, 643 cotrigonalisables, 211
distribution, 275, 310, 388, 396, 416, diagonalisable, 193, 209

907
nilpotent, 190, 212 de Nérode, 757, 764
trigonalisable, 183, 211 ergodique
Engel chaîne de Markov, 416
théorème d’, 212 Erlangen
ensemble programme d’, 258
inductif, 98 espace
de Kakeya, 147 complet, 275, 303
ensemble indépendant, 708, 724, 867 cyclique, 190
entier de Hilbert, 277, 281, 285, 388,
algébrique, 54, 61, 120 396
de Barendregt, 681, 702 propre, 139, 207, 416, 475
de Church, 680 vectoriel normé, 184, 189, 280,
énumérateur, 669 281, 303, 423, 459, 560, 597
enveloppe convexe, 68, 236, 428, 467 espérance, 436, 567, 572, 580, 589,
épidémie, 350, 353, 361 594, 617, 627, 649, 725
équation d’une variable aléatoire, 580,
de Bachet, 112 617, 649
bien posée, 388, 397 estimation
de la chaleur, 386, 538 paramétrique, 565
aux dérivées partielles, 306, 309, étoilé, 238, 296
381, 388, 397, 532 étoile
différentielle, 133, 309, 341, 347, lemme de l’, 757
353, 361, 367, 372, 381, 494, Euclide
502, 512, 620 algorithme d’, 17, 111, 161, 206,
différentielle autonome, 342, 354, 421, 625
374 Euclide étendu
différentielle de Bernoulli, 341, algorithme d’, 161
351 euclidien
diophantienne, 3, 70, 109, 118, anneau, 17, 67, 109, 201
128, 217 Euler
fonctionnelle, 527 fonction Γ d’, 495, 524, 590
de Navier-Stokes, 404 formule d’, 258, 532, 713, 731
des ondes, 381 eulérien
de transport, 385, 388, 396 chemin, 710, 747
équidistribution, 594 circuit, 747
équilibre, 133, 225, 341, 347, 372 explosion
attractif, 341 théorème d’, 321, 339, 348, 354,
de Nash, 133, 429 363, 370, 374
d’un système dynamique, 341, exponentielle
355 de matrice, 178, 188
équiprobabilité, 35 expression
équisatisfiabilité, 797 régulière, 754, 766, 772, 777
équivalence extension
logarithmique, 621 algébrique, 99, 103, 119, 139, 199
de matrices, 163, 165 de corps, 61, 78, 89, 92, 101, 103,

908
INDEX

139, 199 convexe, 441, 618


extraction, 307, 558 Γ, 495, 524, 590
extrema liés génératrice, 24, 482, 542, 550,
théorème des, 323, 346 570, 606
extrémal harmonique, 537
point, 226, 423 holomorphe, 80, 461, 464, 470,
477, 492, 510
face, 712, 731 homogène, 341
externe, 712, 733 de Liapounov, 377
interne, 712, 732 lipschitzienne, 441
longueur de, 712
locale, 461
facteur
µ-récursive, 676, 682, 687, 692,
invariant, 204
696, 700
factoriel
périodique, 478, 487, 531
anneau, 109, 126
polynomiale, 73, 78, 126, 136,
factorisation
151, 179, 496, 555, 558, 591,
d’idéal, 122
655
Faddeev-Souriau
de répartition, 568, 586, 646
algorithme de, 162
strictement convexe, 441, 618
faible
de taux, 613
dérivée, 388, 396
d’utilité, 327, 429
formulation, 388, 396
ζ de Riemann, 522
solution, 310, 388, 396
famille fonctions implicites
complète, 277 théorème des, 80, 324
totale, 277, 281, 285 fonction primitive récursive, 673,
Fary 687, 692
théorème de, 736 fonction de transition, 687, 755, 763
Fatou étendue, 755
lemme de, 619 forêt, 709
Feit-Thompson forme
théorème de, 48 modulaire, 16, 477
Fejér quadratique, 61, 118, 260, 268
noyau de, 531 forme normale, 17, 133, 678, 686,
théorème de, 531 702, 759, 768, 779, 797, 802
Fermat de Chomsky, 686, 759, 779
théorème de, 113, 120 de Greibach, 686, 759
Floyd-Warshall de Jordan, 469
algorithme de, 757, 837 forme normale conjonctive, 768, 797,
fonction 802
β, 590 forme quadratique
calculable, 665, 692, 855, 859, semi-réduite, 264, 272
863 formulation
continue, 80, 230, 263, 296, 342, faible, 388, 396
351, 429, 488, 496, 505, 531, forte, 388, 396
546, 552, 560, 582, 591 variationnelle, 388, 396

909
formule Fubini-Tonelli
2Cnf, 802 théorème de, 499, 540, 573, 585
de Binet-Cauchy, 177 fuchsien
du binôme, 69, 91, 123, 129, 195 groupe, 249
des classes, 54, 255 fullerène, 731
de la comatrice, 136, 470
de condensation, 162 Galois
de Duhamel, 391 correspondance de, 91, 107
d’Euler, 258, 532, 713, 731 groupe de, 91, 95, 106, 122, 199
théorème fondamental de la
d’inversion de Fourier, 5, 510
théorie de, 106
de Pascal, 149
théorie de, 57, 61, 94, 106, 199
de Poisson, 8, 512, 539
Γ
du produit, 118
fonction, 495, 524, 590
de réflexion, 527
Gauss
des résidus, 477
intégrale de, 491, 506, 507, 516,
de Sherman-Morrison, 137
523, 583
sommatoire de Poisson, 524, 539
lemme de, 68, 95
de Stirling, 40, 556, 580
pivot de, 137, 160, 204, 459, 652
de Vandermonde, 601
problème du cercle, 543
de Woodbury, 137
Gauss-Lucas
Fourier théorème de, 68
coefficient de, 383, 487, 531, 657 Gauss-Seidel
formule d’inversion de, 5, 510 méthode de, 428, 445, 454, 460
série de, 383, 487, 532, 561 Gelfand
transformée de, 5, 295, 505, 509, formule de, 450
514, 523, 540 gendarmes
transformée rapide, 651, 653 théorème des, 100
fraction générateur, 12, 23, 49, 81, 86, 93,
continue, 417 103, 129, 139, 204, 220, 239,
rationnelle, 119, 353, 421, 468, 243
492, 541, 577 d’un groupe, 14, 49, 239
Fréchet-von Neumann-Jordan de SL2 (Z), 14
théorème de, 280 génératrice
Frenet fonction, 24, 482, 542, 550, 570,
trièdre de, 437 606
Frenet-Serret géométrique
formules de, 437 loi, 570, 649
Fresnel Gershgorin
phase de, 507 disques de, 454
Frobenius théorème de, 451
morphisme de, 91 glouton
théorème de, 139 algorithme, 742, 836
Fubini Gödel
théorème de, 295, 470, 499, 540, codage de, 689, 700
573, 585, 589 Gorenstein, 47

910
INDEX

gradient, 322 des classes d’idéaux, 3, 126


conjugué (méthode de), 444 cyclique, 41, 47, 84, 91, 95, 128
méthode du gradient conjugué, diédral, 10, 43, 49, 252
444 discontinu, 243
de norme constante, 337 dual, 5
à pas optimal, 444 fondamental, 289
à pas optimal (méthode de), 444 fuchsien, 249
Gram-Schmidt de Galois, 91, 95, 106, 122, 199
orthonormalisation, 444 d’isométries, 3, 16, 51, 217, 239,
grammaire 243, 251, 736
algébrique, 686, 758, 779, 784, de Lie, 133, 189, 215, 301, 309,
855 315
ambiguë, 760 modulaire, 14
hors-contexte, 758 d’ordre pq, 41
LL(1), 759, 783 de pavage, 249
grandes déviations, 613, 617 présentation de, 13, 49, 54
graphe, 18, 77, 152, 326, 343, 416, symétrique, 3, 18, 28, 35, 52
550, 573, 649, 669, 705, 724, topologique, 3, 189, 215, 249,
731, 739, 743, 755, 802, 810, 296
838, 863
Hadamard
acyclique, 714, 743
inégalité de, 161, 162
coloration, 77, 737, 838, 867
Hahn-Banach
complémentaire, 725, 867
théorème de, 101
complet, 706, 724, 739 hamiltonien
connexe, 18, 709, 734, 802 chemin, 711, 738, 750
cyclique, 77, 706, 717 Hardy-Littlewood
de De Bruijn, 747 théorème taubérien de, 545
eulérien, 710, 747 Hartog
fini, 21, 705, 724, 810 pricipe de prolongement, 467
graphe r-parti, 724 Hasse
hamiltonien, 711, 750 principe de, 70, 111, 132
isomorphe, 706 Hasse-Minkowski
linéaire, 706, 717 théorème de, 118, 217
multiparti, 708, 729 Hausdorff
multiparti complet, 708, 729 dimension de, 152
orienté, 573, 713, 743, 747, 755, Heine
802 théorème de, 298, 534
planaire, 712, 731, 806 Heine-Borel
pondéré, 738 théorème de, 279
probabiliste, 573 Heisenberg
quotient, 715, 804 principe d’incertitude, 5
r-parti, 708 Helly
simple, 77, 705, 725, 731 théorème de, 235
triangulation, 731 Hensel
groupe lemme de, 69, 118, 132

911
Herbrand d’un groupe, 10
théorème de, 807 induction, 52, 677, 690, 757, 778,
Hermite 792, 797, 807, 831, 848
inégalité d’, 267, 270 inégalité
théorème d’, 260, 270 de Bessel, 277, 286
Hessenberg de Bienaymé-Tchebychev, 567
algorithme de, 159 de Cauchy-Schwarz, 278, 291,
Hilbert 442, 584, 618
espace de, 277, 281, 285, 388, de Hadamard, 161, 162
396 de Jensen, 436
Hille-Yosida de Kolmogorov, 596
théorème de, 389 de Markov, 585, 619
holomorphe, 80, 407, 461, 470, 479, du parallélogramme, 279
487, 509 triangulaire, 55, 64, 114, 244,
fonction, 80, 461, 464, 470, 477, 282, 291, 297, 304, 424, 431,
492, 510 452, 465, 497, 503, 534, 554,
holomorphie 558, 582, 591, 738
domaine d’, 463, 466 ultramétrique, 118
homogène inflexion
fonction, 341 point d’, 367, 368, 370
homotopie, 289, 463 intégrale
Hopcroft sur un contour, 492
algorithme de, 757, 836 de Fresnel, 487
Horner de Gauss, 491, 506, 507, 516,
algorithme de, 652, 653 523, 583
méthode de, 198, 656
de matrices, 473
Hurwitz
à paramètre, 487, 490, 496, 502,
théorème de, 144
505, 510, 532, 539
hyperplan, 339
semi-convergente, 487
idéal intégration
d’une algèbre de Lie, 213 par parties, 32, 290, 396, 488,
d’un anneau, 81 503, 541
engendré par une partie, 82 interpolation
maximal, 81 de Lagrange, 185, 208, 552, 557,
principal, 120, 206 653, 655
Immerman-Szelepcsényi intersection
théorème de, 671, 805 lemme de Krull, 81
incertitude intervalle
de Heisenberg, 5 de confiance, 565
indécidabilité, 702, 782, 812, 817, de vie, 354, 363, 374
845, 855 invariant
indépendance de boucle, 637, 640, 743
de variables aléatoires, 565, 570, inversion
580, 588, 594, 599, 613, 619 de Fourier, 5, 510
indice inversion locale, 181, 301, 314

912
INDEX

théorème d’, 178, 181, 301, 314 Kolmogorov


irréductible inégalité de, 596
matrice, 416 König
isométrie, 3, 10, 16, 51, 133, 138, 217, lemme de, 809
239, 243, 290, 306, 386, 736 Kosaraju
du plan, 239, 243 algorithme de, 714, 749, 804
d’un solide, 251 Kronecker
isomorphisme lemme de, 122, 596
théorème d’, 16, 87, 123, 142, Kronecker-Weber
176, 247 théorème de, 95
Krull
Jacobi lemme d’intersection de, 81
méthode de, 449 théorème de, 101
jacobienne, 318 Kruskal
matrice, 324 algorithme de, 710, 740, 838
Jensen Kuhn-Tucker
inégalité de, 436 théorème de, 232, 328
Jordan Kuiper
décomposition de, 133, 192, 198, théorème de, 288
469 Kummer
forme normale de, 469 théorème de, 120
lemme de, 528
Jordan-Bareiss L1
algorithme de, 160 convergence, 586
Jung lacet, 289, 492
théorème de, 237 Lagrange
interpolation de, 185, 208, 552,
k-ième maximum, 631 557, 653, 655
Kaczmarz multiplicateur de, 232, 323
méthode de, 455 polynôme de, 183, 552, 557
Kakeya théorème de, 44, 87, 144, 477
ensemble de, 147 λ
Kaltofen-Wiedemann calcul, 677, 696, 700
algorithme de, 159 définissable, 682, 696
Karatsuba terme, 677
algorithme de, 656, 836 Landau
Kein-Milman fonction de, 28
théorème de, 424 noyau de, 536
Kendall théorème de, 28
distance de, 640, 643 langage
Killing-Hopf algébrique, 753, 758
théorème de, 243 sans étoile, 772
Kleene IMP, 824, 830, 847
théorème de, 754, 757 inhéremment ambigu, 760
Knuth-Morris-Pratt rationnel, 686, 753, 766
algorithme de, 765 récursif, 668, 753

913
récursivement énumérable, 668, 313
753 groupe de, 133, 189, 215, 301,
récursivement séparable, 682 309, 315
régulier, 753, 754, 766, 772, 778 Lie-Kolchin
résiduel, 766 théorème de, 211
laplacien ligne
en coordonnées polaires, 537 d’une matrice, 167, 457
Lax-Milgram en ligne
théorème de, 396, 402 algorithme, 648
Le Verrier Lindström
algorithme de, 155 théorème de, 810
Lebesgue linéaire
espace de, 275, 303 forme, 102, 191, 327
intégrale de, 563 Liouville
norme de, 303 théorème de, 512
théorème de, 510 lipschitzienne
Legendre fonction, 441
théorème de, 421 local-global, 70, 118, 132, 217
lemme logarithme, 183, 188, 296, 463, 613,
de Borel-Cantelli, 596 621, 685
de Dirichlet, 420 discret, 86
de l’étoile, 757 d’une matrice, 313
de Fatou, 619 logique
de Gauss, 68, 95 de Hoare, 625, 789, 824, 853
de Hensel, 69, 118, 132 du premier ordre, 101, 807, 812,
de Jordan, 528 817, 853, 855
de König, 809 propositionnelle, 791, 797, 807,
de Kronecker, 122, 596 828, 858, 863
de Nakayama, 81 logistique
d’Ogden, 761 croissante, 347, 359
des poignées de main, 733 modèle, 347
de Riemann-Lebesgue, 505, 512 loi
de Schur, 55, 58 de Bernoulli, 570, 588, 613, 622
de Schwartz-Zippel, 147 β, 588, 648
de Slutsky, 568, 587 faible des grands nombres, 618
de Sperner, 713 forte des grands nombres, 566,
de Zorn, 96, 809 579, 594
Lévy géométrique, 570, 649
théorème de, 592 des grands nombres, 565, 578,
Lewis-Carroll 596, 613
algorithme de, 162 de Poisson, 580, 647
Liapounov simulation, 647
fonction de, 377 uniforme, 599
Lie Lotka-Volterra
algèbre de, 133, 182, 212, 301, modèle de, 372

914
INDEX

Lowenheim-Skolem McNaughton et Yamada


théorèmes de, 810 algorithme de, 757
Mellin
machine transformée de, 528
de Turing, 665, 676, 683, 687, Mertens
692, 698, 702, 753, 774, 791, estimation de, 32
811, 855, 860, 863 mesurable, 101, 303
machine de Turing mesure
déterministe, 668, 859, 863 nulle, 152, 303
malthusien
méthode
modèle, 351
d’Archimède, 409, 569
marche aléatoire, 415, 573, 599, 621
de Box-Muller, 650
Markov
du cercle, 131
chaîne de, 360, 414, 416, 573,
de descente de gradient, 441
588, 599, 606
de Gauss-Seidel, 428, 445, 454,
inégalité de, 585, 619
460
processus de, 563
du gradient conjugué, 444
martingale, 597
de gradient à pas optimal, 444
Maschke
de Horner, 198, 656
théorème de, 54
de Kaczmarz, 455
masse
de Dirac, 390 de Newton, 71, 194, 648
master theorem, 631, 652 de rejet, 649
matrice de relaxation, 451
bistochastique, 423, 427 variationnelle, 505
codiagonalisables, 207 méthode itérative, 133, 448, 451, 455
congruente, 261, 268 mineur, 172, 204
creuse, 449 d’une matrice, 172
diagonale, 17, 165, 185, 192, 204, minimisation
210, 451, 470, 575 bornée, 675, 689, 693, 696
à diagonale dominante, 451 non bornée, 677, 689, 694, 696
diagonalisable, 182, 192, 198, minimisation non bornée, 677, 689,
207, 573 694, 696
équivalente, 165, 201 Minkowski
nilpotente, 171, 192, 197, 207, théorème de, 262, 267, 268, 512,
474 539
orthogonale, 144, 189, 260, 459 Mittag-Leffer
réelle symétrique définie positive, théorème de, 467
460 Mityagin
semi-réduite, 267, 268 décomposition de, 285
stochastique, 415, 416 mode
symétrique, 182, 185, 260, 264, propre, 384
268, 317, 459 modèle, 344, 347, 353, 361, 372, 789,
de Toeplitz, 161 810, 813, 846
trigonalisable, 156, 200, 476 de calcul, 687, 696
de Vandermonde, 172, 652, 653 compartimental, 353, 354, 361

915
de croissance, 341, 347, 359 équation de, 404
épidémiologique, 353, 361 Nérode
logistique, 347 équivalence de, 757, 764
de Lotka-Volterra, 372 Neumann
malthusien, 351 théorème de, 313
modélisation, 563 Newton
module, 55, 65, 119, 121, 189, 206, forme du binôme de, 69, 91, 123
219, 314, 453, 472, 505 méthode de, 71, 194, 648
sur un anneau, 81, 112, 201 somme de, 155
de continuité, 298 nilpotent, 166, 171, 183, 194, 207,
moment 212, 469
d’une variable aléatoire, 580 algèbre de Lie, 214
moments, 579, 590 endomorphisme, 190, 212
monodromie, 463 NL
théorème de, 463 complet, 805, 860
monoïde dur, 802
syntaxique, 766 noethérien
monotone anneau, 81
opérateur, 388 nombre
théorème de convergence, 304, algébrique, 54, 71, 103
583 chromatique, 709, 721, 727
Moore de classes, 13, 40, 126, 543
algorithme de, 757 p-adique, 132
morphisme nombres complexes
de corps, 89, 93, 96, 103, 108,
de module 1, 139, 219
122
nombre premier
F -morphisme de corps, 108
régulier, 125
de représentations, 58
théorème des, 33
sauvage, 96
non-déterminisme, 672, 756, 778,
µ-récursive
791, 811, 860, 863
fonction, 676, 682, 687, 692, 696,
non-terminaux, 758, 780, 783
700
normal
multiplicateur
vecteur, 437
de Lagrange, 232, 323
normale
multiplicativité
convergence, 488
des degrés, 91
norme
musée, 238
d’un entier algébrique, 122
nœud de Lebesgue, 303
d’interpolation, 555 noyau
de Tchebychev, 556 de la chaleur, 537
Nakayama de Dirichlet, 531
lemme de, 81 de Fejér, 531
Nash de Landau, 536
équilibre de, 133, 429 régulier, 519, 535
Navier-Stokes NP, 791, 803, 863

916
INDEX

complet, 712, 739, 750, 768, 791, P, 779, 803


800, 803, 861, 863 complet, 860
dur, 791, 863 p-adique
Nullstellensatz nombre, 132
combinatoire, 76 packing, 863
de Hilbert, 76 Paley-Wiener
théorème de, 8, 509
observabilité, 396 palindrome, 421, 683
octonion, 144 paradigme de programmation, 836
Ogden
paradoxe
lemme d’, 761
de Banach-Tarski, 101
ondes
de Russell, 789
équation des, 381
de Walter Penney, 570
opérateur
parallélogramme
adjoint, 286
inégalité du, 279
borné, 282, 285
paramètre
compact, 280, 281
intégrale à, 487, 490, 496, 502,
d’entrelacement, 58
505, 510, 532, 539
maximal monotone, 388
parcours
monotone, 388
de graphe, 710
de rang fini, 280, 281
en profondeur, 738, 743, 760, 806
opération
élémentaire, 17, 160, 201, 459, partie génératrice, 18, 84, 140, 239
625, 632, 666 partition
optimisation, 232, 262, 328, 346, 423, de n, 39
444, 454, 512, 618, 659, 669, Pascal
705, 741, 771, 806 formule de, 149
sous contrainte, 226, 323, 346 pavage, 249
orbite, 37, 243 Pell-Fermat
sous l’action d’un groupe, 251 équation de, 111, 421, 625
ordre permutation, 3, 18, 23, 35, 323, 423,
d’un élément, 31, 85 475, 633, 643, 725, 733
d’une fonction méromorphe, 477 Perron-Frobenius
maximum d’une permutation, 31 théorème de, 416
partiel, 743 perturbation
d’une permutation, 28 de matrices, 135
orthogonalité petits arcs, 477, 481
des caractères, 5 pgcd, 41, 109, 201, 265, 270
relation d’, 5, 52, 56, 387, 533 phase stationnaire, 502
relations d’, 52, 56, 387, 533 pivot
Ostrowski de Gauss, 137, 160, 204, 459, 652
théorème d’, 114 en place
ouvert algorithme, 633
application, 398 planaire
théorème graphe, 712, 731, 806
de l’application, 398 plongement, 712, 731

917
Platon 557
solide de, 251, 731 minimal, 55, 90, 92, 100, 103,
plongement 122, 133, 142, 159, 174, 193,
planaire, 712, 731 198, 208, 475
plongeoir, 225 primitif, 68
poignées de main réciproque, 155, 657
lemme des, 733 scindé à racines simples, 207
Poincaré séparable, 106
demi-plan, 16, 477 Post
point problème de, 812, 817, 855
d’accumulation, 243, 313, 464, prédation, 347, 372
558 préfixe, 642, 747, 763
extrémal, 226, 423 Preparata et Sarwate
point d’équilibre, 341, 347, 353, 372 algorithme de, 159
stabilité, 347, 353 présentation
point fixe, 27, 35, 243, 296, 429, 442, d’un groupe, 13, 49, 54
454, 697, 713, 852 Prim
combinateur de, 681, 696 algorithme de, 639, 710, 740, 838
de Curry, 681 primitif
de Turing, 681, 699 élément, 90
Poisson vecteur, 260, 264
famille de, 536 primitif récursif
formule de, 8, 512, 539 fonction, 673
formule sommatoire de, 524, 539 prédicat, 675, 689
pôle primitivation, 496
d’une fonction, 522 principe
d’une rotation, 251 local-global, 70, 118, 132, 217
pôles, 407, 467, 470, 483 des tiroirs, 420, 425, 670
Pólya des zéros isolés, 462, 466, 481,
processus de, 648 510
théorème de, 599, 606 probabiliste
polyèdre, 251, 731 algorithme, 151, 159, 627
polygone, 51, 220, 409, 712, 734 probabilité, 563
régulier, 51, 409, 734 conditionnelle, 153, 592
polynôme problème
annulateur, 94, 159, 177, 207, de l’arrêt, 702, 858
417 bien posé, 385, 388, 397, 538
caractéristique, 155, 178, 193, de Cauchy, 385, 388, 397
195, 208, 210, 452, 469, 575 décidable, 625, 665, 692, 782,
chromatique, 717 815, 855, 859
cyclotomique, 94, 121, 174, 657 de décision, 669, 741, 753, 771,
d’endomorphisme, 156, 207 806
homogène, 82, 150, 154, 217 indécidable, 692, 782, 812, 817,
de Lagrange, 183, 552, 557 828, 855
de meilleure approximation, 555, du mot, 753, 758, 779

918
INDEX

NP-complet, 739, 750, 768, 791, pur, 138


800, 803, 861, 863 quatre carrés
d’optimisation, 232, 328, 346, théorème des, 144, 543
423, 669, 741, 771, 806 quatre couleurs
des partis, 563 théorème des, 736, 789
de Post, 812, 817, 855
voyageur de commerce, 738 R, 668
processus racine
aléatoire, 563, 724 carrée, 139, 185, 263, 411, 421,
de Markov, 563 427, 459, 463, 496
produit d’un polynôme, 56, 73, 99, 103,
de convolution, 519 121, 147, 156, 417, 452, 475
eulérien, 526 primitive de l’unité, 172
formule du, 118 de l’unité, 56, 92, 120, 172
programmation Radon
dynamique, 639, 640, 742, 779, théorème de, 237
836 rang, 26, 70, 135, 163, 167, 196, 235,
gloutonne, 838 266, 281, 475, 542
linéaire, 837 d’une matrice, 170, 324
progression
théorème du, 135, 163, 167
arithmétique, 561, 730
rationnel
projecteur, 207, 288, 469
langage, 686, 753, 766
prolongement
rayon spectral, 189, 416, 445, 451
analytique, 461, 464, 473, 509,
RE, 668, 822
522
recherche dichotomique, 643, 645,
prolongement d’applications, 518
836
propre
recherche de motif, 763
espace, 139, 207, 416, 475
réciproque
valeur, 52, 55, 64, 133, 135, 155,
théorème de la, 648
183, 188, 193, 195, 207, 260,
283, 416, 451, 471, 544, 573 récurrence
vecteur, 59, 162, 212, 283, 416 d’une chaîne de Markov, 599,
PSpace, 774 606
complet, 774, 805, 861 récursion primitive, 674, 688, 692,
dur, 774 696
puissance récursivement énumérable, 668, 692,
k-ième, 128 753, 858
puits, 714, 746 récursivement séparable, 682, 700
réduction, 14, 57, 92, 132, 133, 163,
quadratique 185, 201, 212, 247, 267, 317,
forme, 61, 118, 260, 268 414, 470, 573, 672, 698, 702,
irrationnel, 417 742, 769, 777, 792, 797, 805,
quaternion, 13, 58, 138 812, 855, 859, 863
conjugué, 138 calculable, 812, 855
groupe des, 13 d’endomorphismes, 57, 133, 188,
norme, 138 190, 204, 213, 288, 474

919
en espace logarithmique, 805, intégrabilité, 307, 563
860 théorème de prolongement, 467
de Gauss, 163 Riemann-Lebesgue
en temps polynomial, 740, 768, lemme de, 505, 512
774, 791, 800, 860, 863 Riesz
réflexion, 10, 138, 219, 239, 243 théorème de, 396
formule de, 527 théorème de représentation de,
théorème des trois, 239 306, 401
règle Riesz-Fischer
conjonctive, 841 théorème de, 303
de production, 758, 783 Rolle
régulier théorème de, 369, 370
nombre premier, 125 rotation, 10, 50, 142, 182, 189, 222,
rejet 239, 247, 266, 663, 732
méthode de, 649 pôles d’une, 251
relation Roth
base de données, 841 théorème de, 730
de Bézout, 14, 56, 84, 115, 657 Rouché
d’orthogonalité, 5, 52, 56, 387, théorème de, 68
533 Runge
relaxation phénomène de, 655
méthode de, 451
Samuelson-Berkowitz
répartition
algorithme de, 155
fonction de, 568, 586, 646 Sat, 791, 800, 803
représentation 2Sat, 796, 802
adjointe, 212 3Sat, 796, 801, 805
de groupe, 49, 55 CnfSat, 768, 796, 800, 805
irréductible, 51, 58, 211 Max2Sat, 805
requête, 751, 817, 839 Max3Sat, 806
conjonctive, 842, 858 MaxnSat, 806
sûre, 844 QbfSat, 805
réseau, 16, 249, 542, 710 Sat-solvers, 796
de Bravais, 249 Savitch
maille de, 110 théorème de, 672, 775, 836, 861
résidus, 407, 469, 481, 511 schéma algorithmique, 639, 836
formule des, 477 Schreier et Van der Waerden
théorème des, 407, 469, 481, 511 théorème de, 211
résolvante, 469 Schur
reste lemme de, 55, 58
uniformément petit, 277, 281 Schwartz-Zippel
rétraction, 301 lemme de, 147
Rice Scott-Curry
théorème de, 702, 828, 858 théorème de, 682, 700
Riemann Selmer
fonction ζ de, 522 courbe de, 71

920
INDEX

sémantique, 677, 789, 813, 824, 841, faible, 310, 388, 396
847 forte, 388, 396
dénotationnelle, 834, 847 modale, 384
à grands pas, 825, 830, 850 stationnaire, 386
des langages de programmation, somme
824, 847 de Newton, 155
opérationnelle, 789, 824, 830, sommet, 20, 77, 152, 573, 666, 705,
847 724, 731, 738, 743, 747, 755,
opérationnelle à grands pas, 824, 803, 807
834, 849 accessible, 709
opérationnelle à petits pas, 828, adjacent, 77, 705, 729
834 prédécesseur de, 714
à petits pas, 830, 850 successeur de, 714
semi-convergente voisinage de, 705
intégrale, 487 Sophie Germain
semi-réduite théorème de, 125
forme quadratique, 264, 272 source, 714, 746, 751
matrice, 267, 268 sous-espace
semi-simple cyclique, 190, 474
endomorphisme, 192 vectoriel stable, 459
séparable, 100, 106, 199, 281, 307 sous-graphe, 19, 77, 707, 725, 810
espace de Hilbert, 277, 281, 285 induit, 707, 729
polynôme, 106 sous-groupe
séparation additif de R, 220
par automate, 768 de congruence, 14
de langages, 768 cyclique, 54, 84
séquençage ADN, 711, 747 sous-séquence croissante, 640
série sous-solution, 347, 353, 373
centrale descendante, 214 sous-suite, 278, 284, 304, 415, 424,
entière, 407, 545, 570 432, 462, 542, 683, 809
formelle, 26, 156 spectral
de Fourier, 383, 487, 532, 561 théorème, 133, 185, 260, 267, 283
Sherman-Morrison Sperner
formule de, 137 lemme de, 713
Slutsky spline cubique, 555
lemme de, 568, 587 SQL, 846
Smith stabilisateur, 251
forme normale, 17, 133, 201 stabilité
Snell-Descartes d’un équilibre, 341
loi de, 219 d’un point d’équilibre, 347, 353
Sobolev stathme, 112, 201
norme, 538 Stieltjes
solide intégrale de, 32
de Platon, 251, 731 Stirling
solution formule de, 40, 556, 580

921
stochastique vecteur, 437
matrice, 415, 416 Tarjan
Stone-Weierstrass algorithme de, 714, 749, 804
théorème de, 497, 591 tas, 625, 633, 634
Strassen taubérien
algorithme de, 160, 836 théorème, 545
structure de données, 635, 659, 705, Tchebychev
747, 763, 781, 839 polynômes de, 556, 561
substitution, 678, 849 temps
suffixe, 747, 763 d’attente, 570
suite terme
arithmético-géométrique, 330, de λ-calcul, 677
589 terminaison, 634, 702, 743, 825
de Cauchy, 278, 303, 392 terminaux, 461, 758
convergente, 115, 186, 277, 284, théorème
305, 424, 542, 809 d’Abel, 549
régularisante, 519 d’accélération, 671
superposition de d’Alembert-Gauss, 78
principe de, 381 de l’application ouverte, 398
suppression d’Artin, 103
d’une arête, 706 de Babai, 26
d’un sommet, 706 de la base incomplète, 101, 168
surface
de Bézout, 15, 84, 116, 220
euclidienne, 248
de Birkhoff, 423
Sylow
de Bolzano-Weierstrass, 278,
sous-groupe de, 42, 44
558, 809
théorèmes de, 3, 42, 44, 57
des bouts, 339, 367–370
symétrique
de Brouwer, 296, 429, 713
groupe, 3, 18, 28, 35, 52
de Burnside, 54
matrice, 182, 185, 260, 264, 268,
de Carathéodory, 235, 428
317, 459
de Cartan, 301, 313
syntaxique
de Cauchy, 43, 87, 471
congruence, 767
de Cauchy-Lipschitz, 309, 342,
monoïde, 766
347, 354, 362, 367, 374, 385
système
de congruences, 85 de Cauchy-Peano, 309, 332
dynamique, 342, 347, 355, 365, de Cayley-Hamilton, 158, 179,
372, 594 195, 208, 210
libre, 168, 190 central limite, 563, 568, 580, 613,
linéaire, 105, 133, 135, 173, 206, 620
226, 383, 407, 445, 451, 455 de Cesàro, 531
de Chebotarev, 172
table de Chevalley-Warning, 73
d’analyse, 783 de Choquet, 423
de caractères, 49 de Church-Rosser, 679
tangent de compacité, 789, 807

922
INDEX

de complétude, 809, 824 de Kein-Milman, 424


de convergence dominée, 305, de Killing-Hopf, 243
490, 583, 592, 594, 595 de Kleene, 754, 757
de convergence monotone, 304, de Kronecker-Weber, 95
583 de Krull, 101
de Cook-Levin, 791, 800, 805, de Kuhn-Tucker, 232, 328
866 de Kummer, 120
de Cramér-Chernoff, 615, 617 de Lagrange, 44, 87, 144, 477
de Dixon, 10, 39 de Landau, 28
d’Engel, 212 de Lax-Milgram, 396, 402
d’explosion, 321, 339, 348, 354, de Lebesgue, 510
363, 370, 374 de Legendre, 421
des extrema liés, 323, 346 de Lévy, 592
de Fary, 736 de Lie-Kolchin, 211
de Feit-Thompson, 48 de Lindström, 810
de Fejér, 531 de Liouville, 512
de Fermat, 113, 120 de Maschke, 54
des fonctions implicites, 80, 324 de Minkowski, 262, 267, 268,
de Fréchet-von 512, 539
Neumann-Jordan, 280 de Mittag-Leffer, 467
de Frobenius, 139 de monodromie, 463
de Fubini, 295, 470, 499, 540, de Neumann, 313
573, 585, 589 des nombres premiers, 33
de Fubini-Tonelli, 499, 540, 573, des noyaux régularisants, 534
585 d’Ostrowski, 114
de Gauss-Lucas, 68 de Paley-Wiener, 8, 509
des gendarmes, 100 de Perron-Frobenius, 416
de Gershgorin, 451 de Pólya, 599, 606
de Hahn-Banach, 101 des quatre carrés, 144, 543
de Hasse-Minkowski, 118, 217 des quatre couleurs, 736, 789
de Heine, 298, 534 de Radon, 237
de Heine-Borel, 279 du rang, 135, 163, 167
de Helly, 235 de la réciproque, 648
de Herbrand, 807 de représentation de Riesz, 306,
d’Hermite, 260, 270 401
de Hille-Yosida, 389 des résidus, 407, 469, 481, 511
de Hurwitz, 144 de Rice, 702, 828, 858
de Immerman-Szelepcsényi, 671, de Riesz, 396
805 de Riesz-Fischer, 303
d’inversion locale, 178, 181, 301, de Rolle, 369, 370
314 de Roth, 730
d’isomorphisme, 16, 87, 123, 142, de Rouché, 68
176, 247 de Savitch, 672, 775, 836, 861
d’isomorphisme de Banach, 398 de Schreier et Van der Waerden,
de Jung, 237 211

923
de Scott-Curry, 682, 700 par insertion, 640
de Sophie Germain, 125 en place, 639
spectral, 133, 185, 260, 267, 283 problème du, 634, 743
de Stone-Weierstrass, 497, 591 rapide, 627, 639, 836
taubérien, 545 par tas, 633, 634
de transfert, 571, 583, 619 topologique, 714, 743, 803
de Turán, 724 triangulation, 713, 731
de Tychonov, 101, 808 trièdre de Frenet, 437
des valeurs intermédiaires, 78, tuple, 840
342, 355, 368, 369, 376, 559 Turán
de Wedderburn, 91 théorème de, 724
de Weierstrass, 465, 536, 547 Turing
de Zermelo, 101 degré de, 858
théorie des jeux, 432 machine de, 665, 676, 683, 687,
Thompson 692, 698, 702, 753, 774, 791,
algorithme de, 757, 778 811, 855, 860, 863
topologie saut de, 858
équivalente, 119 Tychonov
produit, 807 théorème de, 101, 808
torsion, 437 type
totale d’une permutation, 35
famille, 277, 281, 285
uniforme
trace, 55, 133, 135, 156, 316
loi, 599
trajectoire, 133, 219, 374
unité
transfert
racine de l’, 56, 92, 120, 172
théorème de, 571, 583, 619
utilité
transformation
fonction d’, 327, 429
d’Abel, 387
de Fourier, 5, 295, 509, 514, 523 valeur absolue, 14, 65, 72, 78, 114,
de Fourier (groupe abélien), 5 126, 132, 161, 204, 503
de Fourier rapide, 651, 653 archimédienne, 117
de Tseitin, 797, 866 équivalente, 114
transience, 599, 606 p-adique, 117
transitif triviale, 114
sous-groupe, 23 valeur d’adhérence, 186, 303, 430
translation, 16, 130, 144, 185, 213, valeurs intermédiaires
239, 243, 315 théorème des, 78, 342, 355, 368,
transport 369, 376, 559
équation de, 385, 388, 396 valeur propre, 52, 55, 64, 133, 135,
transport optimal, 423 155, 183, 188, 193, 195, 207,
transposition, 18, 170, 191, 316, 725 260, 283, 416, 451, 471, 544,
tri 573
à bulles, 643 validité d’une formule, 812
fusion, 633, 645, 836 van der Corput
hollandais, 633 lemmes de, 505

924
INDEX

Vandermonde voisinage
formule de, 601 entrant, 714
matrice de, 172, 652, 653 d’un sommet, 705
variable sortant, 714
aléatoire, 147, 433, 563, 565, 570,
580, 588, 594, 613, 617, 644, Waring
724 problème de, 128
séparables, 355, 381 Wedderburn
variable aléatoire théorème de, 91
Weierstrass
de Bernoulli, 570
théorème de, 465, 536, 547
i.i.d., 622, 644
théorème du produit de, 466
indépendante, 147, 565, 570, 580,
Wiedemann
594, 599, 613, 617
algorithme de, 159
moments, 590
Wiles
uniforme, 147, 644
preuve de, 124
variance
Woodbury
d’une variable aléatoire, 580
formule de, 137
variationnel
formulation, 388, 396 Zermelo
méthode, 505 théorème de, 101
vecteur zéros isolés
normal, 437 principe des, 462, 466, 481, 510
tangent, 437 ζ
vitesse fonction, 522
de convergence, 409, 442, 458, Zorn
565 lemme de, 96, 809

925

Vous aimerez peut-être aussi